top of page
  • Hideya Tanaka

Issue 183 - AIとの信頼関係をどう築くべきか

今回のSeattle Watchでは、生成AIの進化に伴うAI規制の動向について紹介していきます。EUや米国ではAI規制の議論が先行しており、私たち人間がAIと信頼関係を築いていく上で、この議論はとても重要な立ち位置を占めています。

 

対話型AIの「ChatGPT」や画像生成AIの「Dall・E」といった生成AIが進化する中で、AI規制に向けた動きが世界中に広がっています。広島で開催されたG7首脳会議でも、責任あるAIの推進に向けて、「広島AIプロセス」(AI規制を議論する枠組み)の創設が首脳声明に盛り込まれるなど、グローバルなルールづくりも始まろうとしています。


AI規制の議論は欧米諸国が先行しており、企業もこの動向に注目して適切な対応を取らなければ、機会を逃したり、大きなリスクに晒されたりする可能性があります。ここではEU、米国、中国でのAI規制に関する現時点での議論や法案についていくつか紹介していきたいと思います。


EUでは、生成AIを含む包括的なAI規制案が欧州議会の委員会で5月に承認され、6月には本会議で採決が実施される見通しとなっています。この規制案は、AI を健康、安全、人権などのリスクの観点から、①許容できないリスク(禁止されるAI)、②ハイリスク(規制されるAI)、③限定リスク(透明性義務を伴うAI)、④最小リスク(規制なしのAI)の4段階に分類しています。そして、リスクの程度に応じて規制の内容を変えるというアプローチを採用しており、AIツールを使用する政府や企業は、リスクのレベルに応じて異なる義務を負うことになります。例えば、限定リスクAIの場合は、AIチャットボットと対話しているユーザーに、AIが関与していると知らせる義務や、コンテンツが人工的に生成・操作されたものであることを明らかにする義務などが生じる可能性があります。もし、こうした義務を遵守しない場合、そのAIをEU加盟国内で提供・販売する企業(海外企業も含む)は全世界売上総額の最大6%に相当する巨額の罰金が科されたり、EUでビジネスができなくなったりするおそれがあります。 https://www.soumu.go.jp/main_content/000826707.pdf


米国でも、バイデン政権がAIに関する責任あるイノベーションの推進策を発表しています。この施策には、責任あるAIの研究開発への投資、民間企業が開発した生成AIの客観的な評価(第三者検証)、連邦政府によるAI利用に関する指針の策定が盛り込まれています。また、政権高官らはAlphabet(Googleの親会社)、Microsoft、そして対話型AIを開発するOpenAIおよびAnthropicのCEOらと会合を開き、AIに関連するリスクや安全対策を巡って議論を行っています。 https://www.jetro.go.jp/biznews/2023/05/7c5bc3a8bf11f2ff.html


中国も生成AIの規制に着手しています。中国共産党はAI産業の発展を重視すると同時に、生成AIの自由な利用で政府批判が広がるのを警戒しており、党への脅威を排除する管理規則が近く施行されると見られています。中国政府が4月に発表したAIを活用したサービスに対する規制案には、生成AIを活用したサービスを提供する場合は当局の事前審査を受けることを義務づけるという内容も含まれています。また、AIが生成するコンテンツは、社会主義の価値観を反映し、差別やプライバシーの侵害を防止しなければならないとしています。 https://www3.nhk.or.jp/news/html/20230411/k10014035501000.html  


このように各国でAIを規制する枠組みの整備が進んでいますが、それと同じくらい重要な論点が、人間がAIをどれだけ信頼できるかという問題です。Microsoftでは「信頼できるAI」(Trusted AI)をキーワードに、AIの信頼性についてFATEという観点から取り組んでいます。FATEとは、公平性(Fairness)、説明責任(Accountability)、透明性(Transparency)、倫理(Ethics)の4つの要素のことで、AI学習に使われるデータの偏りからくる不公平性の問題、AIが誤った処理や判断をした場合の説明責任の問題、AIがどのようなプロセスで処理や判断を行ったかを明らかにする透明性の問題、そしてさまざまな文化や状況に応じた倫理問題への対応をそれぞれ意味しています。 https://pc.watch.impress.co.jp/docs/news/1046510.html


実際の現場でも、人間とAIの信頼を構築するための取り組みが行われ始めています。AIの透明性でよく取り上げられるのが、ブラックボックス問題(AIがどのような処理を行って、なぜその判断に至ったかをユーザーが理解できない問題)です。この問題が解決しない状態では、どれだけAIが優れていても、AIを信頼していない消費者や従業員にAIを使うように求めても、それを安心して使ってもらうことは難しくなります。そこで、英国のある自動車メーカーでは、AIツールの開発段階から現場の作業者を巻き込むことでこの問題に対処しています。同社では車体の組み立て工程にAIを導入して、不具合のある部品を特定することを目指しており、そのAIの開発段階において、AIのエンジニアが現場の組み立て作業者を巻き込み、彼らの現場での問題意識をヒアリングしました。その結果、現場の作業者はAIによる提案や警告をより容易に解釈して理解できるようになり、AIを信頼できる同僚としてみなすようになったそうです。 https://www2.deloitte.com/jp/ja/pages/technology/articles/tsa/tech-trends.html


コンサルタントの川口伸明氏は、著書「2060 未来創造の白地図」の中で、私たちはロボットやAIなどの機械的知性、あるいは機械的生命体とでも呼ぶべき多様な存在と共存する未来に直面するだろうと述べています。つまり、人間がAIなどの新しい知性とどのような関係を築くことができるかが今後の未来を大きく左右するでしょう。AIが人間の仕事を奪うという懸念もありますが、いつの時代も人間の仕事は変化してきました。最近では、プロンプトエンジニア(生成AIに対して人間がイメージしているコンテンツを適切に生成できるように命令を出すエンジニア)といった新しい職業も注目されてきています。AIとの信頼関係を築く上では、AIを適切に規制・コントロールすると同時に、AIとの協働を伴う新しい仕事に就けるように学び続ける姿勢がますます重要になってくると思います。



Recent Posts

See All

SW 203 - MWC Barcelona 2024 and SXSW 2024

今回のSeattle Watchでは、2月末から3月上旬にかけて開催されたMWC(Mobile World Congress)とSXSW(South by Southwest)という2つの展示会で取り上げられた業界のトレンドや将来予測について紹介していきたいと思います。 MWC(Mobile World Congress)は、毎年スペインのバルセロナで開催される世界最大級のモバイル技術の展示会で、

SW 202 - Global Sales Boot Camp 開催報告

新しいプログラムであるGlobal Sales Boot Camp(以下SBC)を2月下旬に初開催しました。SBCは、自らのセールス力をアメリカで試し、グローバルでの成功に欠かせないマインドやスキルを実践的に伸ばすプログラムで、今のアメリカにおけるセールス・マーケティングのリアリティを体験できる様々な実践的なセッションを用意しました。今回のSeattle Watchでは、その内容を少しご紹介してい

SW 201 - 米国のEコマース市場の最新動向

今回のSeattle Watchでは米国の最新のEコマーストレンドについて紹介していきたいと思います。Temuなどの中国の越境ECプラットフォームが低価格を武器に米国市場に参入する中で、AmazonやWalmartなどの既存プレイヤーは、さらなる顧客体験の向上を図ることで、彼らに対峙しようとしています。 米国ではNFLの王者を決めるスーパーボウルが2月11日に行われ、カンザスシティ・チーフスが3年

Comments


bottom of page