top of page
  • Hideya Tanaka

Issue 183 - AIとの信頼関係をどう築くべきか

今回のSeattle Watchでは、生成AIの進化に伴うAI規制の動向について紹介していきます。EUや米国ではAI規制の議論が先行しており、私たち人間がAIと信頼関係を築いていく上で、この議論はとても重要な立ち位置を占めています。

 

対話型AIの「ChatGPT」や画像生成AIの「Dall・E」といった生成AIが進化する中で、AI規制に向けた動きが世界中に広がっています。広島で開催されたG7首脳会議でも、責任あるAIの推進に向けて、「広島AIプロセス」(AI規制を議論する枠組み)の創設が首脳声明に盛り込まれるなど、グローバルなルールづくりも始まろうとしています。


AI規制の議論は欧米諸国が先行しており、企業もこの動向に注目して適切な対応を取らなければ、機会を逃したり、大きなリスクに晒されたりする可能性があります。ここではEU、米国、中国でのAI規制に関する現時点での議論や法案についていくつか紹介していきたいと思います。


EUでは、生成AIを含む包括的なAI規制案が欧州議会の委員会で5月に承認され、6月には本会議で採決が実施される見通しとなっています。この規制案は、AI を健康、安全、人権などのリスクの観点から、①許容できないリスク(禁止されるAI)、②ハイリスク(規制されるAI)、③限定リスク(透明性義務を伴うAI)、④最小リスク(規制なしのAI)の4段階に分類しています。そして、リスクの程度に応じて規制の内容を変えるというアプローチを採用しており、AIツールを使用する政府や企業は、リスクのレベルに応じて異なる義務を負うことになります。例えば、限定リスクAIの場合は、AIチャットボットと対話しているユーザーに、AIが関与していると知らせる義務や、コンテンツが人工的に生成・操作されたものであることを明らかにする義務などが生じる可能性があります。もし、こうした義務を遵守しない場合、そのAIをEU加盟国内で提供・販売する企業(海外企業も含む)は全世界売上総額の最大6%に相当する巨額の罰金が科されたり、EUでビジネスができなくなったりするおそれがあります。 https://www.soumu.go.jp/main_content/000826707.pdf


米国でも、バイデン政権がAIに関する責任あるイノベーションの推進策を発表しています。この施策には、責任あるAIの研究開発への投資、民間企業が開発した生成AIの客観的な評価(第三者検証)、連邦政府によるAI利用に関する指針の策定が盛り込まれています。また、政権高官らはAlphabet(Googleの親会社)、Microsoft、そして対話型AIを開発するOpenAIおよびAnthropicのCEOらと会合を開き、AIに関連するリスクや安全対策を巡って議論を行っています。 https://www.jetro.go.jp/biznews/2023/05/7c5bc3a8bf11f2ff.html


中国も生成AIの規制に着手しています。中国共産党はAI産業の発展を重視すると同時に、生成AIの自由な利用で政府批判が広がるのを警戒しており、党への脅威を排除する管理規則が近く施行されると見られています。中国政府が4月に発表したAIを活用したサービスに対する規制案には、生成AIを活用したサービスを提供する場合は当局の事前審査を受けることを義務づけるという内容も含まれています。また、AIが生成するコンテンツは、社会主義の価値観を反映し、差別やプライバシーの侵害を防止しなければならないとしています。 https://www3.nhk.or.jp/news/html/20230411/k10014035501000.html  


このように各国でAIを規制する枠組みの整備が進んでいますが、それと同じくらい重要な論点が、人間がAIをどれだけ信頼できるかという問題です。Microsoftでは「信頼できるAI」(Trusted AI)をキーワードに、AIの信頼性についてFATEという観点から取り組んでいます。FATEとは、公平性(Fairness)、説明責任(Accountability)、透明性(Transparency)、倫理(Ethics)の4つの要素のことで、AI学習に使われるデータの偏りからくる不公平性の問題、AIが誤った処理や判断をした場合の説明責任の問題、AIがどのようなプロセスで処理や判断を行ったかを明らかにする透明性の問題、そしてさまざまな文化や状況に応じた倫理問題への対応をそれぞれ意味しています。 https://pc.watch.impress.co.jp/docs/news/1046510.html


実際の現場でも、人間とAIの信頼を構築するための取り組みが行われ始めています。AIの透明性でよく取り上げられるのが、ブラックボックス問題(AIがどのような処理を行って、なぜその判断に至ったかをユーザーが理解できない問題)です。この問題が解決しない状態では、どれだけAIが優れていても、AIを信頼していない消費者や従業員にAIを使うように求めても、それを安心して使ってもらうことは難しくなります。そこで、英国のある自動車メーカーでは、AIツールの開発段階から現場の作業者を巻き込むことでこの問題に対処しています。同社では車体の組み立て工程にAIを導入して、不具合のある部品を特定することを目指しており、そのAIの開発段階において、AIのエンジニアが現場の組み立て作業者を巻き込み、彼らの現場での問題意識をヒアリングしました。その結果、現場の作業者はAIによる提案や警告をより容易に解釈して理解できるようになり、AIを信頼できる同僚としてみなすようになったそうです。 https://www2.deloitte.com/jp/ja/pages/technology/articles/tsa/tech-trends.html


コンサルタントの川口伸明氏は、著書「2060 未来創造の白地図」の中で、私たちはロボットやAIなどの機械的知性、あるいは機械的生命体とでも呼ぶべき多様な存在と共存する未来に直面するだろうと述べています。つまり、人間がAIなどの新しい知性とどのような関係を築くことができるかが今後の未来を大きく左右するでしょう。AIが人間の仕事を奪うという懸念もありますが、いつの時代も人間の仕事は変化してきました。最近では、プロンプトエンジニア(生成AIに対して人間がイメージしているコンテンツを適切に生成できるように命令を出すエンジニア)といった新しい職業も注目されてきています。AIとの信頼関係を築く上では、AIを適切に規制・コントロールすると同時に、AIとの協働を伴う新しい仕事に就けるように学び続ける姿勢がますます重要になってくると思います。



Recent Posts

See All

SW 211 - Webrain Report のご紹介

今回のSeattle Watchでは、弊社が提供しているサービスの1つであるWebrain Reportについて紹介するとともに、そのレポートの内容をより掴んでいただくために、過去のレポートの抜粋版を特別に皆さまに無償でご提供することにしています。ご興味ある方はお申込みください。 世界では、指数関数的なテクノロジーの進化が続いています。Intelの創業者の一人であるゴードン・ムーア氏が1965年に

SW 210 - シアトルで台頭するキッチンテック

今回のSeattle Watchでは、先月シアトルで開催されたSmart Kitchen Summit(SKS)について紹介していきます。前回は、生成AIによる自律的な協働ロボットの進化について紹介しましたが、こうした自動化の流れが私たちにより身近な場所であるキッチンにも来ようとしています。 シアトルで有名な産業と言われて、すぐに思い浮かぶのは、Boeingの航空宇宙産業、MicrosoftやAm

SW 209 - 生成AIがロボット産業に与える影響

今回のSeattle Watchでは、より自律的なCobot(協働ロボット)の進化について紹介していきます。 生成AIの後押しを受けて、Teslaが開発するOptimus(二足歩行の人型ロボット)に代表されるような汎用ロボットの開発が進んでいます。今後、こうした汎用ロボットは工場や倉庫などの現場の中にますます入っていくことが予測されており、人間の作業者は彼らと信頼関係を築きながら、より安全で生産性

bottom of page