毎週木曜日に配信している「データサイン・ランチタイムトーク」の模様をレポートします。当記事で取り上げるのは以下の配信です。

  • 配信日:2024年8月1日 
  • タイトル:本日施行、欧州AI法の概要 
  • メインスピーカー:DataSign(データサイン) 代表取締役社長 太田祐一
  • MC:ビジネスディベロッパー 宮崎洋史

個人の権利・自由や社会の保護とイノベーションの促進

2024年8月1日、EU域内でのAI(人工知能)技術の提供・使用にルールを課す「欧州AI法」(EU Artificial Intelligence Act)が施行されました。法律の概要をランチタイムトークで取り上げました。

欧州AI法は、個人の権利や自由、安全な社会を侵害する懸念のあるAIの提供や使用を厳しく制限する一方、AIを適切に用いたビジネスや技術の開発、イノベーションの促進を両立するねらいがあります。

欧州AI法の規制対象になるのはまず、プロバイダーと総称される、一定のリスクを有するAIシステムおよび汎用目的型AI(GPAI:General-Purpose AI)モデルの開発者、またはそれらを用いたサービスをEU各国の市場で展開する提供者です。加えて、高いリスクを有するAIシステムを用いるユーザー(職務外の個人利用は除く)や輸入業者(インポーター)、販売業者(ディストリビューター)が対象になります。

「当該AIシステムがEU域外で開発されたものでも、そのシステムから出力されたコンテンツがEU域内で使用される場合は、規制の対象になるので注意が必要です」(データサイン 代表取締役社長 太田祐一)

個人の権益を侵害するAIの提供や使用は「禁止」です

欧州AI法はリスクベースのアプローチを採用しています。次の表に示した4つのリスクでAIを分類し、リスクの程度に応じて規制を受けます。

リスクの種類 規制レベル 具体例
容認できないリスク 禁止 ・市民の行動を評価し、公共サービスへのアクセスを制限する社会的スコアリングシステム
・人々の意識下で行動を変えさせるAI広告などサブリミナル技術を用いるシステム
・高齢者の認知機能の低下を利用して不適切な製品を販売するAI
高リスク 厳格な規制 ・採用や人事評価に使用されるAI
・教育機関での入学選考や学習評価に利用されるAI
・信用スコアリングAI
・自動運転車や医療機器などの安全性に関わるAI
・犯罪予測AI
限定的リスク 透明性義務 ・顧客サービス向けAIなどを用いるチャットボット
・マーケティング研究用の表情分析AIなどの感情認識システム
・エンターテインメント目的で作成された人工的な映像といったディープフェイク
最小リスク 規制なし(自主的な行動規範の適用を推奨する) ・AIを用いたスパムフィルター
・AIベースのビデオゲーム
・スマートホームデバイスで用いられる制御AI
出典:「The EU Artificial Intelligence Act」(https://artificialintelligenceact.eu/)の内容に基づきデータサインにて作成

厳格な規制が適用される高リスクAIを提供するプロバイダーの場合、リスク管理システムの導入やデータガバナンスの実施、技術文書の作成や記録保持、透明性の確保や情報提供などが義務付けられています。限定的リスクAIを提供する場合は、一部の取り組み(透明性の確保や情報提供など)が義務化されます。

EU域内でビジネスをする日本企業はぜひチェック 

生成AIに用いられる汎用目的型AIモデルについては、技術文書や取扱説明書の提供、著作権保護に関する法令の遵守、トレーニングに用いたコンテンツについての概要の開示などが義務付けられています。

「特にトレーニングに使用された計算量(FLOPS)が一定規模を超える“頭のよい生成AI”には、EU域内の人々の健康や安全、セキュリティ、基本的人権、社会全体にネガティブな影響を与えるおそれ(システミックリスク)があることから、その影響評価や重大インシデント発生時の報告義務など、より高いレベルの規制がかけられています」(太田)

一方でEU各加盟国には、革新的なAIシステムを市場投入する前に管理された環境でテスト、検証できる「AI規制サンドボックス」を設立することが義務付けられます。このAI規制サンドボックスでは、他の目的で収集された個人データの使用を特定の条件下で使用することが認められています。

欧州AI法の適用は段階的に実施されます。まず2025年2月からは容認できないリスクを有するAIの提供や使用などが禁止されます。全面的な適用は2027年8月からです。

EU域内に拠点を持たない日本企業でもプロバイダーなどに該当しないか法務部や専門家に確認しておくとよいでしょう。