政府は11日、「AI利活用における民事責任の解釈適用に関する手引き」を公表しました。この手引きは、企業や個人がAI技術を活用する際の法的責任の範囲や適用基準を明確化することを目的としており、AI技術の健全な普及促進を図る取り組みの一環とみられます。
手引きでは、AI システムが引き起こした損害について、開発者、提供者、利用者それぞれの責任範囲を具体的な事例を交えて解説しています。特に、製造物責任法(PL法)の適用範囲や、過失責任の判定基準について詳細な指針が示されており、これまで曖昧だった責任の所在が整理された形となります。
国内のAI市場規模は、民間調査機関の推計によると2025年度には約1兆2000億円に達するとされており、企業のAI導入は加速している状況です。一方で、AI技術の普及に伴い、自動運転車の事故や医療AIの診断ミス、金融AIの不適切な与信判断など、AI関連の法的トラブルも増加傾向にあるとされています。
今回の手引きでは、AIの学習データに問題があった場合の責任や、AIが予期しない動作を行った際の対応方法についても言及しています。また、企業がAI利用時に講じるべき安全管理措置や、利用者への適切な情報提供の重要性についても強調されており、実務での活用を想定した内容となっています。
法務関係者からは、これまで企業がAI導入を躊躇する要因の一つが法的責任の不透明さだったとの指摘があり、今回の手引き公表により企業のAI活用が一層進む可能性があります。一方で、技術の進歩に法整備が追いつかない側面もあり、継続的な見直しが必要との声も聞かれます。
政府は今後、この手引きを基に関連する法制度の整備を進めるとともに、企業向けの説明会や相談窓口の設置なども検討していく方針とみられます。AI技術の発展と法的枠組みの整備が両輪となって進むことで、日本のデジタル競争力の向上につながることが期待されています。
