AI法で事業者に罰則検討、著作権侵害やディープフェイク被害増加で自民が提言案
自民党がAI関連事業者への罰則導入を検討する提言案をまとめました。著作権侵害やディープフェイク被害の相次ぐ発生を受けた措置です。
自民党は23日、AI(人工知能)関連事業者に対する罰則の導入を検討する提言案をまとめました。近年、AIを悪用した著作権侵害やディープフェイクによる被害が相次いでいることを受けた措置で、法的規制の強化を求める声が高まっていることに対応したものです。
提言案では、AI技術を使った著作権侵害行為や、本人の同意なく作成されたディープフェイク画像・動画の拡散などに対し、事業者への罰則適用を検討するとしています。特に、生成AIを提供する事業者に対しては、悪用防止のための技術的措置の実装や、利用者への適切な注意喚起を義務付けることも盛り込まれているとみられます。
背景には、AI技術の急速な普及に伴い、悪意のある利用事例が急増していることがあります。著作権を侵害したコンテンツの大量生成や、著名人や一般人の顔を無断で使用したディープフェイク動画の作成・拡散が社会問題化しており、被害者からの救済を求める声が強まっています。
現行の法制度では、AI技術を使った新たな形態の権利侵害に対する対応が不十分とされており、被害の立証や責任の所在を明確化することが困難な状況が続いています。業界関係者からは「技術の進歩に法整備が追いついていない」との指摘も出ており、早急な法改正を求める声が上がっています。
一方で、AI事業者からは過度な規制が技術革新を阻害する可能性があるとの懸念も示されています。規制の範囲や罰則の程度について、技術発展と権利保護のバランスを取った慎重な検討が必要との意見もあり、今後の議論では産業界との調整が重要な課題となりそうです。
自民党は今回の提言案を政府に提出し、次期通常国会での法案提出を目指す方針です。AI技術の健全な発展を促進しながら、同時に権利侵害や悪用を防ぐための法的枠組みの整備が、日本のデジタル社会の信頼性向上にとって重要な分岐点となる可能性があります。
