AI悪用の「なりすまし面接」が急増、6500件超を確認
採用面接でAI技術を悪用した「なりすまし面接」が急増し、6500件を超える事例が確認されました。企業の採用プロセスに深刻な影響を与えています。
企業の採用面接において、AI技術を悪用した「なりすまし面接」が急激に増加していることが明らかになりました。業界関係者によると、2026年に入ってから確認された事例は6500件を超えており、企業の採用プロセスに深刻な影響を与えています。
なりすまし面接とは、本人以外の第三者が応募者になりすまして面接を受ける行為で、最近では生成AIやディープフェイク技術を活用した高度な手法が使われています。リアルタイム音声変換技術や映像合成技術により、面接官が気づくことが困難なレベルまで技術が向上しているとみられます。
特にオンライン面接が一般化した2024年以降、この問題は顕著になっています。人材業界の専門家によると、IT関連職種やリモートワーク可能な職種での被害が多く報告されており、一部の企業では採用後に発覚するケースも増加傾向にあります。
対策として、複数の企業が面接プロセスの見直しを進めています。本人確認の強化、複数回の面接実施、実技テストの導入などが検討されており、一部では生体認証技術の導入も始まっています。また、採用支援システムを提供する企業では、AI検知技術の開発を急いでいます。
法的な観点では、なりすまし面接は私文書偽造や詐欺罪に該当する可能性があり、実際に刑事告発に至ったケースも報告されています。企業側では被害届の提出を検討する動きも出ており、今後は法的措置を含めた厳格な対応が求められています。
デジタル庁では、AI技術の適正利用に関するガイドライン策定を急いでおり、採用プロセスにおけるAI利用の規制強化も議論されています。専門家は、技術の進歩に合わせた継続的な対策の見直しと、業界全体での情報共有が重要だと指摘しており、今後は官民連携による包括的な対策が求められそうです。
