企業の採用活動で活用が進むAI(人工知能)システムをめぐり、応募者の大量却下や差別的な判定への訴訟が相次いでいます。業界関係者によると、主要な採用AIシステムでは年間約11億件の応募書類が処理される中、不適切な判定による却下が問題視されており、責任の所在を問う法的争いが各地で起きています。
採用AIシステムは、履歴書や職務経歴書の内容を自動で分析し、企業の求める人材像に適合するかを判定する技術です。人事担当者の負担軽減や効率化を目的に、大手企業を中心に導入が拡大しています。しかし、学習データに含まれる偏見がAIの判定に反映され、性別や年齢、出身地域などによる差別的な選考が行われているとの指摘が増えています。
問題となっているのは、AIが過去の採用データを学習する際に、従来の人事判断に含まれていた無意識の偏見まで取り込んでしまうことです。その結果、特定の属性を持つ応募者が系統的に不利な評価を受けるケースが報告されています。専門家は、AIシステムの透明性不足により、応募者が却下理由を十分に理解できない状況も問題を深刻化させていると指摘しています。
法的責任をめぐっては、AIシステムを開発した企業と、それを導入・運用する企業のどちらが責任を負うべきかが争点となっています。開発企業側は「適切な使用方法を提示している」と主張する一方、導入企業は「システムの内部動作は把握しきれない」として、双方が責任の所在を明確にしない状況が続いています。
この問題を受け、政府は採用AIの公正性を確保するためのガイドライン策定を検討しています。業界団体でも、AIシステムの判定プロセスの透明化や、定期的な偏見チェックの実施などを盛り込んだ自主規制ルールの整備が進められています。一部の企業では、AIによる一次選考の結果を人間が再確認する体制を導入する動きも見られます。
今後は、AI技術の発展と公正性の両立が重要な課題となりそうです。採用プロセスの効率化というメリットを維持しながら、差別的判定を防ぐ技術開発や法制度の整備が急がれます。また、企業には採用AIの適切な運用と、応募者への十分な説明責任が求められる時代となっています。
