医療分野におけるAIチャットボットの活用が急速に広がる中、健康相談での利用について信頼性を疑問視する声が高まっています。生成AIの普及により、症状の相談や健康アドバイスを求める利用者が増加している一方で、医療専門家からは診断精度や責任の所在について懸念が示されています。
現在、国内では複数の企業がAIを活用した健康相談サービスを展開しており、利用者数は推計で約200万人に達するとみられています。これらのサービスでは、症状を入力することで可能性のある疾患や対処法が提示されますが、あくまで参考情報としての位置づけに留まっているのが現状です。
医療業界関係者によると、AIチャットボットの診断精度は一般的な症状については70-80%程度の正確性を示すものの、複雑な症状や稀な疾患については精度が大幅に低下する傾向があります。また、個人の既往歴やアレルギー情報、服薬状況などの詳細な医療情報を適切に考慮することが困難な場合も多いとされています。
特に問題となるのは、利用者がAIの回答を過信してしまうケースです。軽微な症状を重篤な疾患と誤診して不安を煽ったり、逆に深刻な症状を軽視して適切な受診機会を逃したりする可能性が指摘されています。厚生労働省では、こうしたリスクを踏まえ、AIを活用した医療サービスに関するガイドライン策定を検討している模様です。
一方で、AIチャットボットには24時間対応可能で、医療機関への相談前の初期スクリーニングとしての役割など、一定のメリットも認められています。医師不足が深刻化する地方部では、医療へのアクセス向上につながる可能性もあるとして、適切な活用方法を模索する動きも見られます。
医療従事者の間では、AIチャットボットを補助的なツールとして位置づけ、最終的な診断や治療方針の決定は必ず医師が行うべきとの意見が主流となっています。また、利用者に対してはAIの限界を十分に理解した上で活用することの重要性が強調されています。
今後は、AIの診断精度向上に向けた技術開発と並行して、適切な利用方法の啓発や法整備が急務となります。医療とAIの融合は避けられない流れである一方、患者の安全を最優先とした慎重なアプローチが求められる状況が続くとみられます。
