株式会社ミンテンテック

医師とAIは協力できるのか?

2024/12/16

医師とAIは協力できるのか?

 最近、スタンフォード大学生物医学研究センター、スタンフォード大学医学部、ハーバード医学院などが共同で発表した論文が、米国の権威ある医学専門誌「JAMA(Journal of the American Medical Association)」に発表され、注目を集めています。この研究は、ChatGPTなどのAIが医師の診断にどのような影響を与えるかを探求したもので、
ChatGPTが病気を診断する能力が人間の医師を上回る結果が示されたことで、医療関係者の間に衝撃が走っています。
 この研究では米国の主要病院に勤務する医師50人をランダムに抽出して調査を行いました。これには医師免許を取得して間もない研修医から経験豊富な主治医まで、さまざまなレベルの医師が含まれています。過去の様々な症例データを見せて、それを基に病名の診断をさせたところ、診断の際にChatGPTの支援を受けた医師の正答率が76%であったのに対し、ChatGPTを利用しなかった医師では同74%とほとんど差が見られませんでした。
 一方で全く同じ症例データをまるごとChatGPTに入力して診断させたところ、その正答率は90%に達しました。ChatGPTの診断能力がこれほど高いにもかかわらず、ChatGPTの利用した医師の正答率が利用していない医師の正答率とあまり変わらない理由として考えられるのは、人間医師の直感やバイアスが邪魔をして、自分の意見と異なる
AIの所見を受入れなかったことが挙げられます。
 それでは今後は医師が不要になるのかと言えば、そうではありません。ChatGPTのようなAIは人間のような身体を持たないため、外科手術などは不可能です。AIにできるのは病気の診断に限定されます。また、AIは感情や共感に基づく判断ができないため、患者との信頼関係を構築するのは難しいでしょう。さらに倫理的なリスクとして、AIに診断を
完全に任せることで発生する責任の問題もあります。
 今回の研究は、AIが単独で高精度な診断を行える可能性を示す一方で、人間医師との協力には課題があることを浮き彫りにしました。今後、AIをどのように活用し、医療現場での効率化と信頼性を両立させるかが鍵となります。人間医師の共感能力を活かしつつ、AIを支援ツールとして効果的に運用できることが理想的であると言えるでしょう。