国立研究開発法人国立がん研究センターは、公的ながん情報に基づいて回答するAIチャットボット基盤を構築した。12月8日、システム開発を担当したpiponが発表した。検索拡張生成(RAG)技術を活用して同センターが運営する「がん情報サービス」の正確な情報を参照させることで、生成AIによる誤った回答(ハルシネーション)を大幅に削減した。医療分野における安全なAI活用の可能性を示す成果として、国際的な医学誌でも評価された。
国立がん研究センターは、日本におけるがん対策の中核を担う国立研究開発法人。がん患者やその家族、一般市民に向けて正しい情報を提供することは重要な使命の一つだが、インターネット上には医学的に不正確な誤情報も多く存在し、患者が誤った情報に基づくリスクにさらされることが課題となっていた。
そこで同センターは、生成AIの利便性を活かしつつ、誤情報の提供を防ぐための仕組み作りを目指し、医療領域向けのAIソリューションを手掛けるpiponと共同研究を開始した。piponは、医療現場向けAIカルテ生成サービス「ボイスチャート」で培った技術を応用し、RAGシステム全体の設計と実装を担当した。
構築したAIチャットボット基盤は、国立がん研究センターが運営する「がん情報サービス(CIS)」のコンテンツのみを参照情報として利用するよう設計されている。ユーザーからの質問に対して、信頼できるCISの情報を検索・抽出し、それを基に回答を生成する仕組みだ。
本基盤を用いた評価検証では、がんに関連する62問の質問に対する回答を医師が評価した。その結果、RAGを用いない従来のチャットボットでは約40%の回答に医学的な誤りが含まれていたのに対し、CISを参照するRAGチャットボット(GPT-4使用時)では、誤った回答が0%になるという結果が得られた。
また、Google検索の結果を参照するRAGチャットボットと比較しても、CISを参照する方式の方が高い安全性が確認された。Google検索を参照した場合、GPT-4を用いても13%の誤回答が発生しており、多変量解析の結果、ハルシネーション発生のリスクはCIS参照型と比較して9.4倍高かった。これにより、AIモデルの性能以上に「どの情報源を参照するか」が安全性を左右することが定量的に示された。さらに、CISに該当情報がない場合は「回答を控える」挙動を示すなど、誤情報の提示を徹底して避ける設計も機能している。
今回の成果により、公的情報やエビデンスベースの情報に限定することで、医療分野でも安全に生成AIを活用できる可能性が示された。今後は参照する情報源をガイドラインや学術論文、公的資料などへと拡張することで、医療機関や公的機関向けのより高度で信頼性の高いAIチャットボットへと発展させていく方針だ。