代表的な循環器疾患治療薬の成分名や適応、副作用情報の説明を生成AI「チャットGPT」に求め、出力された結果を医療用医薬品の添付文書と比較したところ、55品目中39品目(70.9%)において一見事実であるかのような“ハルシネーション”(幻覚)が生じていたことが、岩手医科大学薬学部臨床薬学講座地域医療薬学分野の松浦誠特任教授らの研究で明らかになった。松浦氏は「まだチャットGPTが生成する回答の大部分にハルシネーションが生じているが、アルゴリズムの改善や医薬品情報の学習を経ることで薬剤師業務の強力なツールとなる」と期待感を示す。
チャットGPTは、医薬品情報の要約や服薬支援情報の生成など薬剤師業務への有用性が期待されているが、ハルシネーションと呼ばれる不正確な情報生成が行われることも知られており、その活用の仕方が模索中である。
* 全文閲覧には 薬事日報 電子版 » への申込みが必要です。