ChatGPTは臨床記録から救急患者の緊急度を評価可能
Use of a Large Language Model to Assess Clinical Acuity of Adults in the Emergency Department

カテゴリー
救急医療
ジャーナル名
JAMA Network Open
年月
May 2024
7
開始ページ
e248895

背景

ChatGPTなどの大規模言語モデル(LLM)については、すでに多くの医療応用が検討されている。その中でも、情報を要約するその能力に着目し、カルテや読影レポートから要点を抽出する試みは有望視されている。
アメリカUniversity of California, San FranciscoのWilliamsらは、同施設の救急外来を受診し、Emergency Severity Index緊急度レベルが記録され、対応する医師のメモが残されている患者(n=251,401)を対象とした横断研究を実施し、より緊急性の高い患者を特定するGPT-4(OpenAI社, GPT-4o登場以前の最高モデル)を評価した。

結論

GPT-4は、ランダムにサンプリングされた10,000組の患者のペアのうち、8,940組についてより高い緊急度の患者を正しく推定した(精度 0.89)。GPT-3.5のパフォーマンス(0.84)は、GPT-4を下回った。
人の手で分類を行った500組のサブサンプルにおいても、GPT-4は同等のパフォーマンスを示し(0.88)、これは人間の医師によるレビュー(0.86)と同等であった。

評価

ChatGPTは医師の記録に基づいて、救急患者の緊急度を正確に判定することが可能であった。トリアージ支援におけるLLMの有用性を示唆する結果であり、意思決定ツールへの組み込みなどが、今後検証されていくものとなる。

関連するメディカルオンライン文献

大規模臨床試験、新規の薬・機器・手法・因子・メカニズムの発見に関する文献を主に取り上げ、原文の要約と専属医師のコメントを掲載。

(制作協力:Silex 知の文献サービス

取り上げる主なジャーナル(救急医療)

The Journal of the American Medical Association(JAMA)、Lancet、Critical Care Medicine (Crit Care Med)、The New England Journal of Medicine (NEJM)