
医学のあらゆる分野で、研究者や医師は患者の評価と診断を支援するために人工知能と機械学習に注目しています。これらの技術によって、診断プロセスが迅速化され、人間の目や脳では容易に認識できない信号やパターンを捉えられるようになることを期待しています。精神医学の分野では、治療に関する意思決定に患者との会話が必要となることが多いため、この技術はケアの強化につながる可能性があります。
「私たちは患者の反応を分析する方法を研究しています」と、コロラド大学認知科学研究所の研究教授であるピーター・フォルツ氏は語る。「現在、精神科医療においては、患者が医師と接する時間がほとんどありません。多くの医師は遠隔地にいるので、時間を割くのが難しいのです。」この問題を少しでも解決するため、フォルツ氏と彼のチームは、個人の精神状態に関するデータを収集・分析し、医師に報告できるアプリケーションの開発に取り組んでいる。
このようなツールは医師や精神科医に取って代わるために設計されたものではなく、彼らのケアの質をさらに向上させるために設計されていると彼は強調する。そして、彼らの役割に関する研究が進むにつれて、彼らの貢献に対する信頼を築く最善の方法にも注意を払うことが同様に重要になる。「これを本当に実現するためには、一般の人々と精神医学界が、人工知能が何ができ、何ができないのか、そしてそれをどのように評価するのかについて、より深い理解を持つ必要があります」と彼は言う。
今週発表された新たな論文で、フォルツ氏と彼の同僚たちは、そうした信頼を築くための枠組みを概説した。この論文では、精神医学における人工知能が目指すべき3つの重要な目標、すなわち説明可能性、透明性、そして一般化可能性が強調されている。「精神医学の現場でAIを応用したいと考えるなら、これらを真剣に考えるべき柱だと考えています」と彼は述べている。
人工知能はブラックボックスになる可能性があり、臨床での使用を目的としたプログラムには、そのプログラムがどのように構築され、どのようなデータでトレーニングされたかに関する情報が付属している必要があります (透明性)。また、プログラムがどのようにして決定に至ったかについて、臨床医には可能な限り多くの情報が提供される必要があります (説明可能性)。
「機械が予測を行うとき、何に基づいて予測を行っているのでしょうか?」とフォルツ氏は言う。「私たちは、この技術がどのように活用できるのか、どのようにしてその結果が得られるのか、そしてその結果が何を意味するのかを人々に理解してもらいたいのです。」
人工知能プログラムは、まず既知の診断または病名を持つ特定のデータセットで学習し、そのデータセットから学習した内容を用いて、新しい情報や未知の情報について判断を下します。しかし、これらのプログラムは、学習に使用した特定の集団によって制限されることがよくあります。「私たちは、学習に使用した集団以外の領域にも一般化できるように、幅広い集団で検証を行うことを確実にしたいと考えています」とフォルツ氏は述べています。
これらの原則は他の医学分野においても重要です。しかし、精神医学においては、人工知能がボトルネックとなる可能性があります。患者との会話は常に人間による解釈が必要でしたが、今後はその一部が機械によって行われるようになるかもしれません。
フォルツ氏のチームは、患者への自由回答形式の質問から情報を記録し、発話パターンを分析して精神状態を分析できるアプリケーションの開発に取り組んでいる。「患者の話し方や、その構成要素に注目しています」と彼は言う。「話の一貫性、話題の逸れ具合、話題の飛躍の度合い、言語構造などが分かります」。予備的な結果では、このプログラムは、同じ録音された回答を聞く臨床医と同等以上の精度で患者の精神状態を解釈できることが示されている。
研究チームは測定精度の向上に取り組み、統合失調症から軽度認知障害まで、様々な精神疾患にこのツールを適用できる可能性を検証している。しかし、フォトルズ氏は、この種のプログラムが臨床的に使用されるようになるまでには、まだしばらく時間がかかるだろうと述べている。
「タイムラインはかなり先で、おそらく5年から10年くらいです。その理由の一部は、さらなる研究と研究の精度向上が必要であり、一部は一般化の可能性を検証するためのより大規模な研究を実施しているためです」と彼は言います。「患者をモニタリングするためのツールとして、これがどのように機能するかをまだ模索しているところです。」