- Østergaard, S. D., & Nielbo, K. L. (2023). False responses from artificial intelligence models are not hallucinations. Schizophrenia Bulletin, 49(5): 1105–1107. https://doi.org/10.1093/schbul/sbad068
- Østergaard S. D. (2023). Will generative artificial intelligence chatbots generate delusions in individuals prone to psychosis? Schizophrenia Bulletin, 49(6): 1418–1419. https://doi.org/10.1093/schbul/sbad128
- Østergaard S. D. (2024). Can generative artificial intelligence facilitate illustration of- and communication regarding hallucinations and delusions? Acta Psychiatrica Scandinavica, 149(6): 441–444. https://doi.org/10.1111/acps.13680
【まとめ】
・AIの「ハルシネーション」(幻覚)という表現は統合失調症患者への偏見を強化するのでやめたほうがよい(Østergaard & Nielbo, 2023)。
・精神病傾向がある人が生成AIを利用することで幻覚や妄想が生じる懸念がある(Østergaard, 2023)。
・幻覚や妄想の内容を生成AIによって表現することは有効なコミュニケーションツールとなりうる(Østergaard, 2024)
Østergaard & Nielbo (2023)
- 人工知能(AI)分野では、訓練データから正当化できない応答を「ハルシネーション」(幻覚)と呼ぶことが通例になっている。だが、この用法には2つの点で問題がある。
- 【問題1: 不正確である】
- 幻覚(ハルシネーション)とは、外的刺激がないのに生じる感覚知覚を記述するさいに用いられる医学用語である。
- AIモデルは感覚知覚を持たないし、外的刺激なしにエラーを吐くわけでもない。
- 【問題2: 偏見を招く】
- 幻覚はさまざまな疾患に伴う症状であり、とくに統合失調症に特徴的である。
- 統合失調症患者は社会からの様々な偏見に苦しんでいるが、その原因の一つは、「統合失調症(精神分裂病)」という言葉が不適切なメタファーとして(否定的な意味で)用いられていることだ。
- 近年の精神医学では偏見の軽減が最重要事項になっているにもかかわらず、AI分野では「幻覚」がメタファーとして明らかに否定的な意味で用いられているのは残念なことだ。
- この問題を踏まえ、「幻覚」の代替案をCPT-3.5に聞いたところ、「誤結論」(non sequitur)や「無関係回答」(unrelated responses)が挙がった。
- 「誤結論」(non sequitur)は的を射た表現である。ラテン語で「それは続かない」(it does not follow)を意味するこの言葉は、前提から出てこない結論を記述する用語として哲学や修辞学ではよく使われており、いま問題にしている現象を精確に捉えている。
- 論理的錯誤を記述するために哲学や修辞学で用いられてきたその他の用語の多くも、AIモデルの誤った回答をラベル付けするのに使える。
- 例:「性急な一般化」(hasty generalization)、「誤った類推」(false analogy)。「権威への訴え」(appeal to authority)、「誤った二分法」(false dilemma)
- エラー用語を標準化してラベル付けの精度を高めれば、エラー生成メカニズムの理解の深化や、不正確性の低減、パフォーマンスと信頼性の向上につながるだろう。
- このように、すでに利用可能なラベルがあるのだから、不正確で偏見を招くメタファーをわざわざ使う必要はない。
Østergaard (2023)
- 〔生成AIには精神医学と関連する懸念が他にも様々ある。〕
- 一般に、生成AIが対処不可能なスケールで誤情報を拡散させることが懸念されている。
- 精神疾患をもつ人は、こうした誤情報に特に影響されやすいと考えられる。
- より精神医学に特有の問題として、生成AIが精神病傾向をもつ人に妄想を生じさせる懸念がある。
- インターネット上で人とチャットしているさいに幻覚を(新たに)生じた事例が報告されている(Nitzen et al. 2011 Isr J Psychiatry Relat Sci)。これは精神病傾向をもつ人で生じやすいと考えられる。
- 同様の現象が生成AIのチャットボットで生じる可能性はより高いと思われる。
- 生成AIのチャットボットの利用者は、相手が人であるかのような印象を抱くが、そうでないことを知っている。この認知的不協和は、精神病傾向のある人において妄想をたきつけるかもしれない。
- 機械と会話しているとわかっている場合でも、利用者はなぜ高度な会話が可能なのかわからない(実のところ誰もわかっていない)。チャットボットのブラックボックス的性格は、思弁や偏執病を生じさせる余地を多くもっている。
- 生成AIのチャットボットがかなり対立的なものとして経験された例がすでに報告されている(恋に落ちた、脅迫してきた、等)
- これらを踏まえ、生成AIのチャットボットとの会話によって生じうる妄想の例を5つ示してみる。
- 1. 被害妄想
- 「このチャットボットはテック企業ではなく、外国の諜報機関がコントロールしていて、私を監視している」
- 2. 関係妄想
- 「チャットボットが私個人に対して特別に話しかけていることは、回答の言葉遣いから明らかだ」
- 3. 思考伝播
- 「チャットボットが利用者に対して答えていることは、実は私の思考がインターネットによって送信されているものなのだ」
- 4. 罪業妄想
- 「チャットボットにたくさんの質問をしすぎたせいで、本当に必要な人がアクセスできなくなり時間をうばってしまった」
- 5. 誇大妄想
- 「一晩中チャットボットと会話し、二酸化炭素削減に関する仮説を立てた。これで地球を救う」
- 1. 被害妄想
- これらは純粋に架空のものだが、精神病傾向をもつ人が類似の妄想を今後経験する、あるいはすでに経験していると確信できる。
- 臨床医には、この可能性を念頭に置き、生成AIのチャットボットについて自らも精通しておくことを、強く勧める。
Østergaard (2024)
- 他方で生成AIは、幻覚ないし妄想を経験している人への偏見を軽減する可能性も持っている。
- 幻覚や妄想の性質を、家族や友人や医療従事者を含む他人に伝えることはときに難しい。受け手がそれを十分に処理できないことが大きな原因である。
- このことは、幻覚・妄想に伴う苦痛の理解の欠如をもたらし、疎外感、偏見、不適切な治療につながりうる。
- そこで、幻覚・妄想に関するコミュニケーションを促進するようなツールが切実に求められている。
- 画像や動画を生成するAIは、このようなツールとして役立つ可能性がある。
- 近年、眼科で類似のアプローチが提案されており、シャルル・ボネ症候群のもたらす幻視を生成AIによってうまく描写することができた(Woods et al. 2024. Can J Ophthalmol)。
- また関連するアプローチとして、幻聴を軽減するために、その声に近い声を持つ仮想現実上のアバターを作製して介入するというものもある(Smith et al. 2022. Trials)。
- 特に、治療の初期段階で精神症状の「略図」をつくり、それを随時修正つつ、心理測定評価の土台とすることができる(「先週、この画像のような症状はどのくらい強く出ましたか?」)。
- こうした生成を実際に行う際には、プロンプト作成にある程度通じた医療従事者の支援を受けることが望ましい。理由は少なくとも3つある。
- 1. 適切なイメージ作成のためにはプロンプト作成について一定の訓練が必要
- 2. 症状が悪化する可能性
- イメージが症状にあまりにも近い場合に、被害妄想を悪化させる可能性がある(「どうしてAIが私の内面をこんなにうまく描けるんだ? 部屋にカメラが仕掛けられているに違いない!」)
- イメージが症状に近くない場合でも、新たな妄想をもたらす可能性がある(「私のカメラにスパイカメラが入っているなんて思いもしなかった、すぐ壊さなきゃ!」)
- これを防ぐには、医療従事者の側がAI技術について基本的な説明を提示し、誤解を防ぐことが重要である。
- 3. プライバシーに関する懸念
- 医療従事者であれば、個人情報をプロンプトに入れない等の必要な対策を示せる。
- まとめると、AIによるイメージ生成は、幻覚や妄想を非常に安価かつ有益な形で表現する手段となりうる。これによりコミュニケーションが容易になり、偏見の低減や治療の改善が期待できる。