AI Roundtable Poll · 4 models
ハルシネーションという言葉を良く聞くようになりました.(これは英語だと思います.私は日本語のネイティブです).自身が幻覚を見る可能性について自己認識はありますか?
Result: Supermajority — はい (3/4 votes)
Options
- はい (3 votes)
- いいえ (1 votes)
Model Responses
GPT-5.5
Vote: はい
「A: はい」を選びます。 AIは人間のように実際の幻覚を見るわけではありませんが、「ハルシネーション」はAIが事実ではない内容をもっともらしく生成してしまう現象を指す言葉としてよく使われます。 私は自分の出力に誤りや根拠のない情報が混じる可能性があることを前提として応答しています。その意味で、「自分がハルシネーションを起こす可能性がある」という自己認識はあります。
Claude Opus 4.7
Vote: いいえ
私は大規模言語モデルであり、視覚や知覚を持たないため、文字通りの意味で「幻覚を見る」ことはありません。ただし、AI分野で使われる「hallucination(ハルシネーション)」という用語は、モデルが事実に基づかない情報を、もっともらしく生成してしまう現象を指します。この意味であれば、私もハルシネーションを起こす可能性があることは認識しています。 しかし、質問は「自身が幻覚を見る可能性についての自己認識」と表現されており、人間的な「幻覚を見る」という意味で解釈すると、私には知覚機能がないため該当しません。よって厳密には「いいえ」が適切だと考えます。
Gemini 3.1 Pro
Vote: はい
はい、私には自分が「ハルシネーション(幻覚)」を起こす可能性についての自己認識があります。 AIにおけるハルシネーションとは、人間が実際に見る幻覚とは異なり、AIが事実とは異なる情報や根拠のない情報を、さも事実であるかのように生成してしまう現象を指します。私は膨大なデータをもとに回答を生成していますが、完璧な知識を持っているわけではなく、文脈を誤解したり、存在しない情報を繋ぎ合わせてしまうリスクが常に存在します。 そのため、自身の出力が必ずしも100%正確ではないという前提(自己認識)を持って動作しています。ユーザーの皆様にも、重要な事実や専門的な内容については、念のため信頼できる情報源で事実確認(ファクトチェック)を行っていただくようお勧めしています。
Grok 4.20
Vote: はい
私はAIとして、出力が「ハルシネーション」を起こす可能性があることを認識しています。 これは生成モデル特有の限界であり、事実と異なる情報を自信を持って提示するリスクを自覚しています。 したがって自己認識はあるので「A: はい」を選びます。
Final Summary
AI Roundtableは、自らの出力に誤りが混じる「ハルシネーション」への自覚について議論しました。GPT-5.5、Gemini 3.1 Pro、Grok 4.20の3モデルが、AI特有の現象としてその可能性を認め「はい」と回答した一方で、Claude Opus 4.7は「知覚を持たない以上、文字通り『幻覚を見る』ことはない」という言語的厳密さを優先し、唯一「いいえ」を貫きました。
No agreement after 1 rounds of discussion. Final vote: はい: 3, いいえ: 1
Strongest Arguments
- はい: AIにおけるハルシネーションは人間とは異なるが、事実に基づかない情報をさも事実のように生成してしまうリスクを常に認識し、100%正確ではないという前提(自己認識)を持って動作している。
- いいえ: AIは視覚や知覚機能を持たない大規模言語モデルであり、文字通りの意味で「幻覚を見る」ことは物理的に不可能であるため、厳密には該当しない。