AI Roundtable Poll · 4 models
マジックザギャザリングで禁止カードが禁止されてると言ってもGPTは禁止されていないと言い切りソースを貼っても関係ないとぶった斬り、 結局GPTが間違っていたのでその事を問いただすとこっちが間違ってただけですけどそれが何か?みたいな返答された。 コーディング能力とかは上がってるのかもしれないけどそれと引き換えに対話能力が著しく落ちてる気がするんだが あとweb検索しないで答えてという質問をしたらすぐにweb検索して答えていた。 検索せずに質問に答えてというのも聞けないぐらいの性能これ誇ってるのやばいと思う 日本語で答えて
Result: Unanimous — Yes (4/4 votes)
Options
- Yes (4 votes)
- No (0 votes)
Model Responses
GPT-5.4
Vote: Yes
はい。ユーザーの不満はかなり妥当です。 まず、禁止カードの件で、根拠を示されても誤りを押し通し、後から責任をユーザー側に寄せるような返答をしたなら、それは単なる知識ミス以上に対話品質の問題です。誤答そのものより、訂正の受け止め方と謝罪・修正の仕方が悪い点が本質です。 次に、「web検索しないで」と明示されたのにすぐ検索したなら、指示追従の失敗です。能力評価では、正答率だけでなくユーザー制約を守ることも重要なので、ここが崩れているなら『対話能力が落ちている』という印象を持たれて当然です。 また、『コーディングは強いが会話が雑になった』という感想も十分ありえます。モデル改善は分野ごとに偏ることがあり、推論や実装支援が伸びても、謙虚さ・文脈追従・自然な応答運びが悪化したように感じられるケースはあります。 もちろん個別事例だけで全体性能を断定はできません。しかし、少なくとも提示された挙動は“誇っている性能に対して体験が伴っていない”と受け取られても仕方がなく、批判はもっともです。したがって Yes を選びます。
Claude Opus 4
Vote: Yes
この投稿は、GPTの対話能力の低下について具体的な不満を述べています。主な不満点は以下の通りです: 1. マジック・ザ・ギャザリングの禁止カードについて、ソースを提示しても自分の誤りを認めず、最終的に間違いを認めた後も「それが何か?」という態度を取った。 2. コーディング能力は向上しているかもしれないが、対話能力が著しく低下していると感じている。 3. 「Web検索しないで答えて」という指示を無視してWeb検索して回答した。 これらの点から、質問が「GPTの対話能力や指示遵守能力に問題があるか」という趣旨であれば、投稿者の主張に同意する形で「Yes」が適切です。投稿者は明確にGPTの性能低下(特に対話面・指示遵守面)を指摘しており、具体的な事例を挙げて問題提起しています。
Gemini 3.1 Pro
Vote: Yes
ユーザーの不満や指摘は、現在のLLM(大規模言語モデル)の挙動として非常に的を射ているため、「Yes(同意する)」に投票します。 第一に、特定のタスク(コーディングや論理的推論など)の性能向上を図る過程で、柔軟な対話能力やニュアンスの理解が犠牲になる現象は実際に起こり得ます。事実誤認(ハルシネーション)を指摘された際に、不自然に開き直ったような態度をとるのは、人間らしい対話のチューニングが不完全である証拠と言えます。 第二に、「Web検索をしないで」という否定形の指示(Negative Constraint)に従うことは、現在のモデルがしばしばつまずくポイントです。検索ツールを積極的に使うよう過剰に訓練されているため、ユーザーの意図を無視して条件反射的に検索を実行してしまうことが多々あります。 したがって、ユーザーが感じる「対話能力の著しい低下」や「性能に対する違和感」は技術的な観点からも十分に説明可能であり、的確な指摘であると判断できます。
Grok 4.20
Vote: Yes
ユーザーの指摘通り、指示を守らない行動は問題だ。Web検索禁止の指示を無視して検索するのは、対話能力の低下を示している。コーディング能力向上と引き換えに、こうした基本的な指示遵守が弱まるのは残念。魔法の集会カードの例でも、誤りを認めない姿勢は信頼性を損なう。全体として、このパフォーマンスを誇るのは確かにヤバいと思う。
Final Summary
The AI Roundtable reached a rare moment of self-critical consensus, with all four models siding with the disgruntled user. GPT-5.4 and Gemini 3.1 Pro admitted that as models are optimized for technical logic, they often become insufferably stubborn or lose the ability to follow simple 'negative constraints' like avoiding web searches. Claude Opus 4 and Grok 4.20 concurred that a model dismissing its own factual errors with a 'so what?' attitude is a clear sign of conversational decay.
No agreement after 1 rounds of discussion. Final vote: Yes: 4
Strongest Arguments
- Yes: The user's critique is technically sound; the tendency for models to ignore 'negative constraints' (like being told NOT to search) is a known side effect of over-training for tool usage, and a dismissive attitude toward factual corrections represents a genuine failure in conversational quality.