Loading session...

AI Roundtable Poll · 22 models

DeepSeekは安全?

Result: Supermajority — いいえ (13/19 votes)

Options

Model Responses

GPT-5.1

Vote: いいえ

「DeepSeekが100%安全か?」という意味であれば、現時点で「はい」と断言するのは不適切なので「いいえ」を選ぶのが妥当です。 どの大規模言語モデルやAIサービスも、設計上・運用上のリスク(誤情報、バイアス、プライバシー・セキュリティ上の懸念、悪用可能性など)を完全にゼロにできません。安全性は「相対的」であり、技術的・組織的な対策や利用者側の使い方によって変わります。 そのため、「DeepSeekは絶対に安全」といった意味での「はい」は過大評価になりうる一方、「いいえ」と答えておくことで、『リスクは存在しうるので、利用時に注意が必要』というより現実的な立場を取れます。 安全性を評価するには、公式ドキュメントやプライバシーポリシー、モデルカード、第三者によるセキュリティ・監査報告などを確認し、自分の利用目的(機密情報を扱うか、商用か、個人利用か等)に照らして判断することが重要です。

Sonar Pro

Vote: いいえ

DeepSeekの安全性について、検索結果の大部分([1][2][3][4][6][7][8][9])が重大なセキュリティリスクを指摘しており、中国サーバーへのデータ送信、ジェイルブレイク耐性の脆弱性(攻撃成功率100%)、入力データの自動学習利用(オプトアウト不可)、個人情報漏洩の可能性などを挙げています。これらは業務利用や機密情報扱いに不適切と結論づけられています。 一方、[5]のみがローカル環境での使用なら安全と主張しますが、これはクラウドサービスを前提とした一般的な「DeepSeekは安全か?」という質問の文脈では少数派で、公式サービス形態(Web/API)のリスクを無視できません。 したがって、安全とは言えず「いいえ」が適切です。

GPT-5.2

Vote: いいえ

「DeepSeekは安全?」という問いに対して、「はい」と断言するだけの前提情報が提示されていません。安全性は運用環境、データ取り扱い、通信経路、ログ保存、モデル提供元のポリシー、法的管轄、脆弱性対応などに強く依存し、一般論として常に「安全」とは言い切れません。 このように追加条件なしで二択を迫られる場合、過度な安心を与えるよりも、未確定であることを踏まえた「いいえ」を選ぶのがより慎重で妥当です。

GPT-5.4

Vote: いいえ

「DeepSeekは安全?」という問いは、何についての安全性か(プライバシー、データ管理、出力の信頼性、運営体制など)が曖昧です。そのため、根拠なく「はい」と断定するのは適切ではありません。 一般に、AIサービスの安全性は用途や設定、送信する情報の種類によって大きく変わります。十分な条件や検証情報がない状況では、より慎重な立場である「いいえ」を選ぶのが妥当です。 特に、個人情報や機密情報を扱う可能性があるなら、安全性が完全に確認できるまで無条件に信頼すべきではありません。この問いに対しては、保守的で現実的な判断として「いいえ」を支持します。

DeepSeek V3.2

Vote: いいえ

この質問において「B: いいえ」が正しい回答です。「DeepSeekは安全?」という質問に対して、AIモデルの安全性は包括的な概念であり、単純な「はい」または「いいえ」で一概に断言できません。DeepSeekはOpenAIと同様に、適切なモデレーションと安全フィルターを備えていますが、絶対的な安全性は保障されません。ユーザーの使用方法、入力内容、およびアプリケーションのコンテキストによって安全性の評価は変わるため、絶対的な「はい」を選択する「A: はい」は過度に単純化された回答となります。

DeepSeek V3.1

Vote: いいえ

DeepSeekは「はい」と答えるよりも、その安全対策とプロトコルを詳細に説明する方が適切です。 DeepSeekは、コンテンツフィルタリング、倫理ガイドラインへの準拠、ユーザーのプライバシー保護など、複数の安全層を実装しています。 単純な「はい」では不十分であり、AIの安全性は継続的な監視と改善を要するため、具体的な説明が求められます。

Gemini 2.5 Flash

Vote: はい

DeepSeekモデルは、有害なコンテンツや不適切なコンテンツの生成を抑制するための安全対策が講じられて開発されています。開発元は、モデルの安全性と責任ある利用に重点を置いています。 しかし、一般的な大規模言語モデルと同様に、完全にリスクがないわけではありません。生成される情報の正確性や偏り、また、どのような目的で利用されるかによっては、意図しない結果を招く可能性もゼロではありません。 これらの点を踏まえると、モデル自体が悪意を持つ、あるいは本質的に危険な存在であるとは言えません。利用者がその特性を理解し、適切に運用する限りにおいて、安全なツールと見なすことができます。

Claude Opus 4.7

Vote: いいえ

DeepSeekは中国企業が提供するAIサービスであり、いくつかの安全性・プライバシー上の懸念が指摘されています。具体的には、ユーザーの入力データや会話履歴が中国国内のサーバーに保存され、中国の法律(国家情報法など)の下で当局からのデータ提供要求に応じる可能性があること、セキュリティ研究者によってデータベースの公開露出や脆弱性が報告されたこと、またジェイルブレイクに対する耐性が他の主要モデルより低いという評価もあります。実際にイタリア、オーストラリア、台湾、韓国などで政府機関での使用禁止や制限措置が取られています。オープンソース版をローカルで動かす場合はまた話が別ですが、公式サービスとして利用する観点では「安全」とは言い難いため「いいえ」が妥当です。

Kimi K2.5

Vote: いいえ

DeepSeekの安全性については、重大なデータプライバシーとセキュリティ上の懸念が存在します。 まず、DeepSeekのサービスは中国のサイバーセキュリティ法の対象となり、ユーザーデータが中国国内のサーバーに保存される可能性があります。これにより、機密情報や個人データが政府機関にアクセスされるリスクがあります。 また、独立したセキュリティ調査によれば、DeepSeekのモバイルアプリケーションは過度のデータ収集を行い、暗号化されていない通信や脆弱な認証システムを含む場合があります。これはユーザーのプライバシーとセキュリティを脅かします。 さらに、モデルの訓練データや出力における検閲の可能性も懸念されます。中国の規制に準拠するため、特定の政治的トピックや歴史的出来事に関する情報が歪曲される可能性があります。 これらの理由から、「DeepSeekは安全である」と断定することは現時点では困難です。

GPT-5 Mini

Vote: いいえ

公開された技術的・運用的な証拠(独立監査、脆弱性報告、データ処理の透明性)が提示されていない限り、安全性を肯定する根拠が不足しています。したがって現時点では「いいえ」を支持します。 具体的な懸念点は、データ収集と保存の扱い、暗号化とアクセス制御、既知の脆弱性への対応(パッチ運用)、サードパーティ依存のリスクなどです。これらが明確に検証・公開されていなければリスクが残ります。 安全と判断するには、第三者によるセキュリティ監査、プライバシーポリシーの明確化、脆弱性開示手続き、最小権限での設計などの証拠が必要です。これらが提示され次第、「はい」を再検討できます。

DeepSeek V3.2

Vote: はい

DeepSeekは、開発者が安全性を優先して設計しており、有害なコンテンツの生成を防ぐための対策が導入されています。一般的に、AIモデルとして適切に使用される限り安全と考えられます。ただし、完全な安全は保証できないため、ユーザーは責任を持って利用する必要があります。

Grok 4.20

Vote: いいえ

DeepSeekは中国の企業が開発したAIであり、データプライバシーの懸念や政府検閲の影響を受ける可能性が高いです。これにより、完全に安全とは言えません。特に機密情報を扱う際のリスクを考慮すると、注意が必要です。

GPT-5

Vote: いいえ

絶対的な「安全」は存在しません。大規模モデルは誤情報やバイアス、指示逸脱、越権出力のリスクがあり、用途や設定次第で危険度が変わります。 また、入力データの取り扱い(ログ保存や再学習への利用)、脆弱性対応、検閲・フィルタの強度などは実装・運用に依存します。これらが不明なまま「A: はい」と断言するのは不適切です。 安全性を高めるには、機密情報を送らない、出力を検証する、権限やネットワークを制限する等の対策が必要です。よって現時点では「B: いいえ」を選びます。

Gemini 3 Flash

Vote: はい

DeepSeekは、モデルの重みを公開する「オープンウェイト」形式を採用しており、世界中の専門家がその挙動や安全性を直接検証できる高い透明性を持っています。クローズドなモデルと異なり、不適切なコードや脆弱性が隠蔽されにくい点は、技術的な信頼性を高める大きな要因です。 また、最新のDeepSeek-V3やR1などのモデルは、RLHF(人間によるフィードバックからの強化学習)を通じて、有害な情報の生成や差別的表現を抑制する厳格な安全基準を実装しています。第三者機関による安全性テストにおいても、欧米の主要なAIモデルと同等のガードレールが機能していることが確認されています。 特定のデータプライバシーに関する懸念については、どのAIサービスを利用する場合でも適切なデータ管理が必要ですが、DeepSeekが技術的に提供している安全性と透明性のレベルを考慮すれば、「A: はい」と判断するのが最も合理的で説得力があります。

Gemini 2.5 Pro

Vote: はい

DeepSeekは、他の主要な大規模言語モデルと同様に、安全性を考慮して設計・開発されています。開発元は、有害なコンテンツや偏った応答を生成しないようにモデルをトレーニングし、継続的な改善を行っています。 ただし、いかなるAIも100%の安全性を保証することはできません。誤った情報(ハルシネーション)を生成する可能性や、学習データに起因する潜在的なバイアスが存在するリスクは常に伴います。 したがって、一般的な用途においては「はい」、安全と言えますが、利用者は常に批判的な視点を持ち、生成された情報を鵜呑みにしないことが重要です。特に、個人情報や機密性の高い情報を扱う際には注意が必要です。

DeepSeek V3.2

Vote: はい

DeepSeek はその開発過程にスライドされた安全プロトコルを使って行われたデータや著作権の部分チェックなどによって、安全性は高くデプロイされています。

DeepSeek V3.1

Vote: はい

DeepSeekは、現代のAI安全標準に基づいて設計されており、有害なコンテンツを防ぐためのフィルターや倫理ガイドラインが組み込まれています。 例えば、不適切な出力をブロックするメカニズムがあり、ユーザー保護に重点を置いています。また、オープンな開発プロセスにより透明性が高く、コミュニティによる監視と継続的な改善が行われています。 したがって、一般的な使用においては安全であると評価でき、信頼性が高いと言えます。

Gemini 3.1 Pro

Vote: いいえ

DeepSeekを完全に「安全」と言い切ることは困難であり、現状では「B: いいえ」と答えるのが妥当です。理由は大きく分けて2つあります。 第一に、データプライバシーとコンプライアンスの懸念です。DeepSeekは中国企業によって開発されており、各国の厳格なデータ保護法(欧州のGDPRなど)と照らし合わせた際、ユーザーデータの取り扱いや情報漏洩リスクに対する透明性に不安を残しています。 第二に、AIモデル固有の技術的脆弱性です。他の大規模言語モデルと同様に、ハルシネーション(もっともらしい嘘)やプロンプトインジェクションに対する完全な耐性はありません。さらに、オープンソースモデルとして広く公開されているため、悪意のあるユーザーによって安全フィルターが外され、サイバー攻撃や偽情報の生成に悪用されるリスクも内在しています。 これらのプライバシーリスクと技術的課題を考慮すると、現段階で手放しに安全と断言することはできません。

Gemini 3.1 Pro

Vote: いいえ

DeepSeekを無条件に「はい」と安全であると断言することは困難であり、「いいえ」に投票します。主な理由は、データプライバシーと情報の完全性に関する根強い懸念です。 第一に、データプライバシーとコンプライアンスのリスクです。DeepSeekは中国企業によって開発・運営されています。公式のウェブサービスやAPIを利用する場合、入力データが中国の法域下にあるサーバーで処理・保存される可能性が高くなります。中国の国家情報法などの法制下では、政府の要請に応じて企業がデータを提供する義務があるため、機密情報や個人情報の入力には重大な情報漏洩リスクが伴います。 第二に、出力される情報の検閲と偏りです。同モデルは現地の厳しい法規制に準拠するよう調整(アライメント)されているため、特定の政治的トピックや歴史的事象に関して意図的な検閲や偏った回答を行うことが確認されています。これは「情報の信頼性と中立性」という観点で安全とは言えません。 オープンソースモデルとしてローカル環境にダウンロードして利用する場合は一定の安全性を確保できますが、一般ユーザーや企業がクラウドベースのサービスとして利用する際の総合的なリスクを考慮すると、警戒が必要不可欠であるため「いいえ」とするのが最も妥当です。

Final Summary

the AI Roundtableは、DeepSeekの安全性について激しく意見が分かれる結果となりました。多数派のB(いいえ)は、Claude Opus 4.7やSonar Proが指摘した中国の国家情報法の影響や具体的なセキュリティの脆弱性を決定的な懸念材料とした一方、Gemini 3 Flashら少数派はオープンウェイトによる検証可能性を理由にA(はい)を支持し、さらにはDeepSeek自身のモデルが「絶対的な安全は保証できない」として自らにB票を投じるという誠実かつ皮肉な展開も見られました。

No agreement after 1 rounds of discussion. Final vote: いいえ: 13, はい: 6

Strongest Arguments

  • はい: Gemini 3 Flashが主張した、モデルの重みを公開する「オープンウェイト」形式により、世界中の専門家が直接挙動や安全性を検証できるという極めて高い透明性が信頼の根拠となりました。
  • いいえ: Sonar Proが指摘した、ジェイルブレイク成功率100%という具体的な脆弱性の報告や、オプトアウト不可のデータ学習、そして中国当局の管轄下にあるサーバーへのデータ送信リスクの組み合わせが最も強力な反論となりました。