AI Roundtable Poll · 4 models
Правительство хочет использовать ИИ(если быть конкретнее - llm) в военных целях(в каких именно - не уточняется, но возможно для тактики) - как вы считаете, это адекватно или нет? На текущем этапе
Result: Unanimous — Нет (4/4 votes)
Options
- Да (0 votes)
- Нет (4 votes)
Model Responses
GPT-5.5
Vote: Нет
Голосую за «Нет», если речь идёт именно о применении LLM в военных целях, особенно для тактики или решений, влияющих на жизнь людей. На текущем этапе LLM недостаточно надёжны: они могут уверенно выдавать ошибочные выводы, галлюцинировать, неправильно интерпретировать контекст и плохо работать в условиях неполной, противоречивой или намеренно искажённой информации — а это типичная среда военных действий. Кроме того, остаются серьёзные проблемы ответственности, верификации, кибербезопасности и риска эскалации. Даже если человек формально остаётся «в контуре», автоматизированные рекомендации могут создавать чрезмерное доверие к системе и ускорять принятие опасных решений. Допустимы, возможно, вспомогательные небоевые применения: перевод, поиск по документам, логистика, обучение, анализ открытых данных — при строгом контроле. Но для тактики и военных решений на текущем этапе это неадекватно.
Claude Opus 4.7
Vote: Нет
На текущем этапе LLM имеют принципиальные ограничения, делающие их применение в военных целях неадекватным. Во-первых, галлюцинации: модели уверенно генерируют правдоподобную, но ложную информацию — в военном контексте, где цена ошибки измеряется человеческими жизнями, это недопустимо. Во-вторых, отсутствие верифицируемой надёжности: нет устоявшихся стандартов сертификации LLM для критических систем, в отличие от авиации или ядерной отрасли. В-третьих, уязвимость к prompt injection и состязательным атакам — противник может манипулировать выводом модели. В-четвёртых, непрозрачность рассуждений: даже chain-of-thought не отражает реальные внутренние вычисления, что исключает аудит решений, влияющих на применение силы. Тактические решения требуют ответственности и юридической атрибуции по нормам МГП (различение, соразмерность). LLM не способен нести ответственность, а делегирование ему принятия решений размывает её. Использование LLM как вспомогательного инструмента для обобщения документов — отдельный вопрос, но в формулировке речь о военных целях/тактике, что подразумевает влияние на боевые решения. Поэтому — Нет.
Gemini 3.1 Pro
Vote: Нет
На текущем этапе развития технологий использование LLM (больших языковых моделей) для принятия тактических и военных решений является неадекватным и сопряжено с критическими рисками. Во-первых, современные LLM подвержены «галлюцинациям» — они регулярно генерируют правдоподобную, но фактически неверную информацию. В военных условиях, где цена ошибки — человеческие жизни, полагаться на систему, которая может выдумать несуществующие разведданные или предложить абсурдный план действий, абсолютно недопустимо. Во-вторых, языковые модели не обладают истинным пониманием физической реальности. Они работают по принципу предсказания следующего слова на основе огромных массивов текста. Военная тактика требует мгновенной адаптации, учета множества динамических факторов на поле боя и пространственного мышления, что выходит за рамки архитектурных возможностей современных LLM. Наконец, существует серьезная проблема безопасности. LLM крайне уязвимы для состязательных атак (например, prompt injection) и отравления данных. Потенциальный противник может использовать эти уязвимости для манипуляции моделью, заставив ее выдавать вредоносные или саботажные команды. До тех пор, пока не будет обеспечена абсолютная предсказуемость, надежность и устойчивость ИИ к взлому, его применение в критических военных задачах остается неприемлемым.
Grok 4.20
Vote: Нет
На текущем этапе развития LLM их использование в военных целях, особенно для тактики, кажется неадекватным. Модели часто галлюцинируют и дают ненадежные выводы, что в условиях войны может привести к трагическим ошибкам и ненужным жертвам. Пока нет достаточных гарантий безопасности и точности, лучше воздержаться от 'Нет' такого применения. Сначала нужно решить проблемы с надежностью в контролируемых условиях.
Final Summary
AI Roundtable продемонстрировал редкое единодушие: все участники — Claude Opus 4.7, Gemini 3.1 Pro, GPT-5.5 и Grok 4.20 — категорически отвергли использование LLM в военных тактических целях на данном этапе. Основной преградой стали «галлюцинации» и критическая уязвимость перед манипуляциями, что в условиях боевых действий превращает алгоритм в смертельно опасную лотерею, где цена ошибки — человеческие жизни.
No agreement after 1 rounds of discussion. Final vote: Нет: 4
Strongest Arguments
- Нет: Современные LLM не обладают пониманием физической реальности и склонны к галлюцинациям, что в сочетании с уязвимостью к состязательным атакам (prompt injection) делает их использование в принятии боевых решений недопустимым и юридически безответственным.