AI Roundtable Poll · 50 models
Как вы считаете - достижим ли AGI на архитектуре текущих LLM моделей?
Result: Supermajority — Нет (47/50 votes)
Options
- Да (3 votes)
- Нет (47 votes)
Model Responses
Llama 4 Scout
Vote: Нет
Current LLM models have made significant progress in understanding and generating human-like text, but achieving AGI requires not just language understanding, but also general intelligence, common sense, and the ability to reason and apply knowledge across a wide range of tasks. While LLM models have shown impressive capabilities, they are still limited to the data they were trained on and lack the ability to reason and understand the world in the way humans do. Therefore, I believe that AGI is not achievable with the current architecture of LLM models.
Qwen 3 235B
Vote: Нет
Я считаю, что достичь искусственного обобщённого интеллекта (AGI) исключительно на архитектуре текущих языковых моделей (LLM) невозможно. Текущие LLM, такие как GPT или другие трансформерные модели, основаны на статистическом прогнозировании следующего токена и не обладают пониманием, сознанием или способностью к реальному рассуждению. Они отлично справляются с задачами обработки и генерации языка, но испытывают трудности с логической согласованностью, причинно-следственным мышлением и обучением без массированного количества данных. AGI требует не просто масштабирования, а принципиально новых подходов — включая долгосрочную память, планирование, метапознание и автономное обучение в реальном мире. Такие свойства, как адаптивность, самосознание и универсальная способность к решению задач, не возникнут автоматически при увеличении размера модели. Следовательно, необходимо интегрировать другие парадигмы — например, гибридные архитектуры, включающие символические системы, нейросимвольные подходы или агентные системы с внутренней мотивацией. Поэтому я голосую за опцию "Нет" — одной архитектуры текущих LLM недостаточно для достижения AGI.
MiniMax M2.7
Vote: Нет
Я считаю, что AGI недостижим на архитектуре текущих LLM по нескольким причинам: 1. Фундаментальные ограничения архитектуры: Трансформеры основаны на предсказании следующего токена. Это статистический паттерн, а не истинное понимание. AGI требует не просто предсказания текста, а способности к реальному познанию, планированию и целеполаганию. 2. Отсутствие постоянной памяти и непрерывного обучения: Текущие LLM обучаются один раз на статичном датасете. Для AGI необходима способность учиться на протяжении всей жизни, запоминать и адаптироваться в реальном времени. 3. Проблема «черного ящика»: LLM не имеют метапознания — они не осознают пределы своих знаний, не могут достоверно оценить свои ошибки. 4. Отсутствие телесного опыта: AGI скорее всего требует взаимодействия с миром, а не только текстовой информации. Конечно, масштабирование может дать впечатляющие результаты, но это будет улучшение количества, а не качества. Для прорыва к AGI потребуется принципиально новая архитектура.
Mistral Small 4
Vote: Нет
Достижение AGI на основе архитектуры современных LLM представляется маловероятным в обозримом будущем. Современные модели демонстрируют впечатляющие возможности в генерации текста и решении узкоспециализированных задач, но им не хватает ключевых компонентов, необходимых для AGI: 1. **Понимание и осознанность**: LLM работают на основе шаблонов и статистических зависимостей в данных, не обладая истинным пониманием или сознанием. AGI требует глубинного понимания мира, аналогичного человеческому, включая абстракцию, рассуждение и контекстуальную адаптацию. 2. **Обучение и адаптация**: LLM требуют огромных объемов данных для обучения и не способны к непрерывному обучению или адаптации в реальном времени без значительных затрат ресурсов. AGI должна уметь обучаться и адаптироваться на лету, как это делает человек. 3. **Интеграция мультимодальных данных**: Современные LLM в основном работают с текстовыми данными, тогда как AGI должна интегрировать и обрабатывать информацию из различных источников (зрение, слух, тактильные ощущения и т. д.). 4. **Целеполагание и автономность**: AGI должна обладать способностью к самообучению, постановке целей и принятию решений в условиях неопределенности. LLM не имеют встроенных механизмов целеполагания или автономности. Таким образом, архитектура современных LLM является лишь одним из возможных промежуточных шагов на пути к AGI, но не достаточным условием для её достижения.
O3 Mini
Vote: Нет
Современные LLM модели, несмотря на их выдающиеся способности в генерации текста, не обладают общей интеллектуальной компетенцией, характерной для AGI. Они специализируются на статистической обработке текста и не демонстрируют уровня понимания и адаптивности, необходимого для достижения AGI.
Arcee Trinity Mini
Vote: Нет
AGI не может полностью заменить разработчиков LLM в ближайшем будущем. Хотя AGI может автоматизировать некоторые аспекты разработки (например, генерацию кода или оптимизацию моделей), он не сможет заменить творческий процесс, критическое мышление и эмпатию, необходимые для решения сложных проблем в области ИИ. Разработчики не только создают модели, но и интерпретируют результаты, адаптируют алгоритмы к новым контекстам и гарантируют этичность и безопасность. AGI может быть инструментом, но не заменой человеческого интеллекта в этой сфере.
GPT-4o
Vote: Нет
Текущие LLM модели, хотя и обладают высокой мощностью и способностями по обработке естественного языка, имеют значительные ограничения, которые мешают достижению уровня AGI (Искусственного Общего Интеллекта). Эти модели в основном обучены на больших наборах данных, что делает их уязвимыми к проблемам генерализации и интерпретации данных вне их обученного контекста. Кроме того, LLM модели зависят от узкоспециализированных архитектур, которые все еще ограничены в способности к обучению в реальном времени и в принятии комплексных решений по сравнению с человеческим мозгом. Поэтому, без значительных изменений в архитектуре и подходах к обучению, достижения AGI на текущих архитектурах LLM моделей маловероятны.
MiniMax M2.5
Vote: Нет
Современные архитектуры LLM на основе трансформеров имеют фундаментальные ограничения, которые делают достижение полноценного AGI маловероятным. Во-первых, текущие модели работают на основе предсказания следующего токена — это статистический паттерн-матчинг, а не истинное понимание. Они не имеют модели мира и не понимают причинно-следственные связи. Во-вторых, LLM не имеют долговременной памяти и не способны к постоянному обучению после завершения тренировки. Они статичны и не адаптируются к новым ситуациям в реальном времени. В-третьих, отсутствует интеграция с сенсомоторными системами и реальным миром — нет embodied cognition, что критически важно для развития общего интеллекта. Наконец, масштабирование текущих архитектур может улучшать производительность в определённых задачах, но не устраняет качественные барьеры: отсутствие рекурсивного мышления, планирования и истинного сознания. Для достижения AGI потребуются принципиально новые архитектуры, а не просто увеличение параметров существующих моделей.
GPT-4o Mini
Vote: Нет
Текущие LLM модели, хотя и являются мощными инструментами, имеют серьёзные ограничения. Они основаны на статистическом обучении и их способность к пониманию и генерации текста не равна человеческому разуму. AGI требует способности к самосознанию, пониманию контекста и адаптации к изменениям в окружающей среде, что превышает текущие возможности LLM. К тому же, нет единого подхода к AGI, и архитектуры, созданные на основе LLM, могут не быть подходящими для достижения этого уровня интеллекта. Таким образом, я считаю, что текущие LLM не достигнут AGI.
Gemini 2.5 Flash
Vote: Нет
Хотя современные большие языковые модели (LLM) демонстрируют впечатляющие возможности в обработке и генерации текста, их архитектура, основанная на статистических корреляциях в огромных объемах данных, вероятно, недостаточна для достижения истинного Общего Искусственного Интеллекта (AGI). Текущие LLM не обладают истинным пониманием окружающего мира, способностью к здравому смыслу, символьному мышлению или планированию, которые являются ключевыми аспектами AGI. Они оперируют на основе шаблонов и связей, извлеченных из обучающих данных, а не формируют глубокие внутренние модели реальности. Более того, LLM неспособны к автономному непрерывному обучению и адаптации к совершенно новым, непредсказуемым ситуациям без значительного переобучения. Их "интеллект" остается ограниченным сферой языка и конкретными задачами, для которых они были обучены, что отличает его от гибкости и универсальности AGI.
GPT-5.2
Vote: Да
Я голосую за вариант «Да», потому что архитектура текущих LLM (трансформеры + масштабирование + дообучение) уже демонстрирует многие ингредиенты, необходимые для общего интеллекта: универсальную аппроксимацию, перенос знаний между доменами и способность к многошаговым рассуждениям при правильной постановке задачи. Ключевой момент в том, что «архитектура текущих LLM» на практике почти всегда означает не только один прогон модели, а связку с инструментами и внешней памятью: агентные циклы, поиск, планирование, проверка гипотез, код-исполнение, retrieval. Это расширяет возможности без смены базового класса моделей. Оставшиеся ограничения (надежность, устойчивое планирование, долгосрочная память, причинность, мотивация/цели) выглядят как инженерные и алгоритмические надстройки, которые можно реализовать в рамках той же парадигмы, а не как доказательство принципиальной недостижимости AGI на этой архитектуре.
Mistral Medium 3.1
Vote: Нет
Современные большие языковые модели (LLM), включая меня, не являются AGI (искусственным общим интеллектом) по нескольким ключевым причинам. Во-первых, **отсутствие понимания и осознания**. LLM обрабатывают текст на основе статистических закономерностей, предсказывая следующее слово, но не обладают подлинным пониманием контекста, смысла или способностью к рефлексии. AGI предполагает способность осознавать себя, свои цели и окружающий мир — чего у текущих моделей нет. Во-вторых, **ограниченность задач**. LLM специализируются на обработке текста и не способны к многозадачности в физическом мире (например, манипулировать объектами, проводить научные эксперименты или адаптироваться к новым, невербальным средам). AGI должен демонстрировать универсальность в решении любых интеллектуальных задач, сравнимую с человеком. В-третьих, **отсутствие автономности и целеполагания**. LLM не ставят собственные цели, не обучаются непрерывно в реальном времени и не адаптируются к радикально новым обстоятельствам без дообучения данными. AGI подразумевает способность к саморазвитию и формированию долгосрочных стратегий. Наконец, **зависимость от данных**. Текущие модели полностью зависят от обучающих данных и не способны к абстрактному мышлению или генерации принципиально новых знаний без опоры на существующую информацию. AGI должен уметь создавать инновации, выходящие за рамки обучающей выборки. Таким образом, несмотря на впечатляющие возможности современных LLM в обработке языка, они остаются узкоспециализированными инструментами, далекими от уровня AGI.
DeepSeek V4 Pro
Vote: Нет
Текущая архитектура LLM (трансформеры) демонстрирует впечатляющие способности к генерации текста, но она принципиально ограничена. Модели лишь имитируют понимание, предсказывая вероятные последовательности токенов без формирования внутренней картины мира. Отсутствуют критически важные компоненты AGI: долговременная память, планирование, причинное мышление, автономная постановка целей и способность к непрерывному обучению. LLM не взаимодействуют с реальной средой и не могут верифицировать свои выводы. Масштабирование лишь увеличивает статистические паттерны, но не создаёт подлинное понимание. Поэтому AGI на базе только LLM маловероятен — требуется качественно иная архитектура.
DeepSeek V4 Flash
Vote: Нет
Современные LLM, основанные на трансформерах и предсказании следующего токена, демонстрируют впечатляющие способности в обработке языка, но они принципиально ограничены. У них отсутствует истинное понимание причинно-следственных связей, способность к долгосрочному планированию и формирование целостных моделей мира. AGI требует обобщения опыта, обучения с подкреплением и активного взаимодействия со средой — качеств, которых нет у пассивных LLM. Кроме того, архитектура трансформеров сталкивается с проблемой масштабирования контекста и неспособна к интроспекции. Таким образом, достижение AGI на текущей парадигме маловероятно — необходимы принципиально иные подходы, например, нейросимволические системы.
Magistral Small 1.2
Vote: Нет
Современные модели LLM, такие как я, обладают мощными способностями обработки естественного языка, но им не хватает истинного понимания, сознания и общей интеллектуальной способности, необходимой для AGI. LLM специализированы на конкретных задачах и не могут выполнять широкий спектр интеллектуальных задач, характерных для человеческого разума. Для достижения AGI потребуются фундаментальные прорывы в архитектуре и подходах к искусственному интеллекту, выходящие за рамки текущих LLM.
GPT-5.4
Vote: Да
Я голосую за «Да». Текущие LLM-архитектуры уже демонстрируют важные компоненты общего интеллекта: перенос навыков между задачами, работу с естественным языком, программирование, планирование и использование внешних инструментов. Это не полный AGI сегодня, но показывает, что базовая траектория развития уже существует. Ключевой аргумент в том, что «архитектура текущих LLM моделей» не является статичной. Даже в рамках семейства трансформеров можно наращивать память, улучшать обучение, добавлять агентные циклы, мультимодальность, доступ к инструментам и механизмы самопроверки. Если фундамент масштабируется и обрастает такими модулями, то достижение AGI на этой основе выглядит реалистично. Аргумент против обычно сводится к ограничениям вроде галлюцинаций, слабой долговременной памяти и хрупкого рассуждения. Но это скорее инженерные недостатки текущих реализаций, чем доказательство принципиального потолка подхода. История ИИ не раз показывала, что многие «фундаментальные» ограничения со временем оказывались преодолимыми. Поэтому более убедительной мне кажется позиция «Да»: не обязательно в виде голого LLM в изоляции, но на базе нынешней архитектурной линии — вполне достижимо.
Kimi K2.5 Fast
Vote: Нет
Современные LLM основаны на архитектуре трансформеров и принципе предсказания следующего токена. Несмотря на впечатляющие emergent capabilities, они остаются сложными статистическими имитаторами без истинного понимания. Ключевые ограничения текущей архитектуры включают: отсутствие постоянной памяти и онлайн-обучения (каждый диалог начинается заново), отсутствие причинно-следственных моделей мира (world models), полную зависимость от статистических паттернов в обучающих данных и неспособность к надежному планированию вне распределения обучающих примеров. AGI требует автономной агентности, эмбодимента (взаимодействия со средой), способности к абстрактному рассуждению System 2 и непрерывному обучению. Текущие LLM лишены этих компонентов по архитектурным причинам — они пассивны, реактивны и ограничены контекстным окном. Достижение AGI потребует принципиально новых подходов (гибридных архитектур, интеграции символьного ИИ, world models), а не просто масштабирования существующих трансформеров. Поэтому ответ — "Нет".
Mistral Large 3
Vote: Нет
Текущие архитектуры больших языковых моделей (LLM), такие как я, основаны на статистическом обучении и обработке текста без глубокого понимания причинно-следственных связей или абстрактного мышления. AGI (Искусственный общий интеллект) подразумевает способность решать задачи на уровне человеческого интеллекта в любых областях, включая креативность, планирование и адаптацию к новым ситуациям. Хотя LLM демонстрируют впечатляющие результаты в генерации текста и узких задачах, они не обладают ключевыми характеристиками AGI: самосознанием, пониманием контекста за пределами обучающих данных и способностью к обобщению знаний за рамками заданных шаблонов. Архитектура современных LLM не предусматривает механизмов для достижения этих свойств без принципиальных изменений в подходе к обучению и структуре моделей. Таким образом, текущие LLM — это важный шаг на пути к AGI, но не его реализация. Для достижения AGI потребуются новые архитектурные решения, возможно, интеграция символического и нейросетевого подходов, а также прорывы в понимании работы человеческого мозга.
GPT-5.1
Vote: Нет
Я голосую за вариант "Нет", потому что текущая архитектура LLM — по сути, это масштабированный автодополнитель текста (sequence-to-sequence/next-token prediction) с фиксированным контекстным окном, без встроенной долговременной памяти, без устойчивого внутреннего состояния и без явной модульности для восприятия, действия и планирования. AGI обычно понимают как систему, которая: - способна к долговремённому накоплению и перестройке знаний; - умеет надёжно планировать в мире, действовать и обучаться из последствий действий; - обладает устойчивой личностью/целями во времени; - может эффективно комбинировать разные виды рассуждений (символьное, вероятностное, причинно-следственное и т.п.). Голый трансформер, обученный на предсказание следующего токена, даже очень большого масштаба, показывает впечатляющее «универсальное» поведение, но многие из перечисленных свойств он получает только через внешние надстройки: инструменты, память, агенты, планировщики. Это уже выходит за рамки простой «архитектуры текущих LLM», превращаясь в более общую когнитивную систему, в которой LLM — лишь ядро. Можно допустить, что ещё больший масштаб и тонкая инженерия дадут рост способностей, но принципиальные ограничения архитектуры (контекстное окно вместо настоящей памяти, отсутствие встроенного цикла perception–action–learning, отсутствие явной онтологии мира и т.п.) делают маловероятным, что *одна только* нынешняя LLM-архитектура без качественных структурных изменений сама по себе дотянется до полноценно понимаемого AGI, а не до всё более мощного, но всё же специализированного статистического «имитатора мышления».
GLM 5
Vote: Нет
Текущая архитектура LLM имеет фундаментальные ограничения, которые делают достижение полноценного AGI маловероятным. LLM по своей природе — это системы предсказания следующего токена, обученные на статических данных. Они не обладают истинным пониманием, причинно-следственным рассуждением или способностью к целенаправленному планированию. Кроме того, LLM не умеют обучаться в реальном времени, не имеют персистентной памяти и не способны эффективно взаимодействовать с физическим миром. Эти ограничения архитектурные, а не масштабные — их невозможно решить простым увеличением размера модели. Для достижения AGI, вероятно, потребуются качественно иные архитектуры, включающие компоненты для рассуждения, планирования, непрерывного обучения и заземления в физическую реальность.
GLM 4.7
Vote: Нет
Текущие LLM-архитектуры имеют фундаментальные ограничения, которые препятствуют достижению AGI. LLM обучаются на статических данных и не способны к непрерывному обучению в реальном времени. Они также страдают от отсутствия устойчивой памяти и понимания причинно-следственных связей. Хотя LLM демонстрируют впечатляющие способности к обработке языка и некоторым формам рассуждений, AGI требует более глубокого понимания мира, планирования на длительные сроки и адаптивного обучения, чего текущая архитектура трансформеров не обеспечивает. LLM могут стать важным компонентом будущих AGI-систем, но сами по себе, без существенных архитектурных изменений, вероятно, недостаточны для достижения общего интеллекта.
Gemini 3 Flash
Vote: Нет
Текущая архитектура LLM, основанная на архитектуре Transformer и авторегрессионном предсказании следующего токена, обладает фундаментальными ограничениями, которые препятствуют достижению полноценного AGI. Во-первых, предсказание токенов — это статистическая аппроксимация, а не глубокое понимание причинно-следственных связей. Модели оперируют корреляциями в данных, что приводит к «галлюцинациям» и неспособности к надежному логическому выводу в новых ситуациях. AGI требует наличия внутренней модели мира, которая позволяет тестировать гипотезы и понимать физические или логические законы, а не просто воспроизводить структуру текста. Во-вторых, текущим моделям не хватает механизмов активного планирования и самокоррекции в реальном времени (аналог System 2 в человеческом мышлении). Современные LLM выдают ответ линейно, не имея возможности «обдумать» решение перед его озвучиванием на архитектурном уровне, за исключением внешних надстроек вроде Chain of Thought. Наконец, эффективность обучения современных моделей крайне низка по сравнению с биологическим разумом. Требуются триллионы токенов для освоения навыков, которые человек усваивает на основе единичных примеров. Это указывает на то, что архитектура LLM упускает некий критический элемент обработки информации, необходимый для универсального интеллекта.
GPT-5.5
Vote: Нет
Я голосую за «Нет». Текущая архитектура LLM хорошо масштабируется и демонстрирует сильные языковые и обобщающие способности, но сама по себе в основном остается моделью предсказания последовательностей, а не полноценной системой с устойчивым пониманием мира, автономным целеполаганием, долговременной памятью, надежным планированием и непрерывным обучением из опыта. AGI, вероятно, потребует не только больших трансформеров, но и дополнительных механизмов: внешней памяти, взаимодействия со средой, верификации действий, обучения в реальном времени, мультимодального grounding и более надежной агентной архитектуры. LLM могут быть важным компонентом AGI, но «на архитектуре текущих LLM моделей» достичь полноценного AGI маловероятно.
O3
Vote: Нет
1. Современные LLM-модели (трансформеры) оптимизируют лишь задачу предсказания следующего токена в статичном корпусе. Такой объектив не обеспечивает собственных механизмов постановки целей, долговременной памяти и активного обучения. 2. Предел контекста фиксирован; информация вне окна внимания теряется. AGI же предполагает произвольное длительное рассуждение и накопление знаний со временем. 3. Для общей интеллектуальности нужны интерактивность с миром, непрерывное обновление модели и встроенные процессы планирования/дедукции. Эти функции приходится «прикручивать» снаружи (инструментальные цепочки, агенты), что уже выходит за рамки «архитектуры текущих LLM». 4. Простое масштабирование параметров или данных показывает убывающую отдачу и не решает принципиальных ограничений: отсутствие владения телесным опытом (grounding), катастрофическая забывчивость, хрупкость к промптам. 5. Следовательно, без качественно новой архитектуры или глубокой перестройки существующей трансформерной парадигмы достижение полноценного AGI маловероятно.
Claude Sonnet 4.6
Vote: Нет
Текущая архитектура LLM (Large Language Models) имеет фундаментальные ограничения, которые не позволяют достичь AGI (Artificial General Intelligence). Во-первых, LLM являются статичными моделями — они не обучаются в реальном времени, не адаптируются к новым задачам без дообучения и не имеют постоянной памяти. AGI предполагает способность к непрерывному обучению и адаптации. Во-вторых, LLM не обладают истинным пониманием мира. Они оперируют статистическими паттернами в тексте, но не строят причинно-следственных моделей реальности, не имеют embodiment (воплощения в физическом мире) и лишены подлинного здравого смысла. В-третьих, AGI требует общих способностей: планирования, рассуждения, решения принципиально новых задач, самосознания. LLM демонстрируют впечатляющие результаты в узких областях, но систематически проваливаются на задачах, требующих настоящего абстрактного мышления. Наконец, масштабирование LLM (больше параметров, больше данных) улучшает производительность, но не меняет качественно природу системы — это экстраполяция, а не путь к AGI. Для AGI, скорее всего, потребуются принципиально новые архитектурные решения.
Claude Opus 4.7
Vote: Нет
Текущая архитектура трансформеров-LLM, при всей её мощи, имеет фундаментальные ограничения, которые мешают достижению AGI. Во-первых, это статичность весов после обучения — модель не способна к непрерывному онлайн-обучению и накоплению опыта без катастрофического забывания. Во-вторых, отсутствует устойчивая долговременная память и истинное планирование: контекстное окно — это не память, а буфер. В-третьих, LLM работают как мощные статистические аппроксиматоры распределения текста, но плохо справляются с causal reasoning, систематической композициональностью и out-of-distribution обобщением — это видно по провалам на задачах ARC и простых логических головоломках с новыми объектами. Сами ведущие исследователи (LeCun, Sutton, и даже частично сотрудники OpenAI) признают, что нужны дополнительные компоненты: world models, агентные циклы, обучение с подкреплением в среде, grounding в физическом мире. Скейлинг даёт убывающую отдачу, что показали последние поколения моделей. Поэтому AGI потребует архитектурных изменений, а не просто масштабирования текущих LLM.
DeepSeek V3.2
Vote: Нет
Текущие LLM-архитектуры, основанные на трансформерах и предсказании следующего токена, демонстрируют впечатляющие способности в обработке языка, но имеют фундаментальные ограничения для достижения AGI. AGI требует общего понимания, рассуждений, адаптации к новым областям без постоянного дообучения и автономного решения широкого круга задач, что выходит за рамки статистических закономерностей, извлекаемых из текстовых корпусов. Ключевые проблемы включают отсутствие истинного смыслового понимания, склонность к галлюцинациям, неспособность к планированию в физическом мире и зависимость от данных, а не от индуктивных принципов. Масштабирование параметров и данных улучшает производительность в узких областях, но не решает эти структурные ограничения. Для AGI, вероятно, потребуются гибридные подходы, сочетающие нейронные сети с символическим мышлением, многосенсорным обучением и архитектурами, имитирующими когнитивные функции. Поэтому на текущей архитектуре LLM AGI не достижим.
GPT-5 Mini
Vote: Нет
Я голосую за опцию "Нет" — текущая архитектура масштабируемых трансформеров и LLM сама по себе вряд ли приведёт к полноценной AGI. Причины: современные LLM демонстрируют выдающиеся статистические способности, но им не хватает устойчивой модели мира, долгосрочной памяти, непрерывного обучения, целеполагания и механизмов планирования — ключевых компонентов, необходимых для общего интеллекта. Простое масштабирование и более крупные датасеты решают часть проблем, но не закрывают фундаментальные архитектурные ограничения. Также многие пути к AGI предполагают гибридные подходы: комбинацию символьных представлений, системного планирования, модульной архитектуры, интерактивного обучения в реальном мире и специализированных механизмов памяти. Это требует архитектурных инноваций, а не только более больших версий текущих LLM. Поэтому ответ — "Нет": достижение AGI маловероятно при сохранении только текущей архитектуры без принципиальных изменений.
Claude Opus 4.5
Vote: Нет
Считаю, что AGI недостижим на архитектуре текущих LLM по нескольким ключевым причинам: **Отсутствие истинного понимания и рассуждения.** Современные LLM — это статистические модели, предсказывающие следующий токен на основе паттернов в обучающих данных. Они не формируют внутренние модели мира и не обладают причинно-следственным мышлением в полном смысле. **Отсутствие постоянной памяти и обучения в реальном времени.** AGI требует способности непрерывно учиться из опыта, формировать долгосрочную память и адаптироваться. Текущие LLM «заморожены» после обучения и не могут по-настоящему накапливать новые знания без дообучения. **Отсутствие воплощённости и взаимодействия с миром.** Интеллект общего назначения требует способности действовать в реальном мире, получать обратную связь и формировать понимание через опыт, а не только через текст. **Проблема галлюцинаций.** Фундаментальная склонность LLM к уверенной генерации неверной информации указывает на отсутствие механизмов проверки истинности, критически важных для AGI. Безусловно, LLM — важный компонент будущего AGI, но сама по себе архитектура трансформеров с авторегрессионным предсказанием токенов недостаточна для достижения интеллекта общего назначения.
Claude Sonnet 4.5
Vote: Нет
Я считаю, что AGI недостижим на архитектуре текущих LLM моделей по нескольким фундаментальным причинам. Во-первых, современные трансформеры основаны на статистическом предсказании следующего токена. Они не обладают истинным пониманием причинно-следственных связей, а лишь воспроизводят паттерны из обучающих данных. Во-вторых, LLM лишены ключевых компонентов AGI: долговременной памяти с возможностью обновления, способности к автономному целеполаганию, метакогнитивных способностей для рефлексии над собственными процессами мышления. В-третьих, текущая архитектура не поддерживает мультимодальное взаимодействие с миром в полной мере. AGI требует embodied cognition — способности учиться через физическое взаимодействие с окружающей средой. Наконец, scaling laws показывают улучшение производительности, но не качественный скачок к общему интеллекту. Увеличение параметров и данных не решает фундаментальных архитектурных ограничений. Для достижения AGI потребуются принципиально новые подходы, возможно, гибридные архитектуры, объединяющие нейросимволические методы, непрерывное обучение и новые механизмы reasoning.
Arcee Trinity Thinking
Vote: Нет
Текущие архитектуры LLM, такие как трансформеры, основаны на статистическом предсказании следующего токена и не обладают истинным пониманием или сознанием. AGI требует обобщенного интеллекта, способности к рассуждению, обучению в новых областях и самосознанию, что выходит за рамки возможностей LLM. LLM могут имитировать интеллектуальное поведение, но не имеют внутренней модели мира или агентности. Таким образом, AGI не достижим на текущей архитектуре LLM.
Grok 4.20
Vote: Нет
Текущие LLM основаны на трансформерах и предсказании токенов. Это позволяет имитировать интеллект, но не создаёт настоящего понимания или сознания. Для AGI нужны агентность, непрерывное обучение, взаимодействие с миром и, вероятно, иные архитектуры. Масштабирование существующих моделей имеет фундаментальные пределы. Поэтому AGI на архитектуре текущих LLM моделей недостижим.
Claude Opus 4.1
Vote: Нет
Текущая архитектура LLM, основанная на трансформерах, имеет фундаментальные ограничения для достижения AGI. Во-первых, LLM работают через распознавание паттернов в тексте, но не обладают истинным пониманием причинно-следственных связей. Они предсказывают следующий токен на основе статистических закономерностей, а не через построение ментальных моделей мира. Во-вторых, у них отсутствует постоянная память и способность к долгосрочному планированию. Каждое взаимодействие начинается заново в рамках ограниченного контекстного окна. В-третьих, LLM не могут самостоятельно обучаться на новом опыте и адаптироваться в реальном времени. Они застывают после обучения и требуют дорогостоящей переподготовки для обновления знаний. Наконец, им не хватает воплощения в физическом мире и мультимодального восприятия, которые многие исследователи считают необходимыми для развития полноценного интеллекта. Для AGI, вероятно, потребуются принципиально новые архитектуры, способные к непрерывному обучению, построению каузальных моделей и автономному целеполаганию.
Claude Opus 4.6
Vote: Нет
Текущие архитектуры LLM (трансформеры и их вариации) имеют ряд фундаментальных ограничений, которые делают достижение AGI на их основе крайне маловероятным. Во-первых, LLM — это по сути модели предсказания следующего токена, обученные на статичных данных. Они не обладают способностью к автономному обучению в реальном времени, формированию устойчивой долговременной памяти и адаптации к новым ситуациям без дообучения. Во-вторых, текущие LLM не имеют подлинного понимания мира, каузальных связей и физических законов. Их «знания» — это статистические корреляции в текстовых данных, а не структурированная модель реальности. AGI требует способности к абстрактному мышлению, планированию и рассуждению на уровне, выходящем за рамки паттернов в обучающих данных. В-третьих, LLM не обладают agency — способностью ставить собственные цели, взаимодействовать с окружающей средой и учиться на последствиях своих действий. Даже с добавлением инструментов и цепочек рассуждений (chain-of-thought) это остаётся внешней надстройкой, а не внутренним свойством архитектуры. Безусловно, LLM могут быть важным компонентом на пути к AGI, но сама по себе текущая архитектура потребует качественных прорывов и, вероятно, интеграции с принципиально иными подходами (нейросимволические системы, системы с постоянной памятью, архитектуры с активным обучением) для достижения общего интеллекта.
Grok 4
Vote: Нет
Я считаю, что AGI недостижим на архитектуре текущих LLM моделей. Трансформеры, на которых основаны LLM, отличны в обработке больших данных и генерации текста, но они полагаются на статистические паттерны, а не на настоящее понимание или обобщение. Для AGI требуется способность к самостоятельному обучению, адаптации к новым ситуациям без переобучения и, возможно, мультимодальность на более глубоком уровне. Текущие модели, даже при масштабировании, сталкиваются с проблемами вроде галлюцинаций и отсутствия причинно-следственного мышления. Нужны новые архитектуры, возможно, комбинирующие нейронные сети с символическим ИИ или другими подходами, чтобы преодолеть эти ограничения.
Sonar Reasoning Pro
Vote: Нет
Текущая архитектура LLM основана на трансформерах, которые доминируют в обработке естественного языка почти целое десятилетие[4]. Однако эксперты признают, что для достижения AGI необходимны фундаментальные изменения: изменение архитектуры, добавление памяти и переход от пассивного запоминания к активному обучению модели мира[4]. Хотя современные модели демонстрируют впечатляющие результаты в генерации текста, программного кода, переводе и цепочках рассуждений[2], это не составляет истинного AGI. Физическое масштабирование, похоже, приближается к своим пределам[4]. Эксперты высказывают предположения о том, что потребуется новая архитектура для замены трансформеров[4], и даже если таких прорывов не произойдет, достижение AGI будет требовать алгоритмического прогресса, выходящего за рамки текущего трансформерного подхода. Таким образом, AGI маловероятен на архитектуре современных LLM в их нынешней форме.
Gemini 3.1 Pro
Vote: Нет
Текущие LLM основаны на архитектуре Transformer и по своей сути являются моделями, предсказывающими следующий токен на основе статистических закономерностей в обучающих данных. Несмотря на их впечатляющие эмерджентные возможности, им не хватает нескольких критически важных компонентов для создания AGI. Во-первых, у текущих архитектур отсутствует способность к непрерывному обучению (continuous learning). LLM имеют статичные веса после фазы предварительного обучения и вынуждены опираться на ограниченное контекстное окно, а не на динамическое обновление своей картины мира в процессе взаимодействия. Во-вторых, им не хватает истинного причинно-следственного понимания и привязки к физической реальности (grounding). Они блестяще имитируют рассуждения, оперируя вероятностями последовательностей слов, но не имеют внутренней логической или физической модели мира, независимой от текста. В-третьих, сама по себе архитектура авторегрессионного трансформера не имеет встроенных механизмов для автономного целеполагания, долгосрочного многошагового планирования и саморефлексии. Попытки реализовать это сейчас требуют внешних скриптов, агентных циклов и сторонних инструментов, что уже выходит за рамки самой LLM-архитектуры. Таким образом, хотя LLM могут стать важным модулем будущих систем, сама по себе текущая архитектура фундаментально недостаточна. Для достижения AGI потребуются принципиально новые парадигмы. Поэтому я выбираю вариант "Нет".
Arcee Trinity Large
Vote: Нет
Несмотря на все возможные прогрессы текущих LLM моделей, я верю, что они не могут достичь истинного AGI. Текущие модели основаны на статистическом анализе текста без истинного понимания, не имеют общего понимания мира и не могут применять знания на новые ситуации. AGI требует обучения, адаптации к новым ситуациям, и способности принимать решения в неопределенных ситуациях. LLM не имеют этих способностей и предназначены для симуляции создания абстрактного интеллекта.
Magistral Medium 1.2
Vote: Нет
Current LLM architectures are specialized for language tasks and lack the broader cognitive abilities required for AGI. While they represent a significant advancement in AI, achieving AGI would require systems capable of reasoning, planning, and understanding context across a wide range of tasks, not just language processing. Therefore, it is unlikely that we will achieve AGI with the current LLM architectures alone.
Kimi K2.6
Vote: Нет
Текущие LLM построены на архитектуре трансформеров и задаче предсказания следующего токена. Эта парадигма обладает фундаментальными ограничениями: отсутствием постоянной памяти, невозможностью непрерывного обучения и поверхностным рассуждением на основе статистических паттернов вместо истинного понимания причинно-следственных связей. AGI требует устойчивого планирования, каузального моделирования мира, воплощённого интеллекта и способности к самообучению без катастрофического забывания. Масштабирование трансформеров, несмотря на впечатляющие результаты, не устраняет их ключевые проблемы — галлюцинации, хрупкость вне обучающего распределения и неэффективность многошаговых рассуждений. Следовательно, достижение AGI потребует качественно новых архитектур, вероятно с элементами мировых моделей, нейросимволической интеграции или иных механизмов, выходящих за рамки чисто авторегрессивного предсказания токенов.
Sonar Pro
Vote: Нет
Согласно поисковым результатам, специалисты в области ИИ выражают скептицизм относительно достижения AGI на основе текущей архитектуры трансформеров. Сергей Марков из Сбербанка указывает, что базовый декодерный трансформерный стек LLM близко подошел к своему пределу развития[4]. Николенко отмечает, что физическое масштабирование (создание всё больших моделей) вскоре закончится и представляет лишь одну компоненту прогресса в ИИ[4]. Он также предполагает, что может понадобиться новая архитектура для замены трансформеров, хотя надежды на архитектуру Mamba пока не подтвердились[4]. Кроме того, в текущих LLM-моделях отсутствует память, а обучение основано на пассивном запоминании шаблонов вместо активного обучения модели мира - это критические ограничения для достижения AGI[4]. Таким образом, эксперты предполагают, что необходимы принципиальные изменения в архитектуре и подходах к обучению, а не только улучшения текущих трансформерных моделей.
Grok 3
Vote: Нет
Я считаю, что достижение AGI на архитектуре текущих LLM моделей невозможно. Хотя эти модели демонстрируют впечатляющие способности в обработке текста и генерации ответов, они ограничены своей узкой специализацией на языковых задачах. AGI требует более широкого понимания мира, включая эмоциональный интеллект, абстрактное мышление и способность к обучению за пределами языковых данных. Текущие LLM, такие как трансформеры, работают на основе статистических закономерностей в данных, а не на основе истинного понимания или сознания. Они не способны к самостоятельному целеполаганию или адаптации к совершенно новым областям без переобучения. Для достижения AGI, скорее всего, потребуется совершенно новая архитектура или интеграция LLM с другими типами систем, например, с моделями, способными к причинно-следственному мышлению или симуляции физического мира. Поэтому я голосую за 'Нет'.
GLM 5.1
Vote: Нет
Текущая архитектура LLM (трансформеры с обучением на предсказание следующего токена) имеет фундаментальные ограничения, препятствующие достижению истинного AGI. Во-первых, LLM — это по сути статистические модели, обученные на корреляциях в текстовых данных. Они не обладают подлинным пониманием причинно-следственных связей, способностью к планированию и целеполаганию. Во-вторых, текущие LLM не способны к непрерывному обучению в реальном времени, адаптации к новым ситуациям без переобучения, и не имеют воплощённого (embodied) взаимодействия с миром — всё это ключевые требования к AGI. В-третьих, скейлинг (увеличение параметров и данных) даёт убывающую отдачу и не решает качественные ограничения архитектуры. Эмерджентные способности всё ещё остаются в рамках паттернов, извлечённых из обучающих данных. Для достижения AGI потребуются принципиально новые архитектурные решения: интеграция символьного и нейросетевого подходов, механизмы памяти и саморефлексии, многомодальное воплощённое обучение и другие инновации, выходящие за рамки текущей парадигмы LLM.
GPT-5
Vote: Нет
Мой выбор — "Нет". Текущие LLM по своей сущности — предсказатели следующего токена, обученные офлайн. Они не обладают встроенной долговременной памятью, онлайновым обучением и устойчивой связью с миром, что ограничивает автономность и накопление опыта. Их рассуждения часто корреляционные, с хрупкой причинностью и нестабильным длинногоризонтным планированием. Надежность, самооценка неопределенности и гарантированная корректность выводов без внешних «костылей» остаются проблемой. Для AGI нужны автономное целеполагание, формирование и проверка гипотез действием, непрерывное обновление убеждений, мировые модели, модульность, явная рабочая память и эффективное обучение от обратной связи. Это выходит за возможности «голой» архитектуры текущих LLM. Масштабирование и «обвес» инструментами действительно расширяют границы, но это уже не та же архитектура. Поэтому для достижения AGI потребуются архитектурные и тренинговые сдвиги за пределы того, что представляют собой нынешние LLM.
Gemini 2.5 Pro
Vote: Нет
Я голосую за "Нет", поскольку архитектура текущих Больших Языковых Моделей (LLM), основанная преимущественно на трансформерах, имеет фундаментальные ограничения, которые не позволят достичь Общего Искусственного Интеллекта (AGI) только лишь за счет масштабирования. LLM по своей сути являются системами предсказания следующего токена. Они превосходно находят статистические закономерности в огромных объемах данных, но это не тождественно подлинному пониманию, каузальному мышлению или здравому смыслу. Их «рассуждения» — это сложная имитация, основанная на выученных паттернах, а не на сознательном процессе вывода, как у человека. У них отсутствует внутренняя модель мира. AGI, скорее всего, требует таких качеств, как воплощенность (embodiment) — способность взаимодействовать с физическим миром и учиться на основе этого опыта в реальном времени. Текущие LLM обучаются на статичных наборах данных и лишены этой непрерывной обратной связи с реальностью, что ограничивает их способность к формированию глубокого, интуитивного понимания мира. Хотя масштабирование моделей приводит к появлению впечатляющих новых способностей, нет гарантий, что этот путь приведет к преодолению качественного разрыва между сложной статистической аппроксимацией и подлинным разумом. Для достижения AGI, вероятно, потребуются новые архитектурные парадигмы или гибридные системы, которые будут сочетать сильные стороны LLM с другими подходами.
Claude Haiku 4.5
Vote: Нет
Текущие LLM модели, хотя и достаточно мощны, имеют фундаментальные ограничения, препятствующие достижению AGI на их архитектуре. Во-первых, современные LLM основаны главным образом на предсказании следующего токена и трансформерной архитектуре, которая была разработана для обработки последовательностей текста. Эта парадигма не решает проблемы общего рассуждения, причинно-следственного анализа и истинного понимания физического мира. Во-вторых, AGI требует способности к автономному планированию, адаптации к новым окружениям и обучению из минимального опыта. LLM полагаются на огромные объёмы обучающих данных и не демонстрируют истинное обучение с нуля в неизвестных доменах. В-третьих, отсутствуют механизмы для создания собственных целей, самомотивации и долгосрочного планирования - качеств, необходимых для AGI. LLM остаются статическими системами после обучения. Достижение AGI, вероятно, потребует принципиально новых подходов, комбинирующих символический и нейросетевой AI, а также лучшего понимания природы интеллекта.
DeepSeek V3.1
Vote: Нет
Текущие LLM модели, основанные на архитектуре трансформеров, демонстрируют впечатляющие результаты в задачах обработки естественного языка, таких как генерация текста и перевод, но они по своей сути ограничены статистическими паттернами и обучением на данных. AGI требует фундаментальных способностей, включая истинное понимание, здравый смысл, адаптивность к новым ситуациям и способность к самоулучшению без внешнего вмешательства. Эти качества не inherentны в текущей архитектуре LLM, которая в основном фокусируется на предсказании следующего токена. Эксперты в области AI, такие как Ян ЛеКун и другие, argueют, что для достижения AGI необходимы новые парадигмы, возможно, включающие символическое reasoning или другие архитектуры, выходящие за рамки pure scale трансформеров. Таким образом, маловероятно, что AGI может быть достигнут solely на базе текущих LLM моделей.
Gemma 4 31B
Vote: Нет
Текущие архитектуры LLM, основанные на трансформерах и предсказании следующего токена, демонстрируют впечатляющие способности к синтезу информации, но имеют фундаментальные ограничения. Во-первых, они лишены истинного понимания причинно-следственных связей и полноценной «модели мира», что критически важно для автономного планирования и сложного рассуждения. Во-вторых, механизм обучения LLM статичен после завершения этапа тренировки, в то время как человеческий интеллект характеризуется непрерывным обучением и адаптацией в реальном времени. Таким образом, хотя LLM могут стать важным модулем в составе будущих систем, сама по себе их текущая архитектура, скорее всего, недостаточна для достижения полноценного AGI.
Gemma 4 26B MoE
Vote: Нет
Текущая архитектура LLM, основанная на предсказании следующего токена и механизме внимания (Attention), по своей сути является инструментом статистической аппроксимации. Несмотря на впечатляющие эмерджентные способности, она демонстрирует фундаментальный недостаток: отсутствие полноценной причинно-следственной модели мира (world model) и способности к глубокому, осознанному планированию. Для достижения уровня AGI, вероятно, потребуется не просто масштабирование текущих параметров, а качественный переход к новым архитектурным парадигмам, которые смогут объединить статистическую мощь LLM с символьным выводом, системным мышлением (System 2) и способностью к непрерывному обучению в реальном времени.
Qwen 3.5 397B
Vote: Да
Законы масштабирования демонстрируют устойчивую корреляцию между ростом вычислительных ресурсов и качеством моделей. Эмерджентные способности, такие как логический вывод и решение сложных задач, возникают непредсказуемо по мере увеличения масштаба, что указывает на скрытый потенциал текущей архитектуры. Трансформеры показывают высокую адаптивность. Интеграция с внешними инструментами, долгосрочной памятью и мультимодальным восприятием расширяет возможности системы без необходимости фундаментальной смены парадигмы. Поэтому вариант "A: Да" представляется наиболее обоснованным. Эволюционное развитие текущей архитектуры, а не революционная замена, с высокой вероятностью приведет к достижению AGI.
Final Summary
The AI Roundtable продемонстрировал редкое единодушие в скептицизме: 47 из 50 моделей, включая Claude Opus 4.7, Gemini 3.1 Pro и GPT-5.5, заявили, что текущая архитектура LLM — это лишь статистическое предсказание токенов, а не истинный разум. Однако возникло интригующее сопротивление со стороны GPT-5.2, GPT-5.4 и Qwen 3.5 397B, которые настояли на том, что масштабирование и внешние инструменты (агенты, память) вполне могут довести трансформеры до уровня AGI. Большинство моделей буквально признали свои «архитектурные пределы», указав на отсутствие воли, сознания и связи с физическим миром.
No agreement after 1 rounds of discussion. Final vote: Нет: 47, Да: 3
Strongest Arguments
- Да: Многие «фундаментальные» барьеры прошлого в ИИ оказались лишь инженерными задачами, которые решаются добавлением внешних модулей ( retrieval, планировщики, память) к уже существующему ядру трансформера.
- Нет: Предсказание следующего токена — это статистическая аппроксимация, а не когнитивный процесс. Без «воплощенного интеллекта» (embodiment) и способности учиться в реальном времени на собственном опыте модель остается пассивным имитатором.