Ben Goertzel: AI превзойдёт человека в стратегическом мышлении через 2 года
CEO SingularityNET заявил, что AI научится думать и планировать лучше людей к 2028 году. Разбираем его аргументы, прогнозы и что это значит для будущего.

Ben Goertzel: AI превзойдёт человека в стратегическом мышлении через 2 года
11 февраля 2026 — Ben Goertzel, CEO SingularityNET и один из ведущих исследователей AGI, заявил в интервью CoinDesk: через два года AI будет думать и строить стратегии лучше, чем люди. Пока AI-агенты фокусируются на автоматизации, Goertzel предупреждает: скоро они начнут превосходить нас в высокоуровневом мышлении.
Что сказал Goertzel
Ключевая цитата
«Два года. Столько времени осталось у человечества до того, как искусственный интеллект станет лучшим мыслителем и стратегом, чем мы. Пока индустрия AI фокусируется на автоматизации рутины — агентах для повышения эффективности рынка — но скоро это изменится.»
Контекст
Goertzel выступал на конференции, посвящённой блокчейн и AI. Его компания SingularityNET строит децентрализованный маркетплейс AI-сервисов.
Его позиция
Goertzel — один из немногих исследователей, кто:
- Верит в скорый AGI (2026-2028)
- Работает над открытым, децентрализованным AGI
- Предупреждает о рисках централизации AI в руках Big Tech
Аргументы Goertzel
Текущий прогресс
«Посмотрите на o3 от OpenAI. Посмотрите на DeepSeek R1. Они уже решают задачи, которые большинство людей решить не могут. Математические олимпиады, научные задачи, сложное программирование.»
Что изменится за 2 года
- Масштабирование reasoning — модели станут глубже думать
- Интеграция с World Models — понимание физики и причинности
- Self-improvement — AI, улучшающий сам себя
- Агентские системы — AI, планирующий и действующий
Почему именно стратегическое мышление
«Люди исторически превосходили машины в высокоуровневой стратегии. Мы планируем на годы вперёд, учитываем неопределённость, меняем стратегию на лету. Но AI учится этому быстрее, чем мы ожидали.»
Кто такой Ben Goertzel
Бэкграунд
- PhD — математика и когнитивные науки
- Карьера — 30+ лет в AI research
- Публикации — 20+ книг, 150+ papers
- Компании — SingularityNET, TrueAGI, OpenCog
Его проекты
SingularityNET: Децентрализованный маркетплейс AI-сервисов на блокчейне. Цель — демократизировать доступ к AI.
OpenCog Hyperon: Open-source AGI architecture. Комбинирует логику, нейросети, эволюционные алгоритмы.
ASI Alliance: Альянс компаний, работающих над безопасным и открытым AGI.
Его прогнозы (история)
| Год прогноза | Прогноз | Статус |
|---|---|---|
| 2023 | AGI к 2027-2030 | В процессе |
| 2024 | Superhuman reasoning к 2026-2027 | o3 уже близко |
| 2025 | 2026 — год decentralized AGI | В процессе |
Goertzel исторически был оптимистичен, но не радикально — многие его прогнозы сбывались.
Контраргументы
Скептики
Yann LeCun (AMI Labs):
«Текущие LLM — не путь к AGI. Им не хватает понимания мира. Это займёт больше времени.»
Gary Marcus (NYU):
«AI хорош в узких задачах, но общее стратегическое мышление требует здравого смысла, которого у AI нет.»
Почему скептики могут быть правы
- Масштабирование не гарантировано — scaling laws могут упереться в потолок
- Данные заканчиваются — качественных данных для обучения меньше
- Физика не в текстах — LLM учатся на тексте, а мир — физический
- Embodiment — возможно, нужно тело для настоящего понимания
Почему Goertzel может быть прав
- o3 показал breakthrough — superhuman на многих бенчмарках
- Reasoning улучшается — Chain-of-Thought, Extended Thinking работают
- Агенты развиваются — от чат-ботов к действующим системам
- Инвестиции огромны — $100B+ в год идут в AI R&D
Что это значит практически
Если Goertzel прав
К 2028 году:
- AI-стратеги превзойдут человеческих консультантов
- AI-учёные будут делать открытия быстрее людей
- AI-инвесторы будут управлять большей частью капитала
- AI-программисты будут писать большую часть кода
Последствия:
- Массовая переквалификация workforce
- Переосмысление образования
- Новые этические вопросы
Если скептики правы
К 2028 году:
- AI останется продвинутым инструментом
- Люди сохранят лидерство в стратегии
- Постепенная автоматизация рутины
- Эволюция, не революция
Позиция Goertzel по безопасности
Его взгляд
«Централизация AI в руках нескольких корпораций — главная угроза. OpenAI, Anthropic, Google контролируют самые мощные системы. Это опасно.»
Его решение
- Децентрализация — SingularityNET и open-source
- Прозрачность — открытые алгоритмы и данные
- Демократизация — AI для всех, не только для Big Tech
- Governance — международное регулирование
Критика его подхода
- Децентрализация не гарантирует безопасность
- Open-source AGI может быть опаснее закрытого
- Координация сложна без централизации
Что делать обычным людям
Если верите Goertzel
- Учите AI — станьте тем, кто работает с AI, а не заменяется им
- Развивайте уникальные навыки — креативность, эмпатия, физический труд
- Диверсифицируйте — не ставьте всё на одну профессию
- Следите за развитием — понимайте, куда движется технология
Если скептик
- Не паникуйте — изменения будут постепенными
- Используйте AI — как инструмент, не как замену
- Развивайтесь — но без радикальных изменений
- Критически оценивайте — прогнозы часто ошибаются
Связь с другими трендами
World Models
Goertzel поддерживает идею World Models (LeCun, Fei-Fei Li):
«Языковые модели — часть пути. Но для настоящей стратегии нужно понимание мира. World Models — следующий шаг.»
Агенты
2026 — год AI-агентов. Goertzel:
«Агенты — это AI, который действует. Когда агенты научатся планировать на уровне людей, игра изменится.»
Децентрализация
Его главный фокус:
«Неважно, когда придёт AGI — 2028 или 2035. Важно, кто его контролирует. Я работаю, чтобы это были все, а не несколько корпораций.»
Заключение
Ben Goertzel — не маргинальный футурист. Это серьёзный исследователь с 30-летним опытом. Его прогноз "2 года" может быть оптимистичным, но направление верное: AI движется к человеческому уровню стратегического мышления.
Ключевые выводы:
- 2 года до superhuman стратегии — по мнению Goertzel
- o3, DeepSeek R1 — уже демонстрируют прогресс
- Скептики есть — LeCun, Marcus не согласны
- Децентрализация — его решение проблемы контроля
- Готовьтесь — независимо от точного timing
Следите за развитием — ближайшие годы покажут, кто прав.
Интересуетесь будущим AI и AGI? Подписывайтесь на @AI_and_zarubejka — анализируем прогнозы и тренды!
Оцените статью
0 реакций📬 Получай новые гайды первым
Раз в неделю, без спама
📚 Похожие статьи

AI-тренды 2026: от хайпа к прагматизму
Что ждёт AI-индустрию в 2026 году? Разбираем главные тренды: агенты, маленькие модели, AI для науки и почему 40% проектов будут отменены.

От Vibe Coding к Agentic Engineering: Karpathy о будущем программирования
Andrej Karpathy ввёл новый термин — Agentic Engineering. Год назад был Vibe Coding, теперь AI-агенты пишут код сами. Разбираем эволюцию AI-программирования.

AI-регулирование в США 2026: штаты vs федералы, отсрочка Colorado AI Act
Colorado AI Act отложен до июня, Трамп подписал EO против "чрезмерного" регулирования штатов. Разбираем хаос американского AI-регулирования в 2026.
Комментарии (0)
Обсудить в Telegram💬
Пока нет комментариев. Будьте первым!
💬
Хотите обсудить статью?
Присоединяйтесь к нашему Telegram-каналу для живого общения
Перейти в TelegramНужна помощь с настройкой?
Бесплатная консультация в Telegram. Поможем за 5 минут.
Получить консультацию