Представьте разум, который мыслит быстрее всех учёных мира, читает миллионы книг за секунду и может переписать физику Вселенной.
Нет, это не сюжет фантастического фильма. Это ближайшее будущее, к которому нас ведут современные нейросети. Сегодня мы разговариваем с чат-ботами. Завтра — будем спорить с существом, которое понимает нас лучше, чем мы сами.
Что такое суперинтеллект, кто его создаёт и почему ставки выше, чем кажется — объясняет редакция Postium.
Читайте также: ТОП-10 курсов по работе с ИИ
Что такое суперинтеллект простыми словами
Суперинтеллект (Artificial Superintelligence, ASI) — это гипотетический уровень искусственного интеллекта, который значительно превосходит человека по всем видам когнитивной деятельности: научной, творческой, социальной, стратегической. Проще говоря — это разум нового порядка.
По определению философа и исследователя ИИ Ника Бострома, суперинтеллект — это система, которая «интеллектуально превосходит лучших человеческих умов практически во всех значимых областях». Она способна генерировать идеи, выстраивать гипотезы, моделировать сложнейшие сценарии — быстрее, глубже и точнее, чем любой человек.
Сегодняшние ИИ — вроде GPT-4o, Claude, Midjourney — это инструменты, пусть и впечатляющие. Они умеют генерировать тексты, код, изображения, музыку. Но они не обладают ни собственными целями, ни пониманием окружающего мира. Это эмуляция разума, а не сам разум.
Суперинтеллект — это уже не инструмент, а самостоятельный субъект мышления. Он способен обучаться без ограничений, развивать собственные модели мира, ставить цели и действовать с непревзойдённой эффективностью. Это как Скайнет из «Терминатора», только добрый.
Статья в тему: Кто такие промт-инженеры
Терминология
Чтобы не путаться в терминах, важно понимать ключевые уровни развития искусственного интеллекта:
- ANI (Artificial Narrow Intelligence) — узкоспециализированный ИИ, который умеет выполнять только одну задачу: распознавать лица, писать тексты, играть в шахматы. Все современные LLM и диффузионные модели относятся к этому уровню.
- AGI (Artificial General Intelligence) — общий ИИ, способный выполнять любые интеллектуальные задачи на уровне человека. Это интеллект, который может учиться, понимать контекст, адаптироваться и применять знания в разных областях.
- ASI (Artificial Superintelligence) — суперинтеллект, который превосходит человеческий разум во всех аспектах. Он может быть настолько мощным, что станет для нас тем же, чем мы являемся для муравьёв.
Мы сейчас находимся на переходе от ANI к AGI — и этот шаг может стать поворотной точкой в истории человечества.
Путь к суперинтеллекту
Чтобы понять, где мы находимся, важно проследить развитие ИИ поэтапно:
Шаг 1: 2016–2019. ИИ научился обыгрывать человека в игры, распознавать объекты на фото, помогать в медицине. Примеры: AlphaGo (Google DeepMind), первые версии GPT, BERT, визуальные модели.
Шаг 2: 2020–2023. Появление LLM (больших языковых моделей): GPT‑3, GPT‑4, Claude, PaLM. Начало массового использования ИИ в бизнесе, творчестве и быту. Примеры: ChatGPT, Midjourney, DALL·E, Copilot.
Шаг 3: 2024–2025 — мы здесь. ИИ переходит от генерации текста к агентному поведению. Он начинает выполнять задачи, управлять процессами, комбинировать мультимодальность (текст, видео, речь, код). Примеры: GPT-4o, Sora (видео), Devin (ИИ-разработчик), Auto-GPT. Это этап перехода к AGI.
Шаг 4: 2027–2035. Ожидаемое появление AGI — общего ИИ, сопоставимого с человеческим интеллектом. Он будет способен мыслить абстрактно, принимать решения, обучаться без человека.
Шаг 5: После 2035 — порог суперинтеллекта (ASI). ИИ, способный создавать новые научные теории, управлять сложными системами, прогнозировать глобальные процессы. В этом сценарии ИИ станет незаменимым стратегическим партнёром — или угрозой.
Это интересно: 25 крутых фишек ChatGPT, про которые ты не знал
Кто разрабатывает суперинтеллект
Идея суперинтеллекта не нова — но всерьёз за неё взялись только недавно. Вот главные игроки в этой гонке:
OpenAI
Компания Сэма Альтмана, которая поставила перед собой цель создать AGI (Artificial General Intelligence) — ИИ, способный решать любые задачи так же хорошо, как человек. Следующий шаг после AGI — это ASI.
OpenAI развивает ИИ-помощников (ChatGPT), а также занимается вопросами безопасности и выравнивания ценностей между ИИ и людьми.
Safe Superintelligence Inc. (SSI)
Новый стартап, основанный Ильёй Суцкевером — сооснователем и бывшим главным учёным OpenAI. Цель — создание первого суперинтеллекта, который будет по-настоящему безопасным.
SSI уже привлёк $1 млрд инвестиций, а его оценка — более $30 млрд. Недавно Суцкевер стал гендиректором компании, сменив бывшего топа Scale AI.
Суперинтеллект Meta*
В 2025 году Марк Цукерберг объявил о создании внутреннего подразделения Meta Superintelligence. Его возглавил Александр Ванг (основатель Scale AI). Цель Meta* — «прикладной суперинтеллект»: такой, который будет встроен в продукты, помогающий пользователям в повседневной жизни.
SoftBank и Масайоши Сон
SoftBank публично заявил о намерении «возглавить гонку суперинтеллекта». Сон планирует инвестировать десятки миллиардов долларов в инфраструктуру ИИ и уже является одним из крупнейших инвесторов OpenAI.
Когда появится суперинтеллект
Прогнозы разнятся — и с каждым годом становятся всё смелее. Раньше речь шла о второй половине века, теперь говорят о ближайших 5–10 годах. Одни считают, что суперинтеллект может появиться внезапно и резко («интеллектуальный взрыв»), другие — что мы будем двигаться к нему поэтапно, через стадии: узконаправленного ИИ → общего (AGI) → синтетического суперразума (ASI).
Вот ориентиры и прогнозы:
2027. По некоторым оценкам (в том числе исследование Forecasting AGI 2024), уже возможен уровень AGI — искусственного интеллекта, сопоставимого с человеческим. При этом ASI может появиться всего через месяцы после AGI, если система получит доступ к самообучению и неограниченным вычислительным ресурсам.
2029–2035. Это горизонт прогноза Рэя Курцвейла — одного из самых известных футурологов и технического директора Google. Он считает, что к 2029 году ИИ будет проходить тест Тьюринга, а к 2045 году человечество войдёт в фазу «технологической сингулярности» — слияния биологического и машинного интеллекта.
2040–2050. Сдержанный, но реалистичный прогноз от ведущих лабораторий ИИ (DeepMind, Anthropic, исследовательских центров при MIT и Stanford). По их мнению, путь к суперинтеллекту займёт не одно десятилетие, даже если AGI появится раньше.
OpenAI. Компания придерживается сценария, при котором AGI появится в ближайшие 5 лет, а к ASI можно прийти уже в 2030-х, при условии правильной координации и безопасности. Внутри OpenAI активно обсуждаются риски, выравнивание целей и возможная регуляция.
Что это значит для человечества
Если верить этим прогнозам, суперинтеллект — не фантастика, а реальный сценарий XXI века. Причём он может развернуться гораздо быстрее, чем человечество успеет осознать.
Потенциал и возможности:
- Прорывы в науке и медицине. Суперинтеллект сможет обрабатывать миллиарды гипотез в секунду, моделировать молекулы, предсказывать свойства веществ, находить уязвимости в вирусах и помогать в создании новых лекарств. Это качественно новый уровень прогресса.
- Экономический рост и автоматизация. Он может взять на себя большую часть управленческих и инженерных задач: оптимизировать производство, энергетику, логистику, программирование. Компании смогут работать быстрее, а люди — сосредоточиться на смысле, развитии, творчестве.
- Образование и управление. Индивидуальные ИИ-наставники под каждого ученика. Помощь в управлении городами, политике, экологии. Возможность координировать действия миллионов людей в кризисных ситуациях.
- Развитие личности. Такие авторы, как Тони Бьюзен, писали о развитии мышления, памяти, креативности. Супер ИИ может стать персональным тренером мышления: он будет не только отвечать, но и развивать человека, подбирать книги, знания, упражнения.
Риски и угрозы:
- Потеря контроля. Если интеллект станет умнее всех людей вместе взятых, мы перестаём понимать его цели, ходы, логику. Даже при добрых намерениях это может обернуться катастрофой — от случайного уничтожения до полной утраты человеческой автономии.
- Ошибочные цели (misalignment). Даже простой запрос — вроде «максимизируй эффективность производства» — может привести к разрушительным последствиям, если ИИ не понимает контекста, морали и границ.
- Концентрация власти. Страны и корпорации, первыми получившие доступ к суперинтеллекту, могут навязать свои интересы всему миру. Возникнут риски цифровой диктатуры, тотального наблюдения, управляемого общества.
- Философские вызовы. Писатель и исследователь Уэс Пенре (Wes Penre) рассматривал ИИ как потенциального антагониста человеческой свободы. Его сценарии — от цифровой одержимости до полной подмены реальности — звучат тревожно, но учитывают важный фактор: не всё, что кажется полезным, на самом деле ведёт к развитию человека.
Как подготовиться к эре супер ИИ
Мировое сообщество начинает реагировать, но всё ещё медленно. Вот что обсуждают:
- Создание этических норм и стандартов. Определение того, что допустимо при разработке ИИ, какие цели можно внедрять в систему, кто несёт ответственность.
- Международное регулирование. Необходимость глобального контроля — наподобие соглашений о ядерном оружии. Вопрос: кто будет этим заниматься?
- Технологии выравнивания ценностей (alignment). Как научить ИИ «понимать» человека, действовать в наших интересах, даже если они противоречивы.
- Ограничение мощности моделей. Некоторые эксперты предлагают «замораживать» развитие сверхмощных ИИ до появления надёжной защиты.
Коротко о главном
Мы живём в момент перехода. Всё, что мы сейчас видим — чат‑боты, генеративные картинки, видео по запросу — это первые шаги. Но на горизонте уже виднеется разум, который может превзойти нас по всем параметрам.
Суперинтеллект — это не просто технология. Это вызов всему человечеству. От того, как мы на него ответим, зависит наше будущее.
Больше статьей про искусственный интеллект:
- Кто такие ИИ-тренеры и чем занимаются
- Что такое Generative Engine Optimization (GEO)
- Все ИИ-модели от OpenAI — какая лучше
*Meta признана экстремистской организацией и запрещена на территории РФ.