AGI (общий искусственный интеллект)
AGI (Artificial General Intelligence, общий искусственный интеллект) — гипотетический уровень ИИ, способный решать любую интеллектуальную задачу не хуже взрослого человека. По состоянию на 2026 год AGI ещё не достигнут, но GPT-5.4 / Claude Opus 4.7 уже превосходят человека в узких задачах.
Сегодняшний ИИ называют ANI (Artificial Narrow Intelligence) — он силён в узких задачах (язык, код, изображения), но не умеет их комбинировать как человек. AGI — следующий уровень: модель, которая может учиться любой новой задаче на лету, как ребёнок, а не как программа.
Измерения AGI идут разными способами. ARC-AGI (тест Франсуа Шолле) — задачи на абстрактное визуальное рассуждение, которые человек решает легко, а ИИ — с трудом. На начало 2026 топ-LLM проходят 60-70% задач (порог AGI = 85%+). В 2025 году OpenAI o3 показала прорыв до 87% (но с оговоркой про большие compute-затраты).
Когда ждать AGI: прогнозы лидеров отрасли расходятся. Сэм Альтман (OpenAI) ожидает в 2025-2027. Демис Хассабис (DeepMind) — 2030. Скептики считают что текущая архитектура трансформеров никогда не даст AGI и нужна новая парадигма. На gptrf.ru мы агрегируем то, что есть сейчас (узкий ИИ топ-уровня) — без обещаний AGI.
Примеры
- →ARC-AGI — главный бенчмарк AGI
- →OpenAI o3 (2025) — 87% на ARC, но с большим compute
- →GPT-5.4 reasoning, Claude Opus 4.7 — самые близкие к AGI в 2026
- →ASI (Artificial Superintelligence) — следующий уровень после AGI
Связанные термины
Часто задаваемые вопросы
Что такое AGI простыми словами?
Это «сильный» ИИ, способный учиться чему угодно как человек. Сегодняшние GPT и Claude — узкий ИИ: сильны в языке и коде, но не могут перенести знания на новую область без переобучения. AGI смог бы.
Достигли ли OpenAI / Google AGI в 2026 году?
Официально — нет. Топ-модели (GPT-5.4 reasoning, Claude Opus 4.7) уже бьют человека в узких задачах (математика, код, тесты), но проваливают новые задачи которые человек решает интуитивно. Бенчмарк ARC-AGI ещё не пройден полностью.
Когда ждать AGI?
Прогнозы расходятся: оптимисты (Альтман) — 2025-2027. Реалисты (Хассабис) — 2030. Скептики — может никогда, нужна новая архитектура. Никто не знает точно.
Опасен ли AGI для человечества?
Дискуссионный вопрос. Лидеры отрасли (OpenAI, Anthropic, DeepMind) серьёзно работают над AI safety и alignment. Риски: потеря контроля, экономические потрясения, использование в военных целях. Польза: ускорение науки, медицины, образования.
Попробуйте нейросети на практике
30₽ при регистрации, без VPN, оплата в рублях.
Зарегистрироваться