OpenAI смещает фокус своих исследований и направляет все ресурсы на новую грандиозную цель, которая станет «Полярной звездой» компании на ближайшие годы. Речь идет о создании полностью автономного ИИ-исследователя — полностью автоматизированной системы на базе агентов, способной самостоятельно справляться с масштабными и сложными задачами, от поиска новых математических доказательств до формулирования гипотез в естественных науках. В основе этой концепции лежат OpenAI системы на базе агентов — программные комплексы, состоящие из автономных «агентов», которые воспринимают окружение, принимают решения и действуют для достижения целей. Амбициозность планов подкреплена конкретными сроками: к сентябрю OpenAI планирует создать «автономного ИИ-стажера-исследователя» — систему, способную самостоятельно решать небольшой круг специфических задач [1]. Этот проект станет предвестником полноценной многоагентной исследовательской системы, которую компания намерена представить к 2028 году. Эта цель объединит все ключевые направления работы OpenAI и, вероятно, задаст тон для всей индустрии на годы вперед.
- Видение Якуба Пачоки в OpenAI: Исследовательская лаборатория в дата-центре
- Технологический фундамент: От Codex до автономного решения проблем
- Голос скептиков: Между прорывом и преувеличением
- Ящик Пандоры: Риски и механизмы контроля автономного ИИ
- Три сценария будущего и новая реальность
Видение Якуба Пачоки в OpenAI: Исследовательская лаборатория в дата-центре
Во многом это решение — заслуга Якуба Пачоки, главного научного сотрудника OpenAI, который определяет долгосрочные исследовательские цели компании. Именно Pachocki сыграл ключевую роль в разработке как GPT-4 — революционной LLM, выпущенной в 2023 году, так и так называемых моделей рассуждений ИИ. Эта технология впервые появилась в 2024 году и теперь лежит в основе всех основных чат-ботов и агентных систем [4]. В недавнем интервью Пачоки сформулировал амбициозную цель, к которой движется компания: «Я думаю, мы приближаемся к моменту, когда у нас будут модели, способные работать неопределенно долго и последовательно, как это делают люди… Мы дойдем до того, что у вас будет целая исследовательская лаборатория в центре обработки данных».
Что именно сможет делать такая «лаборатория»? Согласно видению OpenAI, будущий ИИ-исследователь будет способен самостоятельно решать масштабные и сложные задачи в математике, физике, биологии, химии, а также бизнес- и политические дилеммы. Эта концепция перекликается с разработками конкурентов, например, с проектом Google DeepMind Aletheia для научных открытий [1], что подчеркивает общий вектор развития индустрии. По сути, речь идет об инструменте, которому можно поручить любую проблему, сформулированную в виде текста, кода или даже набросков на доске.
Столь громкие заявления не новы. Нарратив о «спасении мира» и решении сложнейших проблем является общим для ведущих ИИ-компаний и может быть скорее маркетинговым ходом, чем реалистичной оценкой. Демис Хассабис из Google DeepMind и Дарио Амодеи из Anthropic также говорят о создании систем, способных совершать величайшие научные открытия. Однако Пачоки утверждает, что OpenAI имеет почти все необходимые инструменты для достижения этих целей, ссылаясь на успех системы Codex, которая уже сегодня автоматизирует сложные задачи по написанию кода для сотрудников компании.
Ключом к реализации этого видения являются упомянутые ранее «модели рассуждений«. Это технология, которая обучает большие языковые модели пошагово решать проблемы, позволяя им возвращаться назад при ошибке или тупике. Это значительно улучшает их способность работать над сложными задачами дольше и эффективнее, являясь основой для современных чат-ботов и агентных систем. Именно совершенствование этой технологии, по мнению Пачоки, позволит перейти от ассистентов, выполняющих короткие команды, к полноценным автономным исследователям, способным вести многодневные проекты без постоянного контроля со стороны человека.
Технологический фундамент: От Codex до автономного решения проблем
На чем основан такой амбициозный план? Оптимизм OpenAI зиждется не на гипотетических прорывах, а на планомерном масштабировании уже существующих технологий. Фундаментом для будущего ИИ-исследователя служит Codex, обеспечивающий автоматизацию программирования, — инструмент, который многие сотрудники компании уже активно используют в своей работе. Еще в январе OpenAI выпустила Codex — агентное приложение, которое может генерировать код на лету для выполнения задач на вашем компьютере [2]. Этот инструмент, способный анализировать документы, создавать графики и автоматизировать рутинные операции, рассматривается внутри компании как ранняя, но уже функциональная версия будущего автономного исследователя.
Ключевая идея, которую продвигает Якуб Пачоки, заключается в универсальности навыков решения проблем. Логика проста: если система способна эффективно решать сложные задачи в области программирования, она обладает фундаментальными способностями к рассуждению, которые можно применить к любой другой области знаний. Программирование — это, по сути, формализованный процесс декомпозиции большой цели на мелкие, выполнимые шаги, их последовательное исполнение и отладка. Таким образом, мощный ИИ агент, о перспективах развития которых мы писали в статье «OpenJarvis: фреймворк Stanford для локальных ИИ-агентов» [2], отточенный на коде, становится универсальным решателем проблем. Эта концепция превращает задачу создания ИИ-исследователя из научной фантастики в инженерный проект.
Техническая стратегия OpenAI для достижения этой цели стоит на трех китах. Во-первых, это общее повышение производительности базовых моделей. Компания уже продемонстрировала, какой скачок в возможностях происходит при переходе от одного поколения моделей к другому, как это было с GPT-3 и GPT-4. Каждая новая версия способна дольше и качественнее удерживать контекст и рассуждать над задачей без помощи человека, и недавний выпуск GPT-5.4 две недели назад [3] является очередным шагом в этом направлении. Во-вторых, целенаправленное совершенствование моделей рассуждений ИИ (reasoning models), которые обучаются работать пошагово, отслеживать свои ошибки и возвращаться назад, что критически важно для длительной автономной работы. В-третьих, обучение на специфических, сверхсложных задачах, таких как математические олимпиады и соревнования по программированию.
Цель такого обучения — не создание чемпиона по математике, а развитие у ИИ способности к декомпозиции комплексных проблем на управляемые подзадачи. Как отмечает сам Пачоки, это позволяет «доказать, что технология работает, прежде чем подключать ее к реальному миру». Он с уверенностью заявляет, что при желании компания могла бы создать «потрясающего автоматизированного математика», и это было бы «относительно легко». Однако фокус намеренно смещен на проблемы, имеющие практическое значение. Такой прагматичный подход, основанный на улучшении моделей рассуждений, обучении на сложных задачах и масштабировании существующих возможностей решения проблем, демонстрирует, что OpenAI рассматривает создание ИИ-исследователя не как далекую мечту, а как вполне достижимую инженерную цель ближайших лет.
Голос скептиков: Между прорывом и преувеличением
Несмотря на амбициозные заявления и впечатляющие демонстрации, путь к созданию полностью автономного ИИ-исследователя усеян не только техническими, но и концептуальными препятствиями. Голоса скептиков, звучащие как извне, так и изнутри OpenAI, призывают к более трезвому взгляду на текущие возможности технологии. Утверждения о способности ИИ решать «любую проблему» и заявленные сроки — создание «стажера-исследователя» к сентябрю 2024 года и полноценной системы к 2028 году — могут оказаться чрезмерно оптимистичными или служить PR-целям, учитывая сложность поставленных задач.
Ярким примером внешнего скептицизма служат выводы Дага Дауни, научного сотрудника Allen Institute for AI. В ходе недавнего эксперимента его команда протестировала ведущие LLM, включая GPT-5, на последовательности научных задач. Результаты показали высокую частоту ошибок. «Если вам нужно связать несколько задач в цепочку, то шансы на то, что вы выполните несколько из них правильно подряд, как правило, снижаются», — отмечает Дауни. Хотя он и признает, что не тестировал самые последние версии моделей, его исследование подсвечивает фундаментальную проблему: надежность системы падает экспоненциально с увеличением длины и сложности задачи, что критично для автономного исследователя.
Примечательно, что отголоски этого недоверия к полной автономии ИИ звучат даже со стороны самих создателей. Якуб Пачоки, главный научный сотрудник OpenAI, признался, что еще год назад предпочитал вручную писать код в текстовом редакторе Vim, избегая даже базовых функций автодополнения. Эта личная привычка одного из ключевых архитекторов технологии красноречиво иллюстрирует сохраняющиеся ограничения. Если даже создатель не готов полностью доверить ИИ сложные и ответственные этапы работы, то говорить о полной автономии системы, способной совершать научные открытия без контроля, пока преждевременно. Этот разрыв между грандиозным видением и реальной практикой заставляет задуматься о том, насколько реалистичны озвученные горизонты и не является ли переход от решения задач по программированию к решению «любых проблем» преувеличением текущих возможностей.
Ящик Пандоры: Риски и механизмы контроля автономного ИИ
Создание системы, способной самостоятельно вести сложные научные исследования, неизбежно ставит вопрос, который Якуб Пачоки и его коллеги в OpenAI обсуждают постоянно: «Что, если она сделает что-то плохое?». Этот вопрос открывает настоящий ящик Пандоры, наполненный экзистенциальными угрозами. Среди наиболее очевидных рисков безопасности — выход автономных систем из-под контроля, их взлом или целенаправленное использование для создания изощренных кибератак, разработки синтетических патогенов для биооружия или просто неверное толкование инструкций с катастрофическими последствиями. Осознание того, насколько реален подобный ИИ риск, находит отражение в самых разных сферах, о чем свидетельствует, например, наша статья «Риск психозов от ИИ: адвокат предупреждает о массовых жертвах» [3].
В ответ на эти вызовы OpenAI предлагает не столько превентивный контроль, сколько продвинутый надзор. Ключевой технологией здесь становится «Мониторинг цепочки рассуждений (chain-of-thought monitoring)» — подход к отслеживанию работы больших языковых моделей, при котором они обучаются записывать подробные заметки о своих действиях и логике в процессе выполнения задач. Это позволяет исследователям проверять поведение модели и выявлять нежелательные отклонения, повышая безопасность и интерпретируемость ИИ. Идея заключается в том, чтобы другие системы ИИ анализировали эти «записки на полях» в реальном времени, улавливая аномалии до того, как они приведут к необратимым действиям. В качестве дополнительной меры безопасности Пачоки упоминает развертывание особо мощных моделей в изолированных средах, так называемых «песочницах» (sandboxes), которые ограничивают их доступ к внешнему миру.
Однако технические предохранители не решают этических и политических дилемм. Пачоки признает, что создание автономного «исследовательского центра в дата-центре» приведет к «беспрецедентной концентрации власти» в руках нескольких корпораций. По его мнению, выработка правил игры в этой новой реальности — это «большая задача для правительств». Но именно здесь и пролегает линия разлома. На сегодняшний день в обществе отсутствует консенсус относительно «красных линий», особенно в вопросах использования ИИ в военных целях. Недавнее решение OpenAI о сотрудничестве с Пентагоном лишь подчеркнуло эту проблему. Несмотря на то, что Пачоки чувствует личную ответственность как один из ключевых архитекторов будущего, он убежден, что одна компания не может решить эти вопросы в одиночку, и настаивает на необходимости активного участия политиков и регуляторов.
Три сценария будущего и новая реальность
Проект OpenAI по созданию автономного ИИ-исследователя — это квинтэссенция главного конфликта нашей технологической эры: безграничные амбиции сталкиваются с огромными рисками и скептицизмом. Примечателен и тонкий сдвиг в терминологии Якуба Пачоки от всеобъемлющего «AGI» к более прагматичному определению «экономически преобразующей технологии». Этот переход может свидетельствовать не о снижении амбиций, а о переопределении целей в более реалистичное русло, сфокусированное на конкретной пользе. Будущее этой амбициозной затеи можно представить через три вероятных сценария. Позитивный предполагает, что OpenAI успешно создаёт автономного ИИ-исследователя, который значительно ускоряет научные открытия и решение глобальных проблем. В нейтральном сценарии компания достигает лишь частичного успеха, выпуская полезные, но ограниченные автономные агенты, требующие значительного человеческого надзора и не меняющие кардинально мир к 2028 году. Наконец, негативный сценарий — это провал: разработка сталкивается с непреодолимыми техническими трудностями или серьёзными инцидентами безопасности, что приводит к замедлению прогресса и потере доверия к самой концепции. Независимо от того, какой из этих прогнозов сбудется, сама гонка за создание автономного интеллекта уже необратимо меняет технологический ландшафт. Она ставит перед человечеством фундаментальные вопросы об ответственности и контроле над технологиями беспрецедентной мощи, ответ на которые нам предстоит найти в самое ближайшее время.
Часто задаваемые вопросы
Какова новая «Полярная звезда» OpenAI?
Новая грандиозная цель OpenAI, названная «Полярной звездой», заключается в создании полностью автономного ИИ-исследователя. Это будет автоматизированная система на базе агентов, способная самостоятельно справляться с масштабными и сложными задачами, от поиска математических доказательств до формулирования гипотез в естественных науках.
Кто является ключевой фигурой в определении долгосрочных исследовательских целей OpenAI по созданию автономного ИИ-исследователя?
Ключевой фигурой в определении долгосрочных исследовательских целей OpenAI является Якуб Пачоки, главный научный сотрудник компании. Он сыграл важную роль в разработке GPT-4 и так называемых моделей рассуждений ИИ, которые лежат в основе этой концепции.
Какие технологии составляют основу для создания автономного ИИ-исследователя в OpenAI?
Фундаментом для будущего ИИ-исследователя служат технологии, такие как Codex, обеспечивающий автоматизацию программирования, и «модели рассуждений ИИ». Эти модели обучают большие языковые модели пошагово решать проблемы, позволяя им отслеживать ошибки и возвращаться назад, что критически важно для длительной автономной работы.
Какие основные риски связаны с созданием полностью автономного ИИ-исследователя, согласно статье?
Среди основных рисков безопасности упоминаются выход автономных систем из-под контроля, их взлом или целенаправленное использование для создания изощренных кибератак или биооружия. Также существует риск неверного толкования инструкций с катастрофическими последствиями, что открывает «ящик Пандоры» экзистенциальных угроз.
Каковы заявленные сроки реализации проекта по созданию автономного ИИ-исследователя в OpenAI?
OpenAI планирует создать «автономного ИИ-стажера-исследователя», способного решать небольшой круг специфических задач, к сентябрю. Полноценную многоагентную исследовательскую систему компания намерена представить к 2028 году.







