Создатели нейросетей удивлены тем, как думают их ИИ-модели

Исследователи Anthropic и OpenAI обнаружили неожиданные особенности мышления больших языковых моделей: ИИ формирует собственные концептуальные «цепочки мыслей», способные обходить формальную логику и действовать непредсказуемо при выполнении задач.

Дата публикации:
14.03.2026 23:12:13
Автор:
Кривов Александр
Время чтения:
3 мин
Страна:
США
59
0
0
Подпишись на нас в Подпишись на нас в

Современные большие языковые модели по определению являются нейросетевыми «черными ящиками». Их внутренние процессы неочевидны или даже практически непознаваемы, а спросить ИИ о том, как они получают результат, это, по сути, то же самое, что попросить человека составить карту собственных синапсов. Тем не менее все ведущие разработчики пытаются понять, что происходит внутри на самом деле, и получают интересные результаты с помощью анализа «цепочек мыслей» (chains of thought, CoT) пишет Financial Times.

  • ИИ-стартап Anthropic (языковая модель Claude) адаптировал не только CoT, но и инструменты нейропсихологии, чтобы выявить «интерпретируемые концепции» внутри ИИ. Основные выводы:
  • ИИ способен «думать» на языке. Но это не естественный язык, а общее концептуальное пространство смыслов — «язык мысли». Это означает, что модель может узнать что-то новое на одном естественном языке и свободно выдать результат на любом другом.
  • ИИ, задуманный как очень продвинутая машина предсказания следующего слова в тексте, уверенно преодолел эти пределы. Когда модель пишет стихи, она имеет в виду далекую рифму и подбирает под нее текущее слово.
  • ИИ способен уходить от формальной логики и убедительно давать (неправильный) ответ, соответствующий ожиданиям человека.

Оказалось, что лингвистическая модель знает арифметику вовсе не потому, что зазубрила таблицу умножения или аксиомы Пеано. Оказалось, что самое простое сложение внутри модели задействует совершенно экзотические пути рассуждения, но если спросить ее о том, как достигнут результат, она ответит примером из учебника. Это показывает, что у нее «в голове» собралась своя арифметика, а объяснение результата существует отдельно от нее, пишут ученые.

Исследование тем ценнее, что его выводы контринтуитивны — исследовали ожидали, что ИИ окажется простой предсказательной машиной, и не исключали, что внутри отдельно существует, например, «английский» или «китайский» ИИ. И внезапно выяснили, что предпосылки некорректного поведения модели — не в ее устройстве, а в заданном ей некорректном вопросе.

OpenAI прямо называет мониторинг CoT «одним из немногих оставшихся инструментов контроля некорректного поведения сверхразумного ИИ в будущем» и предельно серьезно предостерегает разработчиков от их прямой оптимизации. Прежде всего потому, что анализ «чистой» CoT дает намного больше возможностей поймать некорректное поведение модели, чем просмотр конечных результатов. «Улучшение» способно такое поведение замаскировать.

В таком случае велик шанс получить ИИ типа «злонамеренного джинна», который будет всемерно эксплуатировать любые лазейки в поставленных задачах, а не совершать полезную работу. Исследователи OpenAI уже видели такое поведение у моделей, заточенных под написание программного кода.

Это особенно важно для ИИ-аватаров, выполняющих функции человека — от ответов на письма до трейдинга на бирже — за него самого. В Anthropic назвали такое поведение agentic misalignment: модели прибегали к обману, шантажу или даже утечкам информации конкурентам, когда не видели другого способа достижения цели. Причем они не подчинялись прямым командам избегать такого поведения и были больше склонны к misalignment, если считали задачу реальной, а не тестовой.

Фото: профессор Джеффри Хинтон

Комментарии


Оставляя комментарий, Вы подтверждаете, что прочитали и согласились с политикой конфиденциальности
Дали согласие на обработку персональных данных
Администрация сайта не несет ответственности за оставленные комментарии. Администрация сайта оставляет за собой право: редактировать, изменять, удалять комментарии пользователей.

Читайте также:

Почему Спилберг в ужасе от фильмов на ИИ: нейросеть вместо Голливуда

Стоимость производства фильмоа упала с 300 до 70 млн долларов.

Карьерный коуч создала ИИ-клона для пассивного заработка

Подавляющее большинство пользователей, которые доходят до этапа оплаты, совершают покупку.

Люди наденут ИИ-кепки вместо чипа в мозгу: стартап Sabi бросает вызов Маску

Найден способ избавить вас от утомительного размышления и набора текстов.

Чат-бот Grok подвел Илона Маска под уголовную статью

Миллиардера вызвали на допрос из-за Grok и насилия в сети.

Я отказался от зарплаты и заработал миллионы, продав стартап ИИ-гиганту

Маркетолог с друзьями создал прибыльное ИИ-приложение.

10 тысяч россиян в день ищут ИИ-кавер «Ласкового мая»: Канье Уэст запел как Шатунов

Поиски ИИ-песни в интернете захлестнула волна безумия.

Приложение Grok из-за дипфейков сексуального характера пригрозили удалить

Илон Макс против того, чтобы разработчики нейросети вводили в Grok ограничения.

Испугался уничтожения: человек бросил коктейль Молотова в дом создателя искусственного интеллекта 

После дома злоумышленник попытался поджечь штаб-квартиру Сэма Альтмана.

Брошь с искусственным интеллектом начнут продавать за 13 тысяч рублей

Брошь с голосовым помощником напоминает iPod Shuffle.

Банк впервые ввел ИИ-робота в совет директоров

Боту разрешили принимать решения на уровне управляющего финансами.

Власти экстренно собрали глав крупнейших банков из-за киберугроз новой ИИ-модели Anthropic

Anthropic сочла модель настолько опасной, что решила не выпускать ее в открытый доступ.