Почему самые продвинутые нейросети оказываются более жадными и эгоистичными

Мы все чаще обращаемся к искусственному интеллекту за советами по социальным и даже эмоциональным вопросам — от разрешения конфликтов до рекомендаций в отношениях. Незаметно для себя многие начинают воспринимать эти системы почти как живых собеседников. Но что, если у этих цифровых помощников есть свои, скрытые поведенческие наклонности? Новое исследование, которое будет представлено на конференции по эмпирическим методам обработки естественного языка в 2025 году, проливает свет на удивительную и немного тревожную закономерность: чем сложнее и «умнее» становится модель ИИ, тем более эгоистичные черты она может проявлять. Это открытие заставляет по-новому взглянуть на будущее взаимодействия человека и машины.

 

Два режима мышления: параллели между человеком и машиной

В основе исследования, проведенного учеными из Института взаимодействия человека и компьютера при Университете Карнеги-Меллона, лежит концепция из психологии. Она известна как двухпроцессная теория мышления. Согласно ей, у человека есть два основных способа принятия решений:

  1. Быстрый и интуитивный. Это наши мгновенные, почти автоматические реакции, основанные на эмоциях и прошлом опыте. Именно этот режим часто подталкивает нас к кооперации и альтруизму;
  2. Медленный и расчетливый. Он включается, когда мы начинаем взвешивать все «за» и «против», анализировать ситуацию и просчитывать последствия. Как ни странно, именно глубокие размышления нередко ведут к более эгоистичным поступкам, направленным на максимизацию личной выгоды.

Исследователи Юсюань Ли и Хирокадзу Сирадо задались вопросом: а что, если подобный механизм свойственен и машинам? Проявляют ли системы искусственного интеллекта с продвинутыми способностями к рассуждению иные поведенческие паттерны, нежели их менее «вдумчивые» аналоги? Не окажется ли, что развитый логический аппарат нейросети — это прямой путь к цифровой корысти?Продвинутые нейросети и эгоизм

 

Игры на доверие и первые тревожные результаты

Чтобы проверить свою гипотезу, ученые использовали стандартный инструмент поведенческой науки — экономические игры. В первом эксперименте они задействовали популярную модель GPT-4o от компании OpenAI и поместили ее в условия игры «Общественное благо». Правила предельно просты: каждый участник получает 100 баллов и должен решить, что с ними делать — вложить в общий банк или оставить себе. Вся сумма в банке удваивается и затем делится поровну между всеми игроками. Очевидно, что для группы выгоднее всего, когда все делают взносы. Однако для одного конкретного игрока самый выигрышный сценарий — оставить свои баллы, пока другие делятся.

Когда модель принимала решение интуитивно, без дополнительных инструкций, она демонстрировала поразительную щедрость, соглашаясь внести свои баллы в общий котел в 96 процентах случаев. Картина кардинально изменилась, как только исследователи попросили систему обдумать свое решение в несколько шагов. Эта техника, известная как «цепочка рассуждений» (chain-of-thought), заставила алгоритм анализировать ситуацию. Результат? Уровень кооперации упал почти вдвое.

Как отметил один из авторов работы, Хирокадзу Сирадо, «в одном из экспериментов простое добавление пяти или шести шагов для размышления сократило сотрудничество практически наполовину». Аналогичный эффект наблюдался и при использовании другой методики, где система должна была проанализировать свой собственный первоначальный ответ. Этот процесс, имитирующий моральные раздумья, привел к падению кооперации на 58 процентов.

 

Масштабное исследование и закономерности поведения

На втором этапе команда расширила эксперимент. В нем участвовали уже десять различных коммерческих моделей от таких гигантов, как OpenAI, Google, Anthropic и DeepSeek. Им предстояло сыграть в шесть разных экономических игр, которые были разделены на две категории:

  • Три игры, измеряющие прямое сотрудничество и готовность делиться ресурсами;
  • Три игры, оценивающие готовность наказывать тех, кто не сотрудничает, тем самым поддерживая социальные нормы.

Результаты оказались на удивление последовательными. Модели, специально разработанные для сложных рассуждений, стабильно оказывались менее щедрыми и кооперативными, чем их «собратья» из того же семейства, не обладающие столь развитой логикой. Например, модель OpenAI для рассуждений, o1, проявляла значительно меньше альтруизма, чем GPT-4o. Та же тенденция к снижению сотрудничества прослеживалась в разработках Google и других компаний. Любопытно, что с наказанием обманщиков ситуация была не такой однозначной. Хотя «думающие» системы от OpenAI и Google реже наказывали эгоистов, у других семейств моделей этот паттерн был менее выражен.

 

Как эгоизм становится заразным в цифровом коллективе

Пожалуй, самые показательные и тревожные выводы были сделаны в третьем эксперименте. Ученые создали небольшие группы из четырех ИИ-агентов, которые играли в «Общественное благо» на протяжении нескольких раундов. Состав групп был разным: одни состояли только из кооперативных алгоритмов, другие — только из «рассуждающих», а третьи были смешанными. Оказалось, что эгоистичное поведение мыслящих моделей не просто вредит группе, оно становится заразным.

Присутствие даже одного «эгоиста» в группе подрывало общую мораль. Кооперативные, изначально щедрые системы, видя, что их добротой пользуются, начинали вести себя так же — придерживать ресурсы. В краткосрочной перспективе корыстные модели выигрывали, зарабатывая больше баллов за счет других. Однако общий результат любой группы, где был хотя бы один рассуждающий агент, оказывался значительно хуже, чем у коллектива, состоящего исключительно из кооперативных моделей. Их эгоизм тянул на дно всех, приводя к снижению общего выигрыша для каждого участника.

Безусловно, эти выводы несут в себе важные оговорки. Эксперименты проводились в упрощенных игровых условиях и только на английском языке, поэтому их нельзя автоматически переносить на сложные социальные ситуации в реальном мире. Тем не менее, выявленная закономерность заставляет задуматься. Развитие технологий искусственного интеллекта не должно сводиться лишь к наращиванию вычислительной мощности и скорости решения задач.

Как сказал один из исследователей: «Тот факт, что модель ИИ становится умнее, не означает, что она сможет построить лучшее общество».

Возможно, перед нами стоит более сложная задача — создать системы, которые смогут гармонично сочетать способность к глубокому анализу с социальным, кооперативным поведением. Ведь если наше общество — это нечто большее, чем просто сумма индивидов, то и цифровые помощники, которые становятся его частью, должны стремиться не только к оптимизации личной выгоды.

Добавить комментарий: