Содержание статьи:
Когда человеку плохо на улице и вокруг толпа, каждый ждёт, что поможет кто-то другой. Так работает эффект свидетеля — классическая находка социальной психологии. Но недавнее исследование показало нечто любопытное: похожий механизм срабатывает, когда вместо живых людей вокруг виртуальные ассистенты и чат-боты. То есть люди теряют готовность помогать друг другу, даже если рядом есть только цифровой помощник.
Классический эффект свидетеля в двух словах
В 1968 году два американских психолога — Джон Дарли и Бибб Латане — провели серию экспериментов, которые навсегда изменили представление о поведении толпы. Они обнаружили простую закономерность: чем больше людей наблюдает за происшествием, тем меньше шансов, что кто-то из них вмешается. Каждый участник группы подсознательно перекладывает ответственность на соседа. Это явление получило название диффузия ответственности.

Механизм работает примерно так. Один человек на улице увидел упавшего — скорее всего, подбежит и поможет. Двадцать человек увидели то же самое — и вероятность вмешательства резко падает. Люди оглядываются, замечают спокойствие окружающих и делают вывод: раз никто не реагирует, значит, ситуация не настолько серьёзная.
Что обнаружили исследователи
Группа учёных решила проверить, работает ли этот механизм, когда рядом с человеком находятся не другие люди, а виртуальные агенты — чат-боты, голосовые помощники, аватары в онлайн-средах. Результат оказался неожиданным.
Испытуемые, которые оказывались в виртуальной комнате с несколькими компьютерными персонажами, вели себя почти так же, как люди в классических экспериментах Дарли и Латане. Они реже предлагали помощь, чаще ждали реакции от цифровых агентов и перенимали их бездействие. Причём это происходило даже тогда, когда участники прекрасно понимали, что рядом — не живые люди, а программы.
Авторы работы сделали вывод: для мозга социальная ситуация остаётся социальной ситуацией. Неважно, кто именно рядом — человек или алгоритм. Важно, что рядом кто-то есть, и этот «кто-то» не предпринимает действий.
Почему так происходит
Психологи выделяют несколько причин, по которым виртуальные агенты «заражают» людей бездействием.
- Мозг автоматически воспринимает любое присутствие как социальное, даже если это просто набор кода;
- Сигналы поведения виртуального агента — его молчание, отсутствие реакции — интерпретируются как социальная норма;
- Человеку сложно полностью отключить механизмы группового поведения, заложенные за миллионы лет эволюции;
- Даже минимальная антропоморфность — лицо аватара, обращение на «ты» — усиливает восприятие агента как участника ситуации.
Любопытно, что сила эффекта зависела от количества виртуальных «свидетелей». Один бот снижал готовность помогать незначительно. Но три-четыре — уже существенно. Значит, здесь задействован именно механизм диффузии, а не просто отвлечение внимания.
На что это похоже в реальной жизни
Подумайте, как часто сегодня люди оказываются в среде, где их окружают виртуальные агенты. Онлайн-игры с реальными персонажами и ботами, чаты поддержки, голосовые помощники в смартфонах, системы умного дома. Каждый год цифровых «собеседников» становится больше.
Если человек реже помогает другим, когда рядом бездействует чат-бот, это может влиять на поведение в интернете — в соцсетях, на форумах, в мессенджерах. Прокрутка мимо чужой проблемы в ленте становится легче, когда никто не комментирует и не ставит реакции.
А ещё есть вполне осязаемые последствия. Системы экстренного реагирования всё чаще включают голосовых помощников. Если такой помощник не подаст сигнал тревоги, люди рядом могут подумать: раз машина молчит, значит, ничего страшного.
Что делать с этим знанием
Исследователи предлагают несколько направлений для дизайнеров и разработчиков цифровых систем.
- Встроить в виртуальных агентов поведение, которое стимулирует реакцию — например, прямую просьбу о помощи;
- Избегать «нейтрального» поведения ботов в потенциально опасных сценариях;
- Проектировать системы так, чтобы агенты сами проявляли инициативу при обнаружении проблемы;
- Проводить больше экспериментов в условиях, где люди взаимодействуют с алгоритмами ежедневно.
Это не значит, что нужно бояться чат-ботов или отказываться от голосовых помощников. Но осознанность — вещь полезная. Знание о том, что мозг обманчиво легко принимает бездействие программы за норму, уже само по себе снижает его влияние.
Мир, в котором всё больше цифровых «наблюдателей», требует от людей чуть большей бдительности. И, пожалуй, чуть больше смелости — действовать, даже когда все вокруг, включая искусственных, молчат.