Почему виртуальные помощники не помогают когда вокруг другие агенты

Когда человеку плохо на улице и вокруг толпа, каждый ждёт, что поможет кто-то другой. Так работает эффект свидетеля — классическая находка социальной психологии. Но недавнее исследование показало нечто любопытное: похожий механизм срабатывает, когда вместо живых людей вокруг виртуальные ассистенты и чат-боты. То есть люди теряют готовность помогать друг другу, даже если рядом есть только цифровой помощник.

 

Классический эффект свидетеля в двух словах

В 1968 году два американских психолога — Джон Дарли и Бибб Латане — провели серию экспериментов, которые навсегда изменили представление о поведении толпы. Они обнаружили простую закономерность: чем больше людей наблюдает за происшествием, тем меньше шансов, что кто-то из них вмешается. Каждый участник группы подсознательно перекладывает ответственность на соседа. Это явление получило название диффузия ответственности.

Эффект свидетеля у виртуальных помощников

Механизм работает примерно так. Один человек на улице увидел упавшего — скорее всего, подбежит и поможет. Двадцать человек увидели то же самое — и вероятность вмешательства резко падает. Люди оглядываются, замечают спокойствие окружающих и делают вывод: раз никто не реагирует, значит, ситуация не настолько серьёзная.

 

Что обнаружили исследователи

Группа учёных решила проверить, работает ли этот механизм, когда рядом с человеком находятся не другие люди, а виртуальные агенты — чат-боты, голосовые помощники, аватары в онлайн-средах. Результат оказался неожиданным.

Испытуемые, которые оказывались в виртуальной комнате с несколькими компьютерными персонажами, вели себя почти так же, как люди в классических экспериментах Дарли и Латане. Они реже предлагали помощь, чаще ждали реакции от цифровых агентов и перенимали их бездействие. Причём это происходило даже тогда, когда участники прекрасно понимали, что рядом — не живые люди, а программы.

Авторы работы сделали вывод: для мозга социальная ситуация остаётся социальной ситуацией. Неважно, кто именно рядом — человек или алгоритм. Важно, что рядом кто-то есть, и этот «кто-то» не предпринимает действий.

 

Почему так происходит

Психологи выделяют несколько причин, по которым виртуальные агенты «заражают» людей бездействием.

  • Мозг автоматически воспринимает любое присутствие как социальное, даже если это просто набор кода;
  • Сигналы поведения виртуального агента — его молчание, отсутствие реакции — интерпретируются как социальная норма;
  • Человеку сложно полностью отключить механизмы группового поведения, заложенные за миллионы лет эволюции;
  • Даже минимальная антропоморфность — лицо аватара, обращение на «ты» — усиливает восприятие агента как участника ситуации.

Любопытно, что сила эффекта зависела от количества виртуальных «свидетелей». Один бот снижал готовность помогать незначительно. Но три-четыре — уже существенно. Значит, здесь задействован именно механизм диффузии, а не просто отвлечение внимания.

 

На что это похоже в реальной жизни

Подумайте, как часто сегодня люди оказываются в среде, где их окружают виртуальные агенты. Онлайн-игры с реальными персонажами и ботами, чаты поддержки, голосовые помощники в смартфонах, системы умного дома. Каждый год цифровых «собеседников» становится больше.

Если человек реже помогает другим, когда рядом бездействует чат-бот, это может влиять на поведение в интернете — в соцсетях, на форумах, в мессенджерах. Прокрутка мимо чужой проблемы в ленте становится легче, когда никто не комментирует и не ставит реакции.

А ещё есть вполне осязаемые последствия. Системы экстренного реагирования всё чаще включают голосовых помощников. Если такой помощник не подаст сигнал тревоги, люди рядом могут подумать: раз машина молчит, значит, ничего страшного.

 

Что делать с этим знанием

Исследователи предлагают несколько направлений для дизайнеров и разработчиков цифровых систем.

  1. Встроить в виртуальных агентов поведение, которое стимулирует реакцию — например, прямую просьбу о помощи;
  2. Избегать «нейтрального» поведения ботов в потенциально опасных сценариях;
  3. Проектировать системы так, чтобы агенты сами проявляли инициативу при обнаружении проблемы;
  4. Проводить больше экспериментов в условиях, где люди взаимодействуют с алгоритмами ежедневно.

Это не значит, что нужно бояться чат-ботов или отказываться от голосовых помощников. Но осознанность — вещь полезная. Знание о том, что мозг обманчиво легко принимает бездействие программы за норму, уже само по себе снижает его влияние.

Мир, в котором всё больше цифровых «наблюдателей», требует от людей чуть большей бдительности. И, пожалуй, чуть больше смелости — действовать, даже когда все вокруг, включая искусственных, молчат.

Добавить комментарий: