Как умные роботы влияют на наше отношение к другим людям

Мы живем в эпоху, когда технологии ежедневно стирают границы между человеком и машиной. Виртуальные ассистенты ведут с нами беседы, социальные роботы утешают пациентов в больницах, а большие языковые модели способны поддерживать диалог, который порой не отличить от человеческого. Разработчики прилагают огромные усилия, чтобы наделить машины эмоциональным интеллектом — способностью распознавать и адекватно реагировать на наши чувства. Это делает взаимодействие с ними более приятным и продуктивным. Но что происходит с нашим восприятием других людей, когда мы начинаем общаться с такими «чувствующими» механизмами? Недавние психологические исследования揭示ли удивительный и несколько тревожный побочный эффект этого процесса.

 

Как взаимодействие с «чувствующими» машинами меняет наше отношение к людям

Психологи давно установили, что наше отношение к другим напрямую зависит от того, какими ментальными способностями мы их наделяем: умением мыслить, планировать и, что особенно важно, чувствовать. Именно способность к эмпатии и переживаниям считается центральным элементом человеческой натуры.

Исследователи выдвинули теорию: когда человек сталкивается с искусственным интеллектом, демонстрирующим человекоподобные эмоции, он подсознательно начинает сближать его с категорией «люди». А поскольку машины все еще воспринимаются как создания с менее развитым сознанием, это ментальное «смешение» может привести к снижению оценки человечности настоящих людей. Этот феномен получил название ассимиляционно-индуцированная дегуманизация.Человекоподобный умный робот

Чтобы проверить эту гипотезу, был проведен первый из серии экспериментов. Участникам, разделенным на две группы, показывали видео с человекоподобным роботом.

  • Первая группа наблюдала, как робот энергично танцует под музыку — это экспрессивное, гедонистическое действие;
  • Вторая группа смотрела, как тот же самый робот выполняет элементы паркура — более механическую и утилитарную задачу.

После просмотра всем участникам предложили оценить три сценария, описывающих потенциальное ухудшение условий труда для сотрудников некой компании. Среди предложений были замена горячих обедов на питательные коктейли, размещение в крошечных комнатах-капсулах и обязательное ношение трекеров для отслеживания каждого шага. Результаты оказались поразительными. Те, кто видел танцующего робота, сочли его более «одушевленным».

Именно эти участники с большей вероятностью поддерживали жесткие и обесчеловечивающие рабочие практики, словно их восприятие того, что приемлемо для человека, несколько притупилось.

 

Где проходит грань между восхищением технологией и ее влиянием

Возникает логичный вопрос: существует ли предел этому эффекту? Что если возможности машины настолько превосходят человеческие, что мы перестаем их сравнивать? Второй эксперимент был посвящен именно этому. В нем снова использовались видео с танцующим и паркурящим роботом, но с одним дополнением. Части участников сообщили, что возможности андроида умеренные, а другой части — что они экстремальные.

Например, говорилось, что у него есть инфракрасное, ультрафиолетовое и даже рентгеновское зрение. После этого люди заполняли шкалу для измерения уровня дегуманизации, которая оценивает, насколько другие воспринимаются холодными и механистичными.

Исследование показало, что когда способности робота были сопоставимы с человеческими, результаты первого опыта подтвердились: вид эмоционального, танцующего робота приводил к большему обесчеловечиванию людей. Однако, когда робот обладал сверхспособностями, эффект обернулся вспять. В этом случае участники, наоборот, начинали воспринимать людей как более человечных. Это говорит о том, что когда машина находится в очевидно другой категории, мы используем ее для контраста, подчеркивая собственную уникальность. Но когда грань размыта, происходит ассимиляция.

Этот вывод показывает, насколько тонкими могут быть психологические механизмы. Мы не просто оцениваем технологию; мы бессознательно используем ее как новый стандарт для оценки самих себя и окружающих. И малейшие изменения в представлении этой технологии могут кардинально менять наше социальное поведение.

 

Что именно в ИИ заставляет нас видеть в людях меньше человеческого

Является ли причиной любой продвинутый навык, демонстрируемый машиной, или дело именно в эмоциональной составляющей? Третье исследование было призвано дать ответ на этот вопрос. В нем приняли участие более 600 человек, которых разделили на три группы. Каждой группе рассказали о вымышленном сервисе на базе искусственного интеллекта.

  1. Первая группа читала о программе «EmpathicMind» — виртуальном терапевте, способном реагировать на тончайшие эмоции пользователя;
  2. Вторая группа знакомилась с «InsightMind» — мощной системой для медицинской диагностики, обладающей когнитивными способностями для анализа сложных данных;
  3. Третья, контрольная группа, читала об обыкновенной программе для анализа опросов.

Итоги подтвердили первоначальную догадку. Только «EmpathicMind», программа с выраженными эмоциональными навыками, вызывала у участников рост показателей дегуманизации. Высокоинтеллектуальный, но лишенный эмпатии «InsightMind» не производил такого эффекта по сравнению с контрольной группой.

Это убедительно демонстрирует: спусковым крючком для процесса ассимиляции является именно восприятие способности чувствовать, а не просто способности анализировать и мыслить. Кажется, именно вторжение машин на территорию, которую мы привыкли считать сугубо человеческой — территорию чувств и переживаний, — и запускает этот странный психологический сдвиг.

 

Психологический эффект и его проявление в реальных решениях

Чтобы доказать, что это не просто абстрактные оценки на бумаге, а явление, влияющее на реальное поведение, были проведены еще два исследования. В одном из них участники сначала читали статью, представляющую ИИ либо как технологию с выдающимися эмоциональными способностями, либо как имеющую в этой области серьезные ограничения. Затем их просили оценить «человечность» как самого ИИ, так и обычного человека.

В финале им предлагали выбрать подарочную карту на 25 долларов: от одной известной компании или от другой. Перед выбором участники читали новостную статью о том, что первая компания известна своими обесчеловечивающими условиями труда. Расчет был на то, что люди, подвергшиеся эффекту дегуманизации, будут менее обеспокоены этой информацией.

Именно так и произошло. Участники, которым рассказали об эмоционально развитом ИИ, не только оценили саму технологию как более человечную, но и, что критически важно, оценили реальных людей как менее человечных. Это напрямую отразилось на их выборе: они значительно чаще выбирали подарочную карту компании с плохой репутацией, демонстрируя меньшую обеспокоенность судьбой ее сотрудников.

Заключительный эксперимент перенес ситуацию в контекст клиентского сервиса. Участникам рассказали о новом виртуальном помощнике компании. Одной группе ассистент был описан как обладающий высокими социально-эмоциональными навыками, способный подстраивать свой тон под настроение клиента. Другой группе его возможности были описаны как чисто функциональные. Затем люди оценивали человечность помощника и живого оператора.

В качестве поведенческой меры им предложили пожертвовать небольшой денежный бонус в фонд поддержки психического здоровья этих самых живых операторов. Результат был предсказуем: те, кто читал об «эмпатичном» ассистенте, ниже оценивали человечность оператора и, как следствие, реже жертвовали деньги на его поддержку.

 

Будущее технологий и сохранение человеческих ценностей

Что же все это значит? Неужели развитие эмоционального ИИ неизбежно ведет к нашей нравственной деградации? Авторы исследования подчеркивают: проблема не в самой технологии. Искусственный интеллект не является по своей природе чем-то вредным для качества нашего социального взаимодействия. Проблема возникает тогда, когда мы бессознательно начинаем судить и сравнивать людей и машины по одной и той же шкале «человечности». Намеренное создание человекоподобных систем может помочь потребителям быстрее их принять, но мы должны помнить о непредвиденных последствиях.

В будущем ученые планируют изучить, как на этот эффект влияет физический облик роботов и как взаимодействие с эмоциональным ИИ сказывается не только на восприятии других, но и на самооценке. Возможно, в присутствии таких машин люди начнут либо терпимее относиться к менее гуманному обращению с собой, либо, наоборот, будут еще сильнее утверждать собственную человечность.

Главная цель таких исследований — внести вклад в ответственное проектирование и внедрение технологий, чтобы они не разрушали, а обогащали наши социальные связи и ценности.

В конечном счете, чем больше мы воспринимаем социальные и эмоциональные способности в алгоритмах, тем выше риск начать видеть в реальных людях подобие машин — менее заслуживающих заботы и уважения.

По мере того как потребители все чаще сталкиваются с ИИ в сферах обслуживания, нам всем стоит помнить, что этот тонкий психологический сдвиг может сделать нас более склонными к черствости и безразличию, причем совершенно незаметно для нас самих. Сохранение гуманности в эпоху умных машин — это задача, которая требует не только технологических, но и глубоких человеческих усилий.

Добавить комментарий: