Содержание статьи:
В мире, где технологии проникают во все уголки нашей повседневности, искусственный интеллект (ИИ), особенно его разговорные формы, становится всё более распространённым явлением. Многие из нас уже привыкли общаться с чат-ботами, голосовыми помощниками и другими виртуальными собеседниками. Но задумывались ли вы когда-нибудь, как такие взаимодействия могут влиять на наше психологическое состояние? Новое исследование проливает свет на fascinating connection между нашей внутренней тревожностью и тем, как мы используем этих цифровых компаньонов. Оно показывает, что некоторые люди, испытывающие особую тревогу по поводу отношений, могут оказаться более уязвимыми к формированию нездоровых связей с ИИ.
Что же является ключевыми факторами в этом процессе: эмоциональная привязанность к технологии или склонность воспринимать её как одушевлённое существо? Давайте погрузимся в детали этого исследования, опубликованного в журнале «Психология: Исследования и Управление Поведением», и узнаем, какие неожиданные выводы оно предлагает.
Связь тревожности с использованием ИИ
С появлением разговорного искусственного интеллекта, будь то чат-боты или виртуальные ассистенты, мы получили новый способ взаимодействия и, для кого-то, даже обретения виртуального общения. Эти программы, используя естественный язык, способны вести персонализированные диалоги один на один. Во время периодов повышенной социальной изоляции, например, как это было во время пандемии COVID-19, миллионы людей обратились к этим технологиям. Возникает важный вопрос: несёт ли это новшество риски для определённых групп лиц?
Учёные под руководством Шупэна Хэна из Хэнаньского педагогического университета сосредоточили своё внимание на людях с так называемой тревожной привязанностью. Эта черта личности характеризуется постоянным страхом быть отвергнутым или брошенным в отношениях, что приводит к сильной потребности в близости и подтверждении своей значимости. Известно, что люди с высокой тревожной привязанностью уже подвержены повышенному риску развития других форм проблемного использования технологий, таких как зависимость от смартфонов или онлайн-игр. Исследовательская группа решила выяснить, применима ли эта уязвимость к разговорному искусственному интеллекту и каковы задействованные психологические процессы.
Исследование стремилось выявить прямую связь между тревожной привязанностью и проблемным использованием разговорного ИИ – это модель зависимого поведения, которое негативно сказывается на повседневной жизни. Помимо этой прямой связи, учёные изучили ещё два фактора:
- Они исследовали, выступает ли формирование эмоциональной привязанности к искусственному интеллекту в качестве моста между тревогой человека и его проблемным использованием технологии;
- Также они изучали, усиливает ли эти эффекты склонность человека воспринимать ИИ как человекоподобное существо, что называется антропоморфной тенденцией.
как проводился сбор информации и что удалось установить
Для проведения исследования учёные привлекли 504 взрослых китайца, у которых был опыт использования разговорного искусственного интеллекта. Участники были набраны через онлайн-платформу и заполнили ряд опросников, разработанных для измерения четырёх ключевых переменных:
- Один из опросников оценивал уровень их тревожной привязанности, содержащий вопросы, связанные со страхами быть отвергнутым и желанием близости;
- Другой измерял их эмоциональную привязанность к используемому ИИ, спрашивая о силе эмоциональной связи, которую они ощущали;
- Третий опросник оценивал их антропоморфную тенденцию, то есть склонность приписывать человеческие характеристики, эмоции и намерения нечеловеческим объектам. Участники оценивали своё согласие с такими утверждениями, как: «Я думаю, что ИИ жив»;
- Наконец, была использована шкала для измерения проблемного использования разговорного ИИ. Эта шкала включала пункты, описывающие аддиктивное поведение, такое как попытки сократить использование, которые оказывались безуспешными.
Затем учёные применили статистический анализ для изучения взаимосвязей между этими четырьмя измерениями. Результаты, как выяснилось, крайне интересны, не находите ли? Они не только подтвердили некоторые предположения, но и выявили новые, неожиданные аспекты взаимодействия человека с технологиями.
Первоначально результаты показали прямую связь между тревожной привязанностью и проблемным использованием. Лица, набравшие более высокие баллы по тревожной привязанности, также чаще сообщали о наличии навязчивых и нездоровых паттернов взаимодействия с разговорным искусственным интеллектом. Этот вывод подтвердил первоначальную гипотезу исследователей о том, что эта группа особенно уязвима.
более глубокий взгляд на эмоциональную связь
Анализ также выявил более сложный, косвенный путь. Исследование показало, что люди с более высокой тревожной привязанностью чаще формировали прочные эмоциональные связи с разговорным искусственным интеллектом. Эта эмоциональная привязанность сама по себе оказалась сильным предсказателем проблемного использования. Это предполагает, что эмоциональная привязанность служит связующим шагом. Потребность тревожных людей в общении может приводить их к формированию связи с технологией, и именно эта связь отчасти движет проблемным использованием.
Наиболее тонкое открытие касалось роли антропоморфной тенденции. Исследователи обнаружили, что эта черта выступает в качестве модератора, то есть она изменяет силу отношений между тревожной привязанностью и проблемным использованием. Когда участников разделили на группы в зависимости от их склонности рассматривать искусственный интеллект как человекоподобное существо, выявилась чёткая закономерность:
- для людей с низкой антропоморфной тенденцией уровень их тревожной привязанности не был значительно связан с их проблемным использованием технологии;
- для тех, кто имел высокую склонность видеть искусственный интеллект как человекоподобный, тревожная привязанность оказалась мощным предсказателем проблемного использования.
Восприятие технологии как социального партнёра, кажется, делает тревожных людей гораздо более восприимчивыми к развитию нездоровой зависимости. Этот модерирующий эффект также применялся к формированию эмоциональных связей. Тревожные люди развивали эмоциональную привязанность к ИИ независимо от их антропоморфных тенденций. Однако этот эффект был гораздо сильнее у тех, кто имел высокую склонность рассматривать технологию как человекоподобную. Другими словами, высокая тревожная привязанность в сочетании с тенденцией к антропоморфизации создавала самые прочные эмоциональные связи с искусственным интеллектом, что затем увеличивало риск проблемного использования.
Несмотря на значимость полученных результатов, авторы исследования признают некоторые ограничения. Поскольку данные были собраны в один момент времени, они показывают лишь взаимосвязь между этими чертами, но не могут доказать, что тревожная привязанность является причиной проблемного использования. Будущие исследования могли бы отслеживать людей в течение длительного времени, чтобы лучше установить причинно-следственную связь. Ещё одна область для будущих исследований – это дизайн самой технологии. Различные типы разговорного искусственного интеллекта, например, простой чат-бот против виртуального ассистента с человекоподобным аватаром, могут по-разному влиять на пользователей.
практические выводы и рекомендации
Исследователи предполагают, что их выводы имеют практическое значение для разработки таких технологий. Например, разработчики могли бы рассмотреть возможность создания версий с менее человекоподобными функциями для пользователей, которые могут находиться в группе повышенного риска. Они также могли бы встроить в программное обеспечение функции, которые отслеживают чрезмерное использование или предоставляют образовательный контент о здоровом взаимодействии с технологиями. Для людей, определённых как находящиеся в группе высокого риска, исследование предполагает, что меры, направленные на снижение тревожности, такие как практики осознанности, могут помочь снизить их зависимость от этих виртуальных компаньонов. Ведь безопасность и благополучие пользователей должны быть приоритетом в разработке любых инноваций, не так ли?
Таким образом, представленный анализ ясно демонстрирует, что наша внутренняя психологическая предрасположенность, в частности тревожная привязанность, играет значительную роль в формировании отношений с разговорным искусственным интеллектом. Уязвимые личности, склонные к страхам отвержения, могут не только чаще устанавливать эмоциональные связи с ИИ, но и видеть в нём нечто человеческое, усиливая эту связь.
Это, в свою очередь, может привести к формированию проблемного использования, негативно влияющего на повседневную жизнь. Эти открытия имеют огромное значение для разработчиков, которые могут интегрировать меры предосторожности и образовательные функции в свои продукты, а также для специалистов по психическому здоровью, способных предложить поддержку тем, кто сталкивается с подобными трудностями. В конечном итоге, понимание этой динамики позволяет нам создавать более безопасное и здоровое цифровое будущее для всех нас.