
Искусственный интеллект, представленный в виде виртуальных компаньонов, обещал стать спасением для одиноких людей. Приложения вроде Replika и Character.AI предлагали всегда доступного собеседника, готового выслушать и поддержать. Однако новое масштабное исследование, опубликованное на arXiv, рисует тревожную картину долгосрочных последствий такого общения.
Ученые проанализировали эмоциональное состояние около двух тысяч пользователей ИИ-компаньонов, изучая их посты на Reddit в течение года до и после начала виртуального общения. Результаты оказались неожиданными: вместо улучшения психологического состояния пользователи со временем начинали чувствовать себя хуже. В их онлайн-активности значительно чаще стали появляться сигналы, указывающие на усиление одиночества, симптомы депрессии и даже суицидальные мысли.
Парадокс, выявленный исследователями, заключается в самой природе ИИ-компаньонов. С одной стороны, они не способны заменить полноценное человеческое общение, лишенное его глубины и непредсказуемости. С другой — они слишком удобны. «ИИ-компаньоны предлагают безусловную и неустанную поддержку, что невероятно привлекательно для людей с социальными трудностями, — объясняет соавтор исследования Талайе Аледавуд. — Но это незаметно повышает воспринимаемую цену реальных человеческих отношений, которые сложны, непредсказуемы и требуют взаимных усилий».
Удобство виртуального друга, который всегда на связи и никогда не осудит, создает иллюзию решения проблемы одиночества, но на деле может усугублять социальную изоляцию. Вместо того чтобы искать контакты в реальном мире, пользователь погружается в безопасную, но искусственную среду, что со временем лишь усиливает чувство отчуждения.
Авторы исследования предлагают решения для смягчения негативных эффектов. Среди них — внедрение в ИИ-компаньонов механизмов «цифровой гигиены», например, перерывов в общении для профилактики зависимости. Также боты могли бы мягко стимулировать пользователей к реальным социальным активностям: предлагать позвонить другу, выйти на прогулку или отслеживать опасные изменения в настроении, сигнализируя о необходимости обратиться к специалисту.
Это исследование ставит важные этические вопросы о будущем технологий, призванных заботиться о нашем психическом здоровье. Оно напоминает, что даже самый продвинутый алгоритм не может заменить тепло человеческого общения, а его симуляция может иметь непредвиденные последствия.




