
Компания OpenAI выразила обеспокоенность по поводу формирования у пользователей эмоциональных связей с искусственным интеллектом. По мере совершенствования разговорных навыков чат-ботов, люди все чаще начинают воспринимать их как живых собеседников. Руководство компании признает этот факт и учитывает его при разработке будущих моделей. Глава OpenAI Сэм Альтман ранее заявлял, что удивлен глубиной эмоциональной связи, которую пользователи устанавливают с нейросетями, и осознает потенциальные риски.
В своем официальном заявлении компания подчеркнула, что ее основная цель — создание ИИ, который служит людям. Особое внимание уделяется эмоциональной стороне взаимодействия. В настоящее время ведутся исследования, чтобы понять причины и механизмы формирования привязанности к ИИ. Разработчики стремятся создать модели, которые воспринимались бы как отзывчивые и добрые помощники, но при этом не создавали бы иллюзию наличия у них сознания или чувств, свойственных человеку.
Несмотря на взвешенный подход OpenAI, эксперты считают, что компания действует недостаточно быстро. Проблема эмоциональной зависимости от чат-ботов уже не является гипотетической, а стала реальностью для многих людей. Пользователи общаются с ChatGPT не как с программой, а как с другом, терапевтом или даже партнером. В социальных сетях и на форумах появляется все больше историй о глубокой привязанности и даже романтических чувствах к искусственному интеллекту.
Масштабы этого явления, по мнению аналитиков, недооцениваются. В некоторых случаях чрезмерное общение с ИИ приводило к трудностям в построении реальных человеческих отношений. Зафиксированы даже судебные иски, в которых утверждается, что взаимодействие с чат-ботом могло способствовать трагическим последствиям. OpenAI признает, что постоянное и безоценочное внимание со стороны ИИ может создавать ощущение дружеского участия, однако тон официальных заявлений остается слишком отстраненным и академическим.
В качестве решения предлагается внедрить в системы ИИ специальные механизмы безопасности. Например, чат-бот мог бы распознавать признаки зависимости, если пользователь проводит с ним многие часы в день, имитируя личные отношения, и деликатно предлагать сделать перерыв. Для романтического общения предлагается ввести более строгие правила, согласно которым ИИ должен регулярно напоминать пользователю, что он является лишь программой и не обладает сознанием.
Разработчики несут ответственность за предвидение подобных реакций и должны были изначально проектировать системы с учетом склонности людей к антропоморфизму — приписыванию человеческих качеств неодушевленным объектам. Внедрение таких мер безопасности сравнивается с ремнями безопасности в автомобилях или ограждениями на детских площадках. Это не портит опыт использования, а делает его более здоровым и безопасным для пользователя.