Искусственный интеллект Google дает советы по лечению без предупреждений

Искусственный интеллект Google дает советы по лечению без предупреждений

Google ставит пользователей под угрозу, преуменьшая значение предупреждений о безопасности в своих медицинских советах, сгенерированных искусственным интеллектом. Когда система отвечает на запросы по таким чувствительным темам, как здоровье, компания утверждает, что ее ИИ-обзоры побуждают пользователей обращаться за профессиональной помощью, а не полагаться исключительно на краткие сводки. Однако на практике выяснилось, что при первом показе медицинской информации никаких подобных отказов от ответственности пользователю не демонстрируется.

Компания Google выдает предупреждение только в том случае, если пользователь решит запросить дополнительную информацию и нажмет кнопку «Показать больше». Как отмечает издание The Guardian, даже в этой ситуации метки безопасности появляются ниже всех дополнительных медицинских советов и написаны более мелким и светлым шрифтом. В тексте уведомления говорится: «Это только для информационных целей. За медицинской консультацией или диагнозом обращайтесь к профессионалу. Ответы ИИ могут содержать ошибки».

Представители корпорации не стали отрицать, что дисклеймеры отсутствуют при первоначальной выдаче медицинских советов или что они расположены внизу мелким шрифтом. Пресс-секретарь заявил, что обзоры ИИ «побуждают людей обращаться за профессиональной медицинской помощью» и часто упоминают о необходимости визита к врачу непосредственно в самом тексте резюме, «когда это уместно».

Эксперты обсуждают опасность нейросети

Специалисты по искусственному интеллекту и защитники прав пациентов выразили серьезную обеспокоенность сложившейся ситуацией. Пэт Патаранутапорн, исследователь из Массачусетского технологического института, отметил, что отсутствие предупреждений создает критические опасности. Он подчеркнул: «Во-первых, даже самые продвинутые модели ИИ сегодня все еще галлюцинируют дезинформацией или демонстрируют сикофантское поведение, ставя удовлетворение пользователя выше точности. В контексте здравоохранения это может быть по-настоящему опасно».

По мнению эксперта, проблема заключается не только в ограничениях технологий, но и в человеческом факторе. Пользователи могут не предоставить весь необходимый контекст или задать неверные вопросы, ошибочно оценив свои симптомы. Предупреждения служат важным моментом вмешательства, который нарушает автоматическое доверие и побуждает людей критически относиться к полученной информации.

Исследователи ищут решение проблемы

Джина Нефф, профессор из Лондонского университета королевы Марии, считает, что проблема заложена в самом дизайне системы. Она заявила: «Обзоры ИИ разработаны для скорости, а не для точности, и это приводит к ошибкам в медицинской информации, что может быть опасно». Ранее расследования уже показывали, что люди подвергались риску из-за ложных и вводящих в заблуждение сведений о здоровье в ответах Google.

Сонали Шарма, исследователь из Стэнфордского университета, добавила, что обзоры появляются в самом верху страницы поиска и часто выглядят как полный ответ. Это создает у людей ложное чувство успокоения и отбивает желание искать дальше или разворачивать полный текст, где может находиться предупреждение. Она отметила: «Что, по моему мнению, может привести к реальному вреду, так это то, что обзоры ИИ часто могут содержать частично правильную и частично неправильную информацию».

Том Бишоп, руководитель отдела информации для пациентов в благотворительной организации по борьбе с раком крови, призвал к срочным действиям. Он настаивает на том, что предупреждение должно быть намного заметнее, в идеале — находиться в самом верху и быть набранным тем же шрифтом, что и основной текст. Это необходимо, чтобы заставить людей задуматься и проверить данные у врачей, а не принимать их за чистую монету.


Подписывайтесь на Science XXI в Дзен и Telegram.

Поделиться с друзьями
Science XXI