Чат-боты предпочитают ошибаться, чем признавать незнание

Чат-боты предпочитают ошибаться, чем признавать незнание

Согласно исследованию, опубликованному в журнале Nature, крупные чат-боты на основе искусственного интеллекта стали чаще ошибаться при ответах на сложные вопросы. Ученые обнаружили, что чат-боты фактически разучились отвечать “я не знаю” и вместо этого стали давать неверные ответы.

Исследователи проверили работу трех ведущих семейств языковых моделей, включая GPT от OpenAI, BLOOM и модель от академической группы BigScience. Тестирование показало, что хотя модели стали значительно умнее своих предшественников, они также начали совершать больше ошибок вместо признания незнания ответа.

Авторы исследования полагают, что тенденция “отвечать любой ценой” заложена в модели их создателями. Они также обнаружили, что все модели иногда давали неправильные ответы даже на простые вопросы.

Ученые рекомендуют разработчикам моделей внедрить возможность пропускать вопросы, на которые чат-боты не знают ответа. В противном случае, по их мнению, искусственный интеллект будет вводить пользователей в заблуждение.

Подписывайтесь на Sciencexxi.com в Telegram
Science XXI