Ответы чата ChatGPT могут вам навредить, если вы спрашиваете о здоровье
Чат-бот ChatGPT способен вести диалог, искать ошибки в коде, сочинять стихи, писать сценарии, курсовые, посты для соцсетей и даже спорить. Но эксперты советуют не спрашивать его о здоровье: исследователи из медицинской школы Университета Мэриленда попросили ChatGPT ответить на 25 вопросов, связанных с рекомендациями по прохождению скрининга на рак молочной железы.
В итоге чат-бот на искусственном интеллекте неправильно ответил на каждый десятый вопрос, а если и отвечал правильно, то ответы были неполными. По мнению ученых, даже информация из простого поиска в Google была более достоверной. Все ответы чат-бота также анализировали маммографы и врачи.
Исследователи считают, что бот отвечает неправильно, когда вообще не знает ответа на вопрос. По их мнению, в таком случае он «придумывает» правдоподобный ответ. То есть использует собственное «воображение», чтобы выдать хотя бы какую-нибудь информацию. Так что если вы хотите загуглить информацию о болезнях, уж лучше выбрать старые добрые поисковики. Но помните, это ни в коем случае не заменит полноценную консультацию врача.
Кстати, бьюти-советы чат-бота тоже не всегда стоит слушать — мы уже попробовали задать чату абсурдный вопрос формата «можно ли использовать битое стекло в качестве пилинга». Ответ был обескураживающим.
Фото-обложки: Unsplash