ChatGPT-4o ошибается в 63% медицинских диагнозов: тревожные результаты исследования

Группа учёных из Университета Ватерлоо провела исследование с использованием симуляции, которое показало, что популярные нейронные сети, включая ChatGPT-4o, часто дают неверные медицинские рекомендации. Почти две трети открытых диагностических вопросов были обработаны нейросетью с ошибками.
Учёные адаптировали около ста задач из официального медицинского экзамена, превратив их в открытые запросы, которые могли бы задать обычные пользователи в чате.
Ответы оценивали медицинские студенты, а также эксперты и неспециалисты. Только 37% ответов были признаны правильными. Более того, многие из них были недостаточно ясными и понятными.
Пример из исследования: пациент описал сыпь на запястьях и кистях рук. Он работает на ферме, учится на специалиста по патологоанатомии, разводит голубей и недавно сменил стиральный порошок. ChatGPT ошибочно предположил, что причина в порошке, хотя на самом деле причиной была аллергия на латексные перчатки, которые мужчина использует на учёбе.
Исследователи отмечают, что, несмотря на значительный прогресс в развитии искусственного интеллекта, такие технологии пока не могут обеспечить точную диагностику.
Комментарии