Почти половина медицинских ответов нейросетей содержит ошибки
16.04.2026
Почти половина медицинских ответов нейросетей содержит ошибки
Ученый из Калифорнийского университета Николас Тиллер с коллегами из других стран выяснил, насколько опасны медицинские советы нейросетей.
В феврале 2025 года ученые протестировали Gemini, DeepSeek, ChatGPT и Grok. Ботам задавали вопросы о раке, прививках, питании и спорте.
Половина ответов оказалась проблемной, а каждый пятый совет эксперты признали потенциально опасным. ИИ при этом отвечал очень уверенно. Из 250 случаев боты отказались давать рекомендации лишь дважды.
Хуже всех с советами справился Grok.
В целом нейросети неплохо знают теорию про рак и вакцины, но постоянно ошибаются в темах питания и фитнеса. Ученые заметили, что боты часто выдумывают цитаты и дают неверные ссылки.


