group-telegram.com/ai_exee/144
Last Update:
В Microsoft AI поделились первыми тестами Microsoft AI Diagnostic Orchestrator (MAI-DxO) — очень хитрой ИИ-системы для постановки медицинских диагнозов. Суть идеи в том, что создается что-то вроде “консилиума” из ИИ: одна роль отвечает за первичный опрос пациента, вторая ставит предварительные диагнозы, третья критикует вторую, четвертая назначает анализы и так далее. При этом разные роли могут быть назначены разным моделям, то есть ChatGPT o3 может работать в паре с Gemini 2.5 Pro, что повышает гибкость системы.
В отчете есть немного пугающие цифры, на них остановимся отдельно. В тестах Microsoft MAI-DxO смогла установить правильный диагноз в 85% случаев, в то время как опытные терапевты справлялись только в 20%. Но важно отметить, что тестирование проводилось на архиве медицинских случаев, а по условиям требовалось поставить четко диагноз с первой попытки.
В реальности же врачи работают скорее с пациентом в целом, а не с обособленным заболеванием, поэтому учитывают сопутствующие заболевания, а затем начинают с предварительного списка из 3-5 наиболее вероятных диагнозов, из которых приходят к одному правильному. В подобной ситуации MAI-DxO еще может наворотить дел.
В Microsoft это понимают и специально подчеркивают: систему еще ждут дополнительные тесты. Если все пройдет хорошо, то одобрение FDA она получит в 2027 году, а работать будет не автономно, а только в паре с опытным врачом.
Но 2027 год еще не скоро, а ИИ в медицине используют уже сейчас — и зачастую стихийно. На Reddit как-то раз мелькало фото терапевта, на ПК которого открыт ChatGPT, где заведены отдельные чаты на каждого пациента. А еще я постоянно читаю истории пациентов, которые сами проверяют или ставят диагноз при помощи ИИ — и зачастую успешно.
Все это приводит к логичному вопросу – а кто будет отвечать за диагноз, поставленный ИИ? Обычно в рассуждениях на эту тему указывают на клиники, внедряющие ИИ, и конкретных врачей, работающих в паре с ними, но на самом деле все сложнее. Главный ответственный за здоровье пациента — это сам пациент или его близкие.
Я искренне верю, что в медицину идут лучшие, стандарты там максимально высокие — и благодаря этому каждый год в мире спасают миллионы и миллионы жизней. Но даже у лучших врачей должно быть право на ошибку — иначе бы они никого не лечили. Но для пациента эта ошибка может быть летальной.
Поэтому нет ничего странного в том, что люди пытаются разобраться в своих болячках сами. Когда-то это были звонки “знакомым” врачам. Затем пришел интернет, в котором на десять толковых статей приходится сотня статей антинаучных. Теперь вот начали обращаться к ChatGPT — и это, пожалуй, не самый худший сценарий.
В моих экспериментах нейросети понятным языком расшифровывали диагнозы, анализы и снимки, по первому запросу подтверждали свои выводы ссылками на научные исследования и в целом держались правил доказательной медицины. А еще добавляли легкую форму психотерапии, аккуратно намекая, что катастрофы прямо здесь и сейчас нет, но ты бы, дружище, записался ко врачу, а?
И это, пожалуй, главная часть нашей личной ответственности за здоровье — разобравшись в проблеме и получив достаточно знаний о ней, найти правильного врача, который не отмахнется от информации, что "накопал" пациент с помощью ИИ, а решит ситуацию.
BY сбежавшая нейросеть
Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260
Share with your friend now:
group-telegram.com/ai_exee/144