Telegram Group & Telegram Channel
В Microsoft AI поделились первыми тестами Microsoft AI Diagnostic Orchestrator (MAI-DxO) — очень хитрой ИИ-системы для постановки медицинских диагнозов. Суть идеи в том, что создается что-то вроде “консилиума” из ИИ: одна роль отвечает за первичный опрос пациента, вторая ставит предварительные диагнозы, третья критикует вторую, четвертая назначает анализы и так далее. При этом разные роли могут быть назначены разным моделям, то есть ChatGPT o3 может работать в паре с Gemini 2.5 Pro, что повышает гибкость системы.

В отчете есть немного пугающие цифры, на них остановимся отдельно. В тестах Microsoft MAI-DxO смогла установить правильный диагноз в 85% случаев, в то время как опытные терапевты справлялись только в 20%. Но важно отметить, что тестирование проводилось на архиве медицинских случаев, а по условиям требовалось поставить четко диагноз с первой попытки.

В реальности же врачи работают скорее с пациентом в целом, а не с обособленным заболеванием, поэтому учитывают сопутствующие заболевания, а затем начинают с предварительного списка из 3-5 наиболее вероятных диагнозов, из которых приходят к одному правильному. В подобной ситуации MAI-DxO еще может наворотить дел.

В Microsoft это понимают и специально подчеркивают: систему еще ждут дополнительные тесты. Если все пройдет хорошо, то одобрение FDA она получит в 2027 году, а работать будет не автономно, а только в паре с опытным врачом.

Но 2027 год еще не скоро, а ИИ в медицине используют уже сейчас — и зачастую стихийно. На Reddit как-то раз мелькало фото терапевта, на ПК которого открыт ChatGPT, где заведены отдельные чаты на каждого пациента. А еще я постоянно читаю истории пациентов, которые сами проверяют или ставят диагноз при помощи ИИ — и зачастую успешно.

Все это приводит к логичному вопросу – а кто будет отвечать за диагноз, поставленный ИИ? Обычно в рассуждениях на эту тему указывают на клиники, внедряющие ИИ, и конкретных врачей, работающих в паре с ними, но на самом деле все сложнее. Главный ответственный за здоровье пациента — это сам пациент или его близкие.

Я искренне верю, что в медицину идут лучшие, стандарты там максимально высокие — и благодаря этому каждый год в мире спасают миллионы и миллионы жизней. Но даже у лучших врачей должно быть право на ошибку — иначе бы они никого не лечили. Но для пациента эта ошибка может быть летальной.

Поэтому нет ничего странного в том, что люди пытаются разобраться в своих болячках сами. Когда-то это были звонки “знакомым” врачам. Затем пришел интернет, в котором на десять толковых статей приходится сотня статей антинаучных. Теперь вот начали обращаться к ChatGPT — и это, пожалуй, не самый худший сценарий.

В моих экспериментах нейросети понятным языком расшифровывали диагнозы, анализы и снимки, по первому запросу подтверждали свои выводы ссылками на научные исследования и в целом держались правил доказательной медицины. А еще добавляли легкую форму психотерапии, аккуратно намекая, что катастрофы прямо здесь и сейчас нет, но ты бы, дружище, записался ко врачу, а?

И это, пожалуй, главная часть нашей личной ответственности за здоровье — разобравшись в проблеме и получив достаточно знаний о ней, найти правильного врача, который не отмахнется от информации, что "накопал" пациент с помощью ИИ, а решит ситуацию.



group-telegram.com/ai_exee/144
Create:
Last Update:

В Microsoft AI поделились первыми тестами Microsoft AI Diagnostic Orchestrator (MAI-DxO) — очень хитрой ИИ-системы для постановки медицинских диагнозов. Суть идеи в том, что создается что-то вроде “консилиума” из ИИ: одна роль отвечает за первичный опрос пациента, вторая ставит предварительные диагнозы, третья критикует вторую, четвертая назначает анализы и так далее. При этом разные роли могут быть назначены разным моделям, то есть ChatGPT o3 может работать в паре с Gemini 2.5 Pro, что повышает гибкость системы.

В отчете есть немного пугающие цифры, на них остановимся отдельно. В тестах Microsoft MAI-DxO смогла установить правильный диагноз в 85% случаев, в то время как опытные терапевты справлялись только в 20%. Но важно отметить, что тестирование проводилось на архиве медицинских случаев, а по условиям требовалось поставить четко диагноз с первой попытки.

В реальности же врачи работают скорее с пациентом в целом, а не с обособленным заболеванием, поэтому учитывают сопутствующие заболевания, а затем начинают с предварительного списка из 3-5 наиболее вероятных диагнозов, из которых приходят к одному правильному. В подобной ситуации MAI-DxO еще может наворотить дел.

В Microsoft это понимают и специально подчеркивают: систему еще ждут дополнительные тесты. Если все пройдет хорошо, то одобрение FDA она получит в 2027 году, а работать будет не автономно, а только в паре с опытным врачом.

Но 2027 год еще не скоро, а ИИ в медицине используют уже сейчас — и зачастую стихийно. На Reddit как-то раз мелькало фото терапевта, на ПК которого открыт ChatGPT, где заведены отдельные чаты на каждого пациента. А еще я постоянно читаю истории пациентов, которые сами проверяют или ставят диагноз при помощи ИИ — и зачастую успешно.

Все это приводит к логичному вопросу – а кто будет отвечать за диагноз, поставленный ИИ? Обычно в рассуждениях на эту тему указывают на клиники, внедряющие ИИ, и конкретных врачей, работающих в паре с ними, но на самом деле все сложнее. Главный ответственный за здоровье пациента — это сам пациент или его близкие.

Я искренне верю, что в медицину идут лучшие, стандарты там максимально высокие — и благодаря этому каждый год в мире спасают миллионы и миллионы жизней. Но даже у лучших врачей должно быть право на ошибку — иначе бы они никого не лечили. Но для пациента эта ошибка может быть летальной.

Поэтому нет ничего странного в том, что люди пытаются разобраться в своих болячках сами. Когда-то это были звонки “знакомым” врачам. Затем пришел интернет, в котором на десять толковых статей приходится сотня статей антинаучных. Теперь вот начали обращаться к ChatGPT — и это, пожалуй, не самый худший сценарий.

В моих экспериментах нейросети понятным языком расшифровывали диагнозы, анализы и снимки, по первому запросу подтверждали свои выводы ссылками на научные исследования и в целом держались правил доказательной медицины. А еще добавляли легкую форму психотерапии, аккуратно намекая, что катастрофы прямо здесь и сейчас нет, но ты бы, дружище, записался ко врачу, а?

И это, пожалуй, главная часть нашей личной ответственности за здоровье — разобравшись в проблеме и получив достаточно знаний о ней, найти правильного врача, который не отмахнется от информации, что "накопал" пациент с помощью ИИ, а решит ситуацию.

BY сбежавшая нейросеть


Warning: Undefined variable $i in /var/www/group-telegram/post.php on line 260

Share with your friend now:
group-telegram.com/ai_exee/144

View MORE
Open in Telegram


Telegram | DID YOU KNOW?

Date: |

Again, in contrast to Facebook, Google and Twitter, Telegram's founder Pavel Durov runs his company in relative secrecy from Dubai. For Oleksandra Tsekhanovska, head of the Hybrid Warfare Analytical Group at the Kyiv-based Ukraine Crisis Media Center, the effects are both near- and far-reaching. "Your messages about the movement of the enemy through the official chatbot … bring new trophies every day," the government agency tweeted. Groups are also not fully encrypted, end-to-end. This includes private groups. Private groups cannot be seen by other Telegram users, but Telegram itself can see the groups and all of the communications that you have in them. All of the same risks and warnings about channels can be applied to groups. But the Ukraine Crisis Media Center's Tsekhanovska points out that communications are often down in zones most affected by the war, making this sort of cross-referencing a luxury many cannot afford.
from us


Telegram сбежавшая нейросеть
FROM American