ИИ не справляется с прогнозами в медицине

Такой пугающий вывод следует из исследования, недавно опубликованного в журнале Nature Communications Medicine. И в первую очередь речь идет о выявлении критических состояний здоровья. Почему так происходит и как это можно исправить?

🔥 Еще больше интересного в моем канале Продуктовые штучки

Почему это важно?

Большие языковые модели, такие как ChatGPT, имеют больший потенциал применения в медицине, и все чаще начинают использоваться уже сейчас, планы на будущее - поистине безграничны.

Больницы все чаще используют инструменты, использующие машинное обучение, подмножество ИИ, которое фокусируется на системах, которые постоянно учатся и адаптируются по мере поступления новых данных.

Исследование Health Affairs показало, что около 65% больниц в США используют ИИ модели прогнозирования, чаще всего – именно для определения траектории здоровья стационарных пациентов.

Подробности исследования

Многие модели машинного обучения, обученные на реальных данных пациентов, не смогли выявить около 66% (!) потенциально смертельных случаев в больницах.

Источник: Axios

С учетом того, что больницы все чаще используют ИИ для мониторинга здоровья пациентов, этот недостаток вызывает серьезные опасения.

Исследователи проанализировали несколько широко используемых моделей машинного обучения (MML), используя общедоступные данные пациентов из отделений интенсивной терапии и онкологических больных.

Авторы исследования подчеркивают важность понимания контекста, в котором эти ИИ-модели могут принимать надежные решения.

Несмотря на потенциал ИИ в улучшении медицинского обслуживания, исследование показывает значительные ограничения существующих моделей, подчеркивая необходимость тщательной оценки и совершенствования перед внедрением в клиническую практику.

Какой выход?

Прежде чем ИИ модели можно будет использовать в клинических условиях, необходимы дополнительные исследования их надежности.

Коалиция из более чем 3 000 медицинских систем, технологических компаний и защитников прав пациентов создает сеть "лабораторий обеспечения качества" для проверки и оценки производительности ИИ-систем.

Эти лаборатории стремятся обеспечить тестирование технологий на данных, представляющих различные группы пациентов в конкретных регионах, чтобы гарантировать их эффективность и безопасность.

ИИ не справляется с прогнозами в медицине

Почему так могло случиться?

Возможные причины:

1. Качество и полнота данных:

- ИИ-модели обучаются на исторических медицинских данных, которые могут содержать ошибки, пробелы или недостаточно репрезентативны для всей популяции пациентов.

- Если в данных недостаточно примеров редких осложнений, ИИ может не уметь их правильно предсказывать.

2. Проблемы с обобщением знаний:

- Большинство моделей машинного обучения плохо адаптируются к новым, неизвестным данным, особенно если они обучены на одном типе пациентов или в рамках конкретной системы здравоохранения.

- ИИ может переобучаться на шаблонных диагнозах, игнорируя нестандартные случаи.

3. Ограниченность клинического контекста:

- Модели анализируют структурированные данные (анализы, показания датчиков), но не понимают нюансов врачебных решений и записей.

- Отсутствие контекста (например, данных о симптомах, которые врачи учитывают интуитивно) приводит к пропуску критических состояний.

4. Системные ограничения ИИ:

- Большинство текущих медицинских ИИ-систем ориентированы на вероятностные прогнозы, но не всегда могут учитывать сложные взаимосвязи между разными факторами риска.

- Недостаточно гибкие алгоритмы могут игнорировать атипичные паттерны ухудшения состояния пациентов.

5. Этические и регуляторные ограничения:

- Медицинские алгоритмы подвергаются жестким стандартам сертификации, поэтому многие из них проектируются с избыточной осторожностью, снижая чувствительность к критическим случаям, чтобы избежать ложных срабатываний.

- Алгоритмы часто не обновляются в реальном времени, что снижает их эффективность при появлении новых медицинских практик.

Что предлагают ученые?

- Обучать модели на более разнородных и актуальных медицинских данных.

- Улучшать интерпретируемость ИИ, чтобы врачи могли проверять его рекомендации.

- Внедрять многомодальные системы, которые анализируют не только цифры, но и текстовые заметки врачей, данные с медицинских изображений и датчиков в комплексе. Таким образом, пока что ИИ в медицине нуждается в доработке, прежде чем его можно будет использовать для критически важных решений.

На основе публикации Axios

Пожалуйста, поддержите меня, поставьте лайк!

3 комментария