Исследователи из Университетского колледжа Лондона и Офтальмологической больницы Мурфилдс (Лондон) совместно с экспертами в области авиации из Департамента безопасности полетов Lufthansa опубликовали пресс-релиз, посвященный совместному исследованию.
В своей статье в журнале npj Digital Medicine они предупреждают, что отношение к медицинскому искусственному интеллекту как к «автопилоту», а не как к «цифровому второму пилоту», создает риск опасной деградации профессиональных навыков медицинских работников.
«По мере того как ИИ все активнее внедряется в системы здравоохранения, медицинское сообщество может извлечь важные уроки из авиационной отрасли, которая столкнулась с повсеместной потерей человеческих навыков после внедрения автопилота», — пояснили авторы в пресс-релизе.
Результат автоматизации
Основное опасение авторов связано с «парадоксом автоматизации», который заключается в том, что по мере автоматизации систем человек-оператор теряет навыки и ситуационную осведомленность, необходимые для вмешательства при отказе этих систем. Авторы указывают на авиационное явление «children of the magenta line» — поколение пилотов, ставших настолько зависимыми от автоматической навигации, что они испытывали трудности при ручном пилотировании. По их мнению, медицина находится на аналогичном перепутье, где чрезмерная зависимость от ИИ может привести к эрозии клинического мышления.
Хотя медицина уже заимствовала инструменты безопасности из авиации, такие как хирургические чек-листы и системы инцидентов, эта статья фокусируется именно на том, как подготовить кадры к будущему, в котором ИИ станет неотъемлемой частью повседневной работы.
Ключевые рекомендации
Авторы представили пять конкретных рекомендаций, основанных на правилах безопасности полетов.
Контроль клиницистов и мониторинг работы без помощи ИИ
Медицинские учреждения должны оценивать реальную работу клиницистов без помощи ИИ и устанавливать минимальные требования к практике без автоматизации после внедрения ИИ, точно так же, как пилоты должны поддерживать навыки ручного пилотирования во время обычных полетов при постоянном мониторинге для выявления чрезмерной зависимости.
Приоритет самостоятельного мышления на ранних этапах обучения
Для молодых клиницистов, обучающихся в среде, насыщенной ИИ, риск смещается от деградации навыков к «нулевым навыкам» или «неправильным навыкам». Данные свидетельствуют, что при использовании инструментов ИИ у обучающихся формируются более поверхностные знания по сравнению с самостоятельным обучением. Раннее обучение должно развивать способность к самостоятельному мышлению до внедрения автоматизации, позволяя ИИ поддерживать развитие навыков, а не подменять его.
Обеспечение понимания клиницистами ограничений ИИ
В медицинских школах следует обучать ИИ-грамотности и технической компетентности в использовании инструментов ИИ. Затем эти навыки необходимо поддерживать и совершенствовать в рамках непрерывного профессионального развития, чтобы клиницисты могли выявлять предвзятость ИИ и другие недостатки.
Внедрение сценарного обучения на симуляторах
Следует внедрить обязательное обучение на симуляторах, воссоздающих сценарии отказа ИИ, по аналогии с авиационной практикой. Это должно выходить за рамки традиционной хирургической симуляции и включать разработку специализированных сред для нехирургических сквозных клинических процессов, где ИИ используется или может использоваться. Кроме того, в рутинных режимах ИИ незапланированные «внезапные перерывы» в работе ИИ могут оценить готовность клинициста работать безопасно без автоматизации.
Формирование операционного понимания
Клиницисты должны иметь фундаментальное представление о том, как инструмент ИИ принимает решение, и знать, когда его следует отменить. Это зеркально отражает «золотое правило» авиации: постоянно понимать работу автоматизированной системы. Когда это понимание утрачивается, необходимо шаг за шагом уменьшать уровень автоматизации до восстановления ситуационной осведомленности.
«Ко-интеллектуальное» партнерство
Авторы заключают, что цель состоит в создании «ко-интеллектуального» партнерства. Эта модель сочетает алгоритмическую скорость и распознавание образов ИИ с контекстуальным мышлением и моральной ответственностью врача-человека. Такой подход соответствует предпочтениям пациентов, поскольку опросы неизменно показывают, что пациенты хотят, чтобы клиницисты руководили процессом принятия решений, а ИИ выступал в качестве вспомогательного инструмента.
Полный текст рекомендаций доступен в публикации npj Digital Medicine.
Источник: Ong AY, Merle DA, Pollreisz A, et al. Flight rules for clinical AI: lessons from aviation for human-AI collaboration in medicine. npj Digit Med. 2026;9:201. https://doi.org/10.1038/s41746-026-02410-1