Искусственный интеллект и машинное обучение предвзято относятся к пациентам

2 ноября 2020

На заседании Консультативного комитета по виртуальному взаимодействию с пациентами подчеркнули, что социальные предубеждения в данных, используемых для обучения алгоритмов искусственного интеллекта и машинного обучения, могут негативно повлиять на уход за широким кругом пациентов и усугубить неравенство в состоянии здоровья.

Встреча состоялась через 18 месяцев после того, как FDA впервые предложило нормативную базу для модификации программного обеспечения на основе искусственного интеллекта, машинного обучения в качестве медицинского устройства с использованием реального обучения и адаптации. Агентство еще не завершило разработку своего подхода к решению проблем, связанных с широким использованием этой технологии. Хотя искусственный интеллект и машинное обучение обладают потенциалом для здравоохранения, эта технология имеет предубеждения, которые могут негативно повлиять на уход за пациентами, заявили на встрече чиновники FDA и глава отдела глобальных стандартов программного обеспечения Philips.

Пэт Бэрд, глава отдела глобальных стандартов программного обеспечения Philips, предупредил, что без надлежащего контекста возможно "неправильное использование" устройств на основе ИИ, которые обеспечивают "неправильные выводы", предоставляемые в рамках поддержки клинических решений. Терри Корнелисон, главный медицинский директор CDRH и директор программы женского здоровья, также высказалась за представление различных групп пациентов в наборах данных, используемых для обучения алгоритмов AI/ML.

Проблема с текущей нормативной базой FDA заключается в том, что она не предназначена для адаптивных алгоритмов. FDA имеет только разрешенные или одобренные медицинские устройства, использующие "заблокированные" алгоритмы, которые обеспечивают один и тот же результат каждый раз.

Элемент не найден