Искусственный интеллект воспроизводит расовые предрассудки

25 августа 2020

Genetic Literacy Project (GLP) некоммерческая организация, нацеленная на повышение осведомленности общества о генетике, сообщает, что в последние несколько лет неуклонный поток доказательств продемонстрировал, что некоторые из медицинских технологий на базе искусственного интеллекта воспроизводят расовые предубеждения и усугубляют неравенство в здравоохранении. На это обратили внимание во время пандемии SARS-CoV-2.

В первые недели пандемии в афроамериканских общинах почти не проводилось тестирование на Covid-19. Должностные лица общественного здравоохранения отметили, что что решения о том, кого и где тестировать, принимались на основе ранних случаев. 

Степень расовой предвзятости в медицинских технологиях искусственного интеллекта неизвестна. Частично это связано с тем, что программное обеспечение это интеллектуальная собственность, которая защищена авторским правом. Неизвестно, какой алгоритм лежит в основе ИИ, который обобщает медицинские исследования.

Ранее группа исследователей опубликовали в журнале Science материал, где показали, что алгоритм, разработанный Optum, дочерней компанией UnitedHealth Group, который использовался для выявления потребностей пациентов со сложными заболеваниями, требующими особого ухода, не был расово нейтральным.

Афроамериканцы составляли 18% от группы риска медицинского центра при оценке с использованием этого алгоритма. На основании информации о здоровье пациентов исследователи пришли к выводу, что 47% пациентов, требующих особого уходы, должны были составлять афроамериканцы. 

Несоответствие означало, что белые пациенты получали доступ к специализированному уходу чаще, чем столь же страдающие афроамериканские пациенты.

Элемент не найден