Внедрение данной технологии при всех своих плюсах сопровождается целым комплексом этических проблем. Далеко не все врачи приветствуют широкое внедрение программ, которые предоставляют пациентам данные об их состоянии здоровья. Беспокойство вызывает не только очевидные риски неверного прогноза, но, скорее, неадекватные решения, которые могут принимать сами пациенты на основе полученных данных. Так, известно, что решение об удалении яичников, которое было принято известной актрисой Анджелиной Джоли, представлялось разным медикам спорным. В ходе консилиумов не удавалось выработать единого мнения. На основании генетической экспертизы риск возникновения рака яичников оценивался в 50 %. Программа ИИ, к который прибегли для повышения достоверности оценки, предоставила примерно те же результаты. После этого сама актриса настояла на проведении операции, притом, что единого мнения по этому случаю по-прежнему не было. Врачи опасаются, что люди могут принять неверное и неоправданное решение в отношении своего здоровья при использовании различных диагностических приложений. В силу недостаточной профессиональной подготовки, различных психологических особенностей, таких как мнительность или ипохондрия, пациенты могут склоняться к радикальным мерам в тех случаях, когда с адекватной медицинской точки зрения они выглядят неоправданными. Возможны и другие случаи, когда пациенты в силу своих особенностей не придадут достаточного внимания тем предписаниям, которые выдаст программа. Они могут саботировать решения, предлагаемые ИИ-помощником, но проявить большую ответственность при посещении человека-врача, который может стать дополнительной психологической поддержкой или попытаться убедить пациента лично. Еще одной проблемой использования ИИ-врачей в виде различных программ и приложений является трудность установления ответственности в случае назначения неверного лечения или различных врачебных ошибок для тех случаев, когда врачом выступает компьютерная программа. Следует ли возлагать ответственность на производителя программы (программистов) или того, кто реализует данный продукт? В случае с человеком-врачом ответственность за неверное лечение или причинение вреда пациенту несет сам врач, однако в случае с использованием компьютеризированного помощника эта мера неочевидна. Наконец, проблематичными становятся отношения между пациентом и врачом. В силу названных трудностей врачи могут избегать активного внедрения ИИ-помощников, поскольку реакция пациентов на полученные рекомендации может быть непредсказуемой. Если пациент станет настаивать на радикальных и неоправданных методах лечения на основе полученных прогнозов и врач окажет ему содействие, то в какой степени будет распределяться ответственность между всеми участниками процесса, не вполне ясно. Врачи также могут склоняться к тому, чтобы скрывать какие-то детали диагноза или плана лечения в случае, если пациент все-таки решится обратиться к врачу за разъяснениями компьютеризированных предписаний или подтверждения диагноза, или плана лечения, сформированного машиной. При непосредственном общении врач сам принимает решение, какой информацией делится с пациентом. Однако если ИИ-помощник будет запрограммирован на больший объем доступной для пациента информации, это может создать двусмысленную, неопределенную и даже потенциально конфликтную ситуацию между врачом и пациентом. Возможно, при более масштабном внедрении компьютерных помощников в область медицинской помощи придется более детально регламентировать, в какой степени пациенты могут «перепроверять» решения ИИ-врачей или просить дополнительных разъяснений у людей-врачей, и как будет распределяться ответственность в подобных случаях.
3.2. Перечень рекомендаций
Важность всесторонней экспертной поддержки при внедрении ИИ-технологий трудно переоценить. Необходимо отметить, что это одна из тех областей, для регулирования которой желательно подключение специалистов самых разных областей. Помимо участия самих медицинских работников, важно участие психологов, философов, специалистов по медицинской этике, а также таких более частных областей, как философия сознания, нейрофеноменология, нейроэкзистенциализм, энактивизм и др. Данная область имеет высокий потенциал для релевантности собственно философской и психологической экспертиз. Роль гуманитариев, а также специалистов по социальным наукам крайне важна для проведения квалифицированных экспертиз соответствующих ИИ-программ. Некоторые эксперты считают, что использование ИИ-технологий в медицине должно быть регламентировано на государственном уровне.