2. На сегодняшний день доказано, что с формированием прогнозов программы ИИ справляются лучше, чем люди-врачи. При тестировании успешности людей и машин люди были правы в 60 % случаев, а машины – в 72 %. Программы ИИ демонстрируют успешность как в прогнозах по протеканию болезней, так и по рискам возникновения тех или иных заболеваний, появлению различных осложнений и т. д. Результаты недавнего исследования по риску возникновения родового кровотечения у рожениц, принимающих кроворазжижающие препараты при высоком D-димере, показали, что чаще всего технология ИИ соответствовала или была лучше, чем решение акушеров-людей. В исследовании также было обнаружено, что решения ИИ об отмене препаратов были наиболее целесообразны и обоснованы лучше, чем решения людей. Успешность ИИ в подобных случаях связана с доступом к большому массиву данных, не ограниченных страной, временем или определенным учреждением. Известно, что стратегии лечения зачастую не совпадают в различных странах, где сертифицированы разные подходы и официальные медицинские стандарты. В различных разделах медицины наблюдаются несовпадения большей или местной интенсивности. К примеру, в области стоматологии рынок медицинских услуг и технологии лечения стандартизированы в высокой степени. Еще одна область, где прослеживается значительное совпадение в стратегиях лечения, – офтальмология. К сферам с невысокой степенью совпадений относится акушерство и гинекология. Здесь разброс по странам в способах диагностики и методах лечения существенно разнится. Как следствие, люди-врачи в работе придерживаются тех технологий, которые распространены в их странах. Напротив, библиотека практических случаев и методик лечения в программах ИИ не ограничивается определенной страной. Как следствие системы ИИ имеют доступ к гораздо более обширному и разнообразному арсеналу случаев и средств лечения, чем и объясняется их успех.
Несмотря на очевидные преимущества прогностического потенциала ИИ, сложную этическую проблему представляет сам статус решений на основании вероятностей. В основе этой проблемы лежит философский вопрос о том, где именно существуют вероятности – в реальности или в системах наблюдений (сознании наблюдателей). Согласно одной из точек зрения, сама реальность жестко детерминирована и событийно определена, поэтому никаких вероятностей в ней не существует. Вероятность может появиться только в ситуации неопределенности. Если это действительно так, то решения, принимаемые на основе вероятностей, обладают гораздо меньшей предсказательной силой, чем принято думать. Очевидно, что когда на преднатальном скрининге высчитывается риск наличия генетических поломок у плода (например, мутация, вызывающая синдром Дауна), то в реальности наличие или отсутствие данного синдрома уже определено, оно есть. Соответственно, высчитывается вероятность не самого события, а эффективного описания события, скорее вероятность самой ошибки. Описание никогда не равняется 100 % и в этом смысле всегда не может быть точно определено. Расчет вероятностей по модели 100 % является результатом логического и психологического заблуждения. Это положение подтверждается тем фактом, что прогнозы ИИ далеко не безошибочны. Кроме того, многие внешние факторы могут способствовать ошибкам в прогнозах. Например, если данные, использованные для написания самой программы, ошибочны, то результаты анализа также будут ошибочны. Точно так же, если в программу загружаются неверные параметры или нестабильные показатели, то результаты прогноза могут быть нерелевантными [Vallverdú, 2010]. Между тем прогнозы ИИ зачастую приравниваются к решениям, которые обладают абсолютным приоритетом. Не только пациенты, но и врачи склонны наделять решения машины высоким доверием и зачастую некритически относятся к самому процессу принятия решения, а также тем вводным, которые находились на входе. Некоторые медики отмечали тот факт, что они, скорее, стараются предсказать решение системы, чем сформировать собственный прогноз [Lamanna, 2018]. Этически проблематичным является непрозрачность формирования доверия к врачебным прогнозам ИИ. Если пациенты склонны демонстрировать высокую степень доверия врачам, то, скорее всего, они окажутся не готовыми к тому, что сами врачи полностью полагаются на прогнозы ИИ.