Читаем Прикладные проблемы внедрения этики искусственного интеллекта в России. Отраслевой анализ и судебная система полностью

Кейс.

Специалисты из Университетского колледжа Лондона и Университета Шеффилда создали программное обеспечение, которое может предсказать решения по реальным судебным процессам с вероятностью, превышающей 70 %. С помощью данной разработки удалось спрогнозировать ряд решений ЕСПЧ с точностью до 79 %. В 2019 году с помощью этого же обеспечения ИИ-судья вынес решения по шести делам, пять из которых полностью совпали с решениями ЕСПЧ. В процессе анализа существа данных дел ИИ обработал около 600 дел с вынесенными и обнародованными судебными решениями, пока не пришел к собственному приговору [Taylors, 2020].

Вопрос о полноценной замене решений человека-судьи с помощью ИИ является сейчас очень обсуждаемым и дискуссионным. Сама идея об ИИ в правосудии задевает важные этические вопросы, связанные с автономией и юридической ответственностью самих ИИ.

Серьезная проблема в сфере алгоритмизации правовых решений – баланс между принятой человеком ответственностью и решениями ИИ. Человека можно судить за нарушение чужих прав и несоблюдение возложенных на него обязанностей. В ситуации, когда судейские решения выносятся человеком, на судью также возлагается и определенная ответственность, а также необходимость соблюдения прав [Sharkey, 2019]. В случае нарушения судьей возложенных на него обязательств он должен понести определенное наказание. Например, судья несет ответственность за совершение судебной ошибки, однако неясно, в какой степени мы можем возлагать ответственность ИИ на судью. В связи с риском ошибок ИИ может быть неясно, кто несет ответственность за любой возникающий ущерб. Законы об ответственности за продукцию на текущий момент часто возлагают ответственность на производителей (как это происходит через лицензионные соглашения с конечными пользователями в области программного обеспечения). Так, в случае производства военных роботов по всей цепочке поставок существует список субъектов, которые могут быть привлечены к ответственности: программист, производитель, группа правовой экспертизы оружия, офицер по военным закупкам, куратор робота и т. д. Некоторые специалисты полагают, что по мере того как роботы станут более автономными, ответственность можно будет возложить на них. Если ИИ способен продемонстрировать достаточно функций, которые обычно определяют индивидуальность человеческого субъекта, то его можно будет считать ответственным лицом. Однако другие специалисты указывают, что ответственность не может возлагаться на ИИ в силу отсутствия у последнего спонтанной свободы и внутреннего сознания [Warwick, 2011]. Как следствие, ситуация, в которой человека, наделенного ответственностью, обязанностями и правами, судит лицо, предположительно не обладающее такими характеристиками, представляется не справедливой. Процедура, в которой человека судит машина, является этически нерелевантной по причине того, что оба участника судопроизводства, как судья, так и обвиняемый, должны быть одинаково подотчетны закону. Закон должен быть един и для обвиняемого, и для судьи. Согласно концептуальной рамке суда как процесса, все лица, включенные в него, должны обладать равным доступом к правам и возможностям реализовать свою ответственность. Иными словами, все участники судебного процесса должны быть субъектами права. Однако на сегодняшний день нет ясности в том, можно ли считать ИИ-судью субъектом права или, скорее, техническим помощником. Нет ясности в том, считаем ли мы подотчетным закону сам ИИ, его создателей или пользователей. В условиях отсутствия ясности в этом вопросе отношения между обвиняемым и ИИ-судьей выглядят неопределенными, а сам акт вынесения судебного решения ИИ неэтичным с точки зрения нарушения равенства и паритета гражданских отношений. Возникает риск того, что инструменты ИИ, используемые в принятии судебных решений, могут идти вразрез с правом на доступ к судье, правом на равенство сторон в судебном споре и состязательность судопроизводства. В таком случае было бы правильнее говорить о вспомогательной роли ИИ-судей в работе судей-людей, которые единственно и остаются субъектами права. В последнем случае ИИ-судья может лишь помогать судье-человеку выносить судебные решения, но не может окончательно выносить их сам. Как вариант – ИИ может помогать людям или заменять их в судах низшей инстанции, но люди-судьи должны сохранять свое место в качестве конечных арбитров в любой правовой системе.

Перейти на страницу:

Похожие книги

21 урок для XXI века
21 урок для XXI века

В своей книге «Sapiens» израильский профессор истории Юваль Ной Харари исследовал наше прошлое, в «Homo Deus» — будущее. Пришло время сосредоточиться на настоящем!«21 урок для XXI века» — это двадцать одна глава о проблемах сегодняшнего дня, касающихся всех и каждого. Технологии возникают быстрее, чем мы успеваем в них разобраться. Хакерство становится оружием, а мир разделён сильнее, чем когда-либо. Как вести себя среди огромного количества ежедневных дезориентирующих изменений?Профессор Харари, опираясь на идеи своих предыдущих книг, старается распутать для нас клубок из политических, технологических, социальных и экзистенциальных проблем. Он предлагает мудрые и оригинальные способы подготовиться к будущему, столь отличному от мира, в котором мы сейчас живём. Как сохранить свободу выбора в эпоху Большого Брата? Как бороться с угрозой терроризма? Чему стоит обучать наших детей? Как справиться с эпидемией фальшивых новостей?Ответы на эти и многие другие важные вопросы — в книге Юваля Ноя Харари «21 урок для XXI века».В переводе издательства «Синдбад» книга подверглась серьёзным цензурным правкам. В данной редакции проведена тщательная сверка с оригинальным текстом, все отцензурированные фрагменты восстановлены.

Юваль Ной Харари

Обществознание, социология
Антипсихиатрия. Социальная теория и социальная практика
Антипсихиатрия. Социальная теория и социальная практика

Антипсихиатрия – детище бунтарской эпохи 1960-х годов. Сформировавшись на пересечении психиатрии и философии, психологии и психоанализа, критической социальной теории и теории культуры, это движение выступало против принуждения и порабощения человека обществом, против тотальной власти и общественных институтов, боролось за подлинное существование и освобождение. Антипсихиатры выдвигали радикальные лозунги – «Душевная болезнь – миф», «Безумец – подлинный революционер» – и развивали революционную деятельность. Под девизом «Свобода исцеляет!» они разрушали стены психиатрических больниц, организовывали терапевтические коммуны и антиуниверситеты.Что представляла собой эта радикальная волна, какие проблемы она поставила и какие итоги имела – на все эти вопросы и пытается ответить настоящая книга. Она для тех, кто интересуется историей психиатрии и историей культуры, социально-критическими течениями и контркультурными проектами, для специалистов в области биоэтики, истории, методологии, эпистемологии науки, социологии девиаций и философской антропологии.

Ольга А. Власова , Ольга Александровна Власова

Медицина / Обществознание, социология / Психотерапия и консультирование / Образование и наука