Принимая во внимание указанные выше трудности можно отметить, что программа судейства, основанная на технологиях ИИ, должна проходить экспертную проверку на различные этические недоразумения и дилеммы. Правовая сфера – одна из труднейших для цифровизации, поскольку эта область практически полностью построена на ценностной основе. Понятия справедливости, достоинства, ценности человеческой жизни, благополучия, морального ущерба и проч. представляют собой сложнейшие комплексы философских смыслов и идей. Их формализация – большая трудность. Возможно, на начальной стадии внедрения использование ИИ в области судопроизводства может быть ограничено оказанием помощи судьям в выявлении их собственных предубеждений и поддержании последовательности. По мере дальнейшего распространения внедрения ИИ в судебной сфере данные полномочия могут расширяться, однако при условии экспертного контроля со стороны общественности, профессиональных сообществ и, отчасти, государства. Необходимо также иметь в виду, что все более широкое использование автоматизации в судопроизводстве неизбежно повлияет на процесс принятия решений человеком.
Передача формирования судебных решений в ведение ИИ является неоднозначным шагом, что предполагает устранение не только технических вопросов, таких как информационная безопасность и защита от возможных взломов, но и решение вопросов обучения ИИ с точки зрения этических требований. Этическая настройка технологий ИИ в судебной сфере требует нормативного контроля, социально-правовой экспертизы, общественного наблюдения и сотрудничества с узкими специалистами.
Отдельное внимание потребуется уделить параметрам защиты от избыточной формализации. При этом подразумеваются различные дискриминационные риски, а именно алгоритмизация оценки таких факторов, как этническое происхождение, расовая принадлежность, социальное и экономическое положение, политические взгляды, интенсивность и характер социальных связей, возраст, пол, уровень образования и проч. По-видимому, следует отдельно устанавливать определенные дискриминационные запреты в алгоритмах ИИ, используемых в судебной и правоохранительной системах. К ним относятся применение генетических и биометрических данных, данных, связанных с религиозными и политическими взглядами, сексуальной ориентацией. Если подобная дискриминация формируется самой системой ИИ, необходимо усовершенствование алгоритмов или подключение антропоморфного интеллекта. Принимая во внимание имманентно присущую технологиям ИИ (в особенности на базе нейронных сетей) возможность самообучаться, а именно фиксировать таксономию новых данных на основе библиотеки ранее обнаруженных данных, необходимо, чтобы общественные институты, специализированные исследовательские центры или государственные органы, еще в процессе создания ИИ-программ ограничивали возможность ущемления отдельных социальных групп или граждан в ходе применения программы. В целом важно держаться равновесия между частной инициативой разработчиков ИИ (их интеллектуальной собственности) и независимыми экспертными группами (как привлеченных, так и действующих независимо). Данное требование могло быть реализуемо каждым конкретным судом, однако контроль за его исполнением следовало бы возложить на специальные группы независимых судей, которые определялись бы выборным путем и регулярно переизбирались. Такая практика должна способствовать сохранению беспристрастности и прозрачности в разработках ИИ для судебных и правоохранительных органов, а также их открытости для возможной проверки.
Создателям технологий самообучения программ необходимо создать все условия для использования профессионального опыта сотрудников правовых органов и учреждений. Помимо сотрудничества с профессионалами из тематически релевантной группы, такими как судьи, адвокаты, прокуроры, следователи и др., необходимо подключить специалистов различных гуманитарных профилей, в частности философов, в том числе аксиологов, социологов, психологов и др. Для успешной разработки ИИ в судебной сфере имеет смысл заняться организацией интегрированных проектных команд, ориентированных на междисциплинарный подход. В частности, при формировании госзаказов на разработку и внедрение программ ИИ для правовой области важным критерием выбора должно быть обучение по курсам этики ИИ с получением соответствующих сертификатов.