За одну из важнейших функций отвечают
Таблица 1. Ответственный и устойчивый искусственный интеллект: новые факторы, которые должны учитывать эксперты по устойчивости систем искусственного интеллекта
В будущем возрастет роль искусственного интеллекта в обеспечении того, чтобы передовые системы действовали согласно этическим принципам и моральным нормам человеческого сообщества. Исследователи Школы интерактивных вычислений Технологического института Джорджии Марк Ридл и Брент Харрисон создали прототип системы искусственного интеллекта Quixote, которая способна усваивать этические принципы (например, что нельзя воровать) при чтении прозы. По словам Ридла и Харрисона, эта система умеет обнаружить ценности, анализируя художественные тексты, где люди взаимодействуют друг с другом. Такие произведения описывают культуру и общество, кодируя тем самым «общие знания, социальные протоколы, примеры надлежащего и ненадлежащего поведения, а также стратегии преодоления трудностей»[104]
. Так, «прочитав» множество историй, система Quixote узнала о том, что стремление к эффективности весьма похвально, за исключением тех случаев, когда это противоречит другим важным факторам. Однако даже при наличии таких инноваций менеджерам по соблюдению этических норм все равно необходимо будет осуществлять мониторинг и обеспечивать надлежащее функционирование сложных систем такого рода.Система искусственного интеллекта может быть технически совершенной и этичной, но все же оказывать негативное воздействие на организацию. Именно поэтому компаниям понадобятся
Сильные эмоциональные реакции могут возникать в ответ на внедрение роботизированных систем искусственного интеллекта. Изучая, как мы реагируем на роботов, японский специалист по робототехнике Масахиро Мори обнаружил одну любопытную закономерность. Чем реалистичнее робот, тем выше наша эмоциональная близость и эмпатия, но до определенного момента. Когда робот становится еще более похожим на нас, любые изъяны или отклонения начинают вызывать у нас отторжение. Однако если эти изъяны убрать, робота будет почти не отличить от человека, он снова начнет вызывать у нас положительные эмоции, и со временем уровень эмпатии к такому роботу сравнится с уровнем эмпатии к человеку. Резкое снижение эмпатии, которое Мори обозначил термином «зловещая долина», может стать препятствием на пути успешного взаимодействия человека и машины[105]
. Специалисты по этике автоматизации должны знать об этом феномене.В целом эффективно функционирующие системы искусственного интеллекта целесообразно продвигать, а их варианты дублировать и внедрять в других подразделениях компании. С другой стороны, необходимо ограничить функции систем искусственного интеллекта, работающих неудовлетворительно, а если усовершенствовать их невозможно, то снимать с эксплуатации. Решением этих задач будут заниматься
Проблема в людях
Александр Юрьевич Ильин , А. Ю. Ильин , В. А. Яговкина , Денис Александрович Шевчук , И. Г. Ленева , Маргарита Николаевна Кобзарь-Фролова , М. Н. Кобзарь-Фролова , Н. В. Матыцина , Станислав Федорович Мазурин
Экономика / Юриспруденция / Учебники и пособия для среднего и специального образования / Образование и наука / Финансы и бизнес