Для подобных высказываний у Карпентера есть весомые основания, ведь Cleverbot хорошо зарекомендовало себя в так называемом тесте Тьюринга. Суть его заключается в том, сможет ли экзаменатор при анонимном общении по ряду ответов на его вопросы уверенно определить, кто перед ним – человек или машина. При этом главная задача разработчика образа искина – так «настроить» его на человеческую логику, чтобы его было невозможно распознать.
Карпентер считает, что мы не можем с уверенностью сказать, что произойдет, когда машины превзойдут нас интеллектом. Следовательно, мы не можем предсказать, как они поведут себя: станут ли они нам помогать, нас игнорировать или же рано или поздно нас уничтожат.
С другой стороны, Хокинга всячески поддерживает американский инженер, предприниматель и миллиардер Илон Маек. Он основал известные компании: – аэрокосмический стартап SpaceX и автомобильный концерн Tesla. Маек уверен, что успех создания искусственного интеллекта станет самым значительным событием нашего времени, но это же станет, к сожалению, и последним событием для существования человечества. Этот яркий и выдающийся бизнесмен, автор многих амбициозных высокотехнологичных проектов, предостерегает, что уже через 5-10 лет в недрах искинов появится нечто действительно очень опасное. Маек сравнивает создание «нейрокибернетических искинов» буквально с «вызовом демона-разрушителя» и уверен, что необходимо срочно создать некий международный комитет по надзору за ИИ-технологиями.
Террористический Интернет
Я из тех, кто считает, что суперинтеллект может угрожать человечеству. Сначала машины будут выполнять за нас работу и не будут обладать суперинтеллектом. Хорошо, если мы правильно будем этим управлять. Через несколько десятилетий машины поумнеют настолько, что это может стать для нас проблемой. Здесь я согласен с Илоном Маском и другими и не понимаю, почему многих людей это не волнует.
Уже сейчас, как уверен профессор Хокинг, есть серьезные проблемы с интернетом. Свои опасения он подкрепляет словами директора Британского Центра по контролю за коммуникациями GCHQ Роберта Ханнигана, который недавно предупредил, что интернет становится командным центром для террористических организаций.
Свои опасения высказывает и основатель корпорации Microsoft Билл Гейтс, который, в частности, считает, что ИИ в самом скором времени может превратиться в источник постоянных проблем, связанных с непонятной даже его создателям логикой поведения.
В общем, тему своего заявления Хокинг выбрал неслучайно. Высокотехнологичный сектор робототехники относится к одной из самых динамичных и быстроразвивающихся отраслей современной индустрии. Передовые технологии с примитивными формами ИИ были созданы еще в конце прошлого века и сегодня активно применяются в различных отраслях: атомной, нефтегазовой, медицине и фармацевтике.
Хорошим примером «скрытой угрозы искинов» являются проекты создания интеллектуального электромобиля без водителя. Так, несколько лет назад первые 40 машин, оснащенные 22 сенсорами, панорамными камерами и «умной» программой управления, начали передвигаться в тестовом режиме со скоростью 30 км/ч по улицам городов Британии. Ведущие же мировые производители интеллектуальной робототехники – США, Южная Корея, Япония – по оценкам экспертов, вообще уже стоят на пороге новых революционных открытий в плане создания «сверхинтеллектуальных» искинов.
Вместе с тем развитие с такой степенью интенсивности принципиально нового технологического феномена – «коммуникации естественного и искусственного разума» – требует совершенно иного подхода к искинам в глобальном масштабе. Так, по мнению ряда ученых, вполне назрела необходимость выработки согласованных международных подходов по целому ряду щекотливых вопросов и явных, уже сейчас очевидных правовых ловушек, связанных с развитием и адаптацией ИИ в обществе.