Возвращаясь к разговору о матче-реванше, хочу обратить особое внимание на слова Эшли о «человеческом вмешательстве», произнесенные им на пресс-конференции. В течение 20 лет мне приходилось сталкиваться с многочисленными истолкованиями того, что я подразумевал под этой фразой, хотя произнес ее не я и мои подозрения касались более тонких вещей. В ходе матча определенное вмешательство людей в работу Deep Blue разрешалось. В частности, это касалось исправления ошибок в программе, перезапуска системы после сбоев, а также внесения между партиями изменений в дебютную книгу и оценочную функцию. В последующих матчах между людьми и машинами действия такого рода будут ограничены как создающие несправедливое преимущество для компьютера.
Во время матча с Deep Blue произошло как минимум два сбоя, потребовавших ручной перезагрузки. Как сообщает команда Deep Blue, это случилось в 3-й и 4-й партиях. Хотя, с их точки зрения, эти инциденты не имели никакого значения, поскольку не повлияли на следующий ход Deep Blue, во время напряженного эндшпиля в 4-й партии мне пришлось отвлечься от игры и спросить у Сюй Фэнсюна, что происходит. И, как впоследствии сказали мне шахматные программисты, перезагрузка системы имеет серьезные последствия с точки зрения воспроизводимости. Поскольку перезагрузка приводит к потере таблиц памяти, используемых машиной для сохранения позиций, нет никакого способа добиться того, чтобы машина точно воспроизвела предыдущие ходы.
Если отбросить эти разрешенные действия, многие люди истолковывают идею человеческого вмешательства таким образом, что где-то внутри Deep Blue прятался Карпов или другой сильный гроссмейстер — как в шахматном автомате «Турок» Вольфганга фон Кемпелена. Но в нынешние времена благодаря резервным системам и удаленному доступу нет необходимости прятать шахматных гномов в большом черном ящике. Это любопытная мысль, но я имел в виду совсем другое. Просто перезагрузить машину или инициировать какой-либо сбой, дабы вынудить Deep Blue потратить больше времени на обдумывание сложной позиции, могло быть вполне достаточно, чтобы существенно повлиять на результат. Помните тот случай на чемпионате в Гонконге в 1995 году, когда прототип Deep Blue после перезагрузки во время решающей партии с программой Fritz сделал более слабый ход? Не повезло, но после перезапуска он вполне мог сделать и более сильный ход, особенно если был запрограммирован использовать дополнительное время после сбоя.
Выступая 15 сентября 2016 года в Оксфорде на конференции по социальной робототехнике и искусственному интеллекту, я воспользовался случаем познакомиться с Ноэлем Шарки из Университета Шеффилда. Шарки — один из ведущих в мире специалистов в области ИИ и машинного обучения, участвующий в различных проектах, связанных с исследованием этических принципов и социальных последствий роботизации. Но в Великобритании Ноэль больше известен как эксперт и главный судья в популярном телешоу «Битвы роботов». Мы встретились во время короткого перерыва на ланч, после которого должно было состояться его выступление. Я собирался побеседовать с ним о машинном обучении и организованной им дискуссии об этических аспектах роботизации в Организации Объединенных Наций. Но он жаждал поговорить со мной о Deep Blue!
«Эта тема не дает мне покоя много лет, — сказал он мне. — Я был так воодушевлен перспективой того, что искусственный интеллект победит чемпиона мира! Но я хотел, чтобы это было честное состязание. Увы, оно таковым не оказалось. Системные сбои? Подключенные системы? Как все это можно контролировать? Они могли менять между ходами программное обеспечение и даже оборудование. Я не могу утверждать, что IBM смошенничала, но я и не могу сказать, что она этого не делала. Определенно, у них была такая возможность. Если бы я был арбитром, я бы вырвал из их машины все провода, построил вокруг нее клетку Фарадея и сказал: "Окей, теперь играйте". В противном случае я бы немедленно присудил этой чертовой штуке техническое поражение».
Представив себе картину, как Ноэль Шарки вырывает сетевые кабели из Deep Blue, я подумал, что охотно включил бы его в свою команду — против кого бы я ни играл.
Наконец, очень популярный в то время ключевой аргумент, будто IBM никогда бы не совершила неправомерных действий ради победы Deep Blue, сегодня звучит почти нелепо. В 1997 году оставалось еще четыре года до того, как корпоративный мир сотряс скандал вокруг американского энергетического гиганта Enron, оказавшегося империей зла и обмана. Это стало своеобразным «Уотергейтом» для корпоративного мира и предвестником череды разоблачений, связанных с финансовым кризисом 2007–2008 годов. Разумеется, я не ставлю шахматный матч в один ряд с финансовым крахом. Но хочу сказать, что после истории с Enron люди перестали говорить мне, что «крупные американские корпорации наподобие IBM никогда не сделают ничего неэтичного». Многие призадумались, особенно когда узнали, как выросла цена акций IBM после матча.