Этот итог вызвал смех и разочарование, но представьте себе, что может произойти в реальном мире, если машины станут на основании примеров вырабатывать собственные правила. Давайте снова обратимся к научной фантастике, поскольку произведения этого жанра полны точных и дальновидных прогнозов. Опустим роботов-убийц и сверхразумные машины из фильмов «Терминатор» и «Матрица». Эти мрачные сценарии хороши только для фильмов и новостных заголовков, но такое антиутопическое будущее настолько далеко и маловероятно, что разговор о нем лишь отвлекает нас от более насущных и более вероятных проблем. К тому же лично мне надоело сражаться с машинами.
В картине 1984 года «Человек со звезды» рассказывается о наивном инопланетянине, который попадает на Землю (его сыграл Джефф Бриджес). Пришелец пытается вписаться в человеческое общество и учится обычаям землян, наблюдая за их поведением, — такая вот инопланетная версия универсального машинного обучения. Естественно, он делает массу забавных ошибок, но самую серьезную совершает тогда, когда садится за руль автомобиля. Он на скорости проскакивает перекресток, провоцируя аварию, и так объясняет своей подруге Дженни свой поступок:
Инопланетянин: Все в порядке?
Дженни: В порядке? Ты сошел с ума? Ты чуть не убил нас обоих! Ты сказал, что наблюдал за мной. И сказал, что знаешь дорожные правила!
Инопланетянин: Я знаю правила.
Дженни: К твоему сведению, на светофоре был желтый свет.
Инопланетянин: Я наблюдал за тобой очень внимательно. Красный цвет — стоять. Зеленый — можно ехать. Желтый — ехать очень быстро.
Дженни: Дай-ка лучше я сяду за руль.
Блестящий эпизод! Как и в случае шахматной программы, которая научилась подражать гроссмейстерам, отдающим своего ферзя, изучение правил только путем наблюдения может привести к катастрофе. Компьютеры, как инопланетные пришельцы, не имеют того, что мы называем здравым смыслом или интуицией, и не знают контекста, если только мы не сообщим его им или они не смогут создать его сами. На самом деле Человек со звезды не был абсолютно не прав; ему просто не хватило данных, чтобы понять, что ускорение на желтый свет зависит от более широкого контекста. Несмотря на петабайты данных, загруженных в память Watson, и миллиарды примеров, скормленных бездонному чреву Google Translate, эти программы иногда выдают странные результаты. Но, как это часто бывает в науке, мы извлекаем гораздо больше ценных знаний из непростых ситуаций, чем из благоприятных.
Весьма показателен ответ суперкомпьютера Watson на вопрос о том, какая «анатомическая особенность» была у одного из гимнастов — участников Олимпийских игр 1904 года. Сначала чемпион Jeopardy! Кен Дженнингс неуверенно предположил, что «у того была одна рука». Но он оказался неправ. Следующим свою версию предложил Watson: «Нога» (на самом деле в соответствии с правилами викторины он спросил: «Что такое нога?»{44}
) — причем уровень достоверности этого ответа составил 61 %. Было совершенно ясно, что произошло. Гимнаст Джордж Эйсер лишился ноги и выступал с деревянным протезом. Поиск в базе данных дал множество результатов с именем Эйсер и словом «нога», обозначавшим анатомическое понятие. Пока все шло хорошо. Но дальше компьютер не смог понять, что наличие одной ноги не является «анатомической особенностью». Дженнингс ошибся по-человечески, сделав логичное предположение на основе нехватки данных. Watson ошибся как машина, имея правильные данные, но не сумел поместить их в широкий контекст, помогающий людям не выходить за границы здравого смысла.Не знаю, был ли запрограммирован Watson обращать внимание на предыдущие ответы, но думаю, что в этом случае он бы сумел скомбинировать правильные данные с правильным предположением Дженнингса. На месте третьего игрока, Брэда Раттера — еще одного чемпиона Jeopardy! я бы так и поступил. Но он не доверял Watson, поскольку это было первое шоу с участием компьютера. Если бы Раттер воспользовался ответом Watson, моя идея о том, что люди и машины с искусственным интеллектом могут продуктивно работать вместе, получила бы подтверждение.
Любой, кто много путешествует, знает, насколько актуальна проблема адекватного перевода. Задолго до того, как интеллектуальные программы сделали для нас доступными многие языки, указатели, вывески и меню по всему миру изобиловали странными фразами наподобие «Комната отдыха для слабых»{45}
в аэропорту или «Тарелка с маленькими глупцами» в списке предлагаемых в ресторане блюд. Теперь Google и другие сервисы с лёту переводят целые веб-страницы, как правило, достаточно точно, чтобы понять смысл текста.