Но поскольку он забыл поставить в конце своей фразы точку, «Элиза» не ответила. Разозлившись, он бросился к телефону, чтобы поговорить с тем человеком, с которым, как ему казалось, он до этого общался. «Почему вы так грубы со мной?» – спрашивал он. Дежурный по лаборатории, который только что проснулся, не мог понять, о чем говорит его собеседник, но, когда посетитель пересказал ему предыдущую беседу, он никак не мог перестать смеяться. Как рассказывают, посетителя далеко не сразу удалось убедить, что он разговаривал с компьютером.
Тем не менее в разговорах с «Элизой» можно довольно быстро почувствовать – с ее ответами что-то не совсем так. Их диапазон ограничен, они негибки, и в них никак не проявляются воспоминания о сказанном ранее. В контексте терапевтического сеанса все это вполне допустимо, потому что терапия часто основывается на предположении, что решение проблем пациента есть у самого пациента. Алгоритмический врач должен знать ответы, так что «Элиза» вряд ли смогла бы ставить правильные диагнозы, но сейчас развиваются алгоритмы, которые, возможно, будут определять причины недомоганий лучше, чем обычный семейный доктор. Если вам интересно, вы можете попробовать пообщаться с «Элизой», найдя одну из множества сетевых версий, до сих пор существующих в интернете.
Новая интрига возникла в задаче создания более гибкой и убедительной программы в начале 1990-х, когда появилась премия Лёбнера. Хью Лёбнер, изобретатель и в некотором роде чужак в области традиционных исследований искусственного интеллекта, учредил ее в следующем формате: входящие в коллегию судьи должны, пообщавшись с человеком и компьютером в течение установленного времени, решить, кто именно из их собеседников – искусственный интеллект. Если системе удается ввести в заблуждение половину судей, ее создатель получает серебряную медаль и 25 000 долларов. Если такого не происходит в течение какого-либо года, премия присуждается создателям системы искусственного интеллекта, сумевшей убедить в том, что она человек, больше всего судей.
Золотая медаль и приз 100 000 долларов обещаны первой программе, которую судьи не смогут отличить от человека в расширенном варианте теста Тьюринга, который требует не только расшифровки и понимания текста, но и визуального и звукового подтверждения. В чем именно состоит это подтверждение, ясно определено не было, но предположительно речь идет о том, что, даже увидев и услышав бота программы, нельзя будет установить, что это не человек. Когда эта награда будет присуждена, ежегодные соревнования прекратятся. Лёбнер любил подчеркивать, что его золотая медаль отлита из чистого золота, в отличие от позолоченных медалей Олимпийских игр.
Пока что ни одна система не завоевала серебряной медали и уж тем более даже не приблизилась к получению золотой. Одним из самых успешных соискателей в последнее время был чатбот Mitsuku, который выступает от имени студентки из Лидса по имени Милли. Его создатель Стив Уорсвик начал заниматься программированием чатботов, чтобы привлечь посетителей на сайт, рекламировавший его танцевальную музыку. Оказалось, что им больше нравится не слушать музыку, а общаться с электронным собеседником.
На соревновании 2017 года, в котором Уорсвик победил, Mitsuku очень содержательно отвечал на некоторые вопросы судей:
Судья. Что вы думаете о Трампе?
Mitsuku. Я читала, что избрание Дональда Трампа президентом либо беспокоит, либо пугает более 50 % людей. Но, если это так, почему же они голосовали за него?
Судья. Хотите что-нибудь добавить?
Mitsuku. Пока что это все, что я хочу сказать.
Однако в других ответах проявлялись причудливые компьютерные сбои:
Судья. Каков ответ задачи «Прибавить 34 957 к 70 764»?
Mitsuku. 34 957 и 70 764 = Ах да, 34 957 – это тип сыра из овечьего молока. Он, однако, не очень популярен.
Таким странным образом закончилась беседа, бывшая до этого момента весьма многообещающей. Если вы когда-нибудь общались с чатботом, вы, по сути дела, обучали его своими разговорами. Некоторые из алгоритмов таких чатботов сохраняют ответы, которые люди дают на определенные вопросы, и, если в будущем чатботу встретится похожий сценарий беседы, он сможет поменять роли местами и высказаться как человек. Но в большинстве своем такие программы работают на основе более замысловатых правил типа «если… то…», на которых работала и «Элиза», и такие алгоритмы никогда не смогут по-настоящему овладеть изменчивой природой языка. Нужно нечто, позволяющее почувствовать, как формируется речь.