Конечно, были коммунисты-догматики, категорически не желавшие менять свою точку зрения, и сегодня почти гарантированно найдутся люди, которые никогда не согласятся с тем, что ИИ может быть опасен. Многие упомянутые коммунисты принадлежали к советской номенклатуре; многие «отрицатели» рисков ИИ руководствуются финансовыми и иными прагматическими соображениями. Чаще всего мотивом выступает корпоративная прибыль. ИИ – чрезвычайно прибыльное направление исследований и разработок; даже в тех случаях, когда это не так, вы демонстрируете приверженность моде и умение держать нос по ветру, что полезно для компании. Поэтому многие пренебрежительные отзывы диктуются корпоративным пиаром и юридическими контрактами. В определенном смысле большие корпорации суть нечеловеческие машины, преследующие собственные интересы, и их интересы могут не совпадать с интересами любого сотрудника такой корпорации. Как замечал Винер в «Человеческом применении человеческих существ»: «Когда человеческие атомы сплачиваются в организацию, в которой они используются не в соответствии со своим назначением, как разумные человеческие существа, а подобно зубцам, рычагам и стержням, не имеет большого значения то обстоятельство, что их «сырьем» послужили плоть и кровь».
Другим сильным стимулом закрывать глаза на риски ИИ оказывается человеческое (слишком человеческое) любопытство, которое не ведает границ. «Когда вы видите что-то технически полезное, то идете вперед и делаете, а с последствиями разбираетесь, только когда добились технического успеха. Так было с атомной бомбой», – сказал когда-то Дж. Роберт Оппенгеймер. Его слова недавно повторил Джеффри Хинтон, которого считают основоположником глубинного обучения; он говорил о рисках ИИ: «Я мог бы привести обычные доводы, но правда в том, что перспектива открытий манит неудержимо».
Безусловно, предпринимательским устремлениям и научной любознательности следует воздать должное за многое из того, что кажется нам сегодня само собой разумеющимся. Но важно понимать, что прогресс вовсе не обязательно сулит исключительно благо. Цитируя Винера: «Можно верить в прогресс как факт, не веря в него как в этический принцип».
В конечном счете мы не можем позволить себе роскошь ждать, пока все руководители корпораций и исследователи ИИ согласятся признать риски ИИ. Вообразите, что вы сидите в самолете, который готовится к взлету. Внезапно объявляют, что, по мнению 40 процентов экспертов, на борту заложена бомба. В этот момент ход действий очевиден, и дожидаться мнения оставшихся 60 процентов экспертов никто не будет.
Будучи, как ни странно, предсказуемыми, предупреждения первых ИИ-диссидентов о рисках искусственного интеллекта обладали существенным недостатком – как и версия, ныне доминирующая в публичном дискурсе: налицо серьезная недооценка масштабов проблемы и потенциала ИИ. Иными словами, послание неадекватно извещает о том, каковы ставки в игре.
Винер предостерегал в первую очередь насчет социальных рисков: вследствие чрезмерно поспешной интеграции машинных решений с процессами управления и неправильного использования (людьми) таких автоматических решений. Аналогичным образом, нынешние «серьезные» дебаты о рисках ИИ ведутся главным образом вокруг таких вопросов, как технологическая безработица или побочные эффекты машинного обучения. Хотя подобные дискуссии могут приносить пользу и затрагивают насущные краткосрочные проблемы, они потрясающе узки по охвату. Вспоминается шутка из блога Юдковски: «Рассуждать о влиянии суперинтеллекта на обычный человеческий рынок труда – все равно что спрашивать, как пострадают американо-китайские торговые отношения от падения Луны на Землю. Последствия, разумеется, будут, но суть-то не в них».
На мой взгляд, главное в рисках ИИ то, что сверхразумный ИИ несет угрозу всей окружающей среде. Позвольте объяснить.
В своей притче о мыслящей луже[89]
Дуглас Адамс описывает лужу, которая просыпается поутру в яме и сознает, что ей хорошо и удобно. На основании этого наблюдения лужа приходит к выводу, что весь мир создан именно для нее. Поэтому, говорит Адамс, «миг исчезновения, скорее всего, застает лужу врасплох». Предполагать, будто риски ИИ ограничиваются неблагоприятными социальными изменениями, значит допускать аналогичную ошибку. Суровая реальность заключается в том, что Вселенная не создавалась конкретно под нас; эволюция установила человечеству крайне узкий диапазон параметров окружающей среды. Например, нам нужно, чтобы атмосфера на уровне поверхности имела приблизительно комнатную температуру при давлении около 100 кПа и достаточной концентрации кислорода. Любое нарушение, даже временное, этого неустойчивого равновесия, грозит нам гибелью в считаные минуты.