До того как наши предки научились получать огонь искусственным путем (и неоднократно после этого), людям приходилось умирать непосредственно от воздействия источников огня, который должен был спасать им жизнь, потому что не умели с ним обращаться. В узком смысле слова их убивала погода, но если смотреть на вещи шире – отсутствие знаний. Многие из тех сотен миллионов, кто на протяжении всей истории умер от холеры, наверняка лежали в двух шагах от очагов, на которых можно было кипятить питьевую воду и тем самым спастись; но опять же они об этом не знали. В достаточно общем смысле различие между «стихийным» бедствием и бедствием, случившимся по невежеству, носит ограниченный характер. Если перенестись в момент перед любым из стихийных бедствий, которые, как говорится, «просто случились» или уготованы нам богами, то можно увидеть множество вариантов спасения, которыми пострадавшие не смогли воспользоваться, а иногда и просто не создали их. Все эти варианты складываются в одну всеобъемлющую возможность, которую они не смогли воплотить, – это формирование научной и технологической цивилизации, подобной нашей. Это традиции критики. Это Просвещение[865]
[866].Из всех экзистенциальных угроз, предположительно нависших над будущим человечества, выделяется разновидность проблемы 2000 года, характерная для XXI века: опасение, что нас поработит, намеренно или случайно, искусственный интеллект (ИИ), – трагедия, которую иногда называют робокалипсисом и часто иллюстрируют кадрами из фильмов про Терминатора. Как и в случае с проблемой 2000 года, некоторые умные люди воспринимают ее всерьез. Илон Маск, чья компания собирает автомобили, управляемые искусственным интеллектом, заявил, что эта технология «опаснее атомной бомбы». Стивен Хокинг, вещая через свой снабженный искусственным интеллектом синтезатор речи, предупредил, что она способна «возвестить конец рода человеческого»[867]
. Но есть и другие умные люди, которые не теряют по этому поводу сна и покоя, – в их числе большинство специалистов по искусственному интеллекту и специалистов по интеллекту человека[868].Сценарии робокалипсиса базируются на расплывчатой концепции интеллекта, которая восходит скорее к идеям Великой цепи бытия и ницшеанской воли к власти, чем к современной научной картине реальности[869]
. Согласно этой концепции, интеллект – всемогущий эликсир осуществления желаний, которым разные субъекты обладают в разном количестве. У людей его побольше, чем у животных, а искусственному интеллекту или роботам будущего его достанется еще больше. Мы, люди, применив свой умеренный запас интеллекта, смогли приручить или уничтожить не настолько богатых им животных (а технологически развитые общества смогли поработить или уничтожить технологически отсталые народы); следовательно, сверхсообразительный искусственный интеллект сделает то же самое с нами. А так как ИИ способен думать в миллион раз быстрее нас и будет использовать эту свою способность, чтобы наращивать собственную интеллектуальную мощь в геометрической прогрессии (сценарий, который иногда обозначают словом «фум», foom – так в комиксах изображается звук резкого взлета), мы окажемся не в силах его остановить, стоит ему один раз включиться[870].