Читаем Последнее изобретение человечества полностью

Ученые-компьютерщики, особенно те, кто работает на оборонные и разведывательные ведомства, считают необходимым как можно быстрее разработать ИИ человеческого уровня, ведь альтернативы (к примеру, ситуация, когда китайское правительство создаст его первым) пугают их больше, чем поспешность в разработке собственного ИИ. Возможно, они спешат еще и потому, что ИИ необходим для лучшего управления другими капризными технологиями, появление которых ожидается в этом столетии. Например, нанотехнологий. Возможно, они не остановятся, чтобы обдумать тщательнейшим образом ограничения к самосовершенствованию. А совершенствующийся без всяких ограничений искусственный интеллект вполне может проскочить промежуток между обычным ИИ и ИСИ в варианте жесткого старта и дать толчок «интеллектуальному взрыву».

Мы не можем заранее знать, как поступит разум более мощный, чем наш. Мы можем лишь предполагать, какие способности такой интеллект сможет при желании против нас применить (к примеру, он может многократно дублировать себя, чтобы создать целую команду ИСИ для решения задач и одновременной проработки множества стратегических вопросов, связанных с освобождением и выживанием, и действовать при этом вне рамок морали). Наконец, было бы разумно считать, что первый ИСИ не будет настроен по отношению к нам ни дружественно, ни враждебно; ему будут попросту безразличны наше счастье, здоровье и благополучие.

Можем ли мы прогнозировать потенциальный риск от ИСИ? Уоррен Льюис в книге «Технологический риск» разбирает категории риска и классифицирует их по тому, насколько сложно такие риски учесть. Легче всего просчитываются риски событий, происходящих с высокой вероятностью и возможными серьезными последствиями (к примеру, поездка за рулем машины из одного города в другой). Здесь очень много информации, на которую можно опереться в расчетах. События с низкой вероятностью и серьезными последствиями (к примеру, землетрясения) происходят реже, поэтому предвидеть их сложнее. Но последствия таких событий настолько серьезны, что заниматься их прогнозированием имеет смысл.

Существуют также события, вероятность которых низка, потому что никогда прежде ничего подобного не происходило, но последствия которых очень серьезны. Хороший пример — резкое изменение климата в результате загрязнения окружающей среды. До 16 июля 1945 г. — первого испытания бомбы в районе Аламогордо на полигоне Уайт-Сэндз (штат Нью-Мексико) — еще одним таким событием был атомный взрыв. Технически именно к этой категории относится и искусственный суперинтеллект. Опыт в данном случае ничего не подсказывает. Невозможно просчитать вероятность этого события при помощи традиционных статистических методов.

Я уверен, однако, что при нынешних темпах развития ИИ изобретение сверхразума относится скорее к первой категории — это событие с высокой вероятностью и высоким риском. Более того, даже если бы вероятность этого события была низкой, масштабы риска должны были бы выдвинуть его на передний план нашего внимания.

Иначе говоря, я считаю, что Busy Child появится очень скоро.

Страх проиграть разуму, превосходящему человеческий, возник давно, однако только в начале этого века в Кремниевой долине был проведен хитроумный эксперимент, связанный с ИИ, и его результаты мгновенно породили в Интернете легенду.

Слух выглядел примерно так: одинокий гений заключил несколько пари с высокими ставками на игру по сценарию, который он назвал «ИИ в ящике». В ходе эксперимента роль ИИ играл этот самый гений. В роли Привратника выступали миллионеры, сделавшие себе состояние на всевозможных интернет-проектах; они по очереди играли роль создателя ИИ, перед которым стоит задача охранять и удерживать «взаперти» искусственный интеллект. ИИ и Привратник общались в онлайновом чате. Утверждалось, что при помощи одной только клавиатуры человек, игравший роль ИИ, каждый раз умудрялся улизнуть — и таким образом выиграл все пари. К тому же, что еще важнее, он доказал свое утверждение. Если он, обычный человек, сумел посредством слов открыть заключенному в «ящике» разуму путь на свободу, то любой ИСИ, который будет в десятки или в сотни раз умнее, тоже сможет это сделать, причем гораздо быстрее, что приведет, скорее всего, к гибели человечества.

По слухам, после эксперимента гений ушел в подполье. Сам эксперимент, а также статьи и монографии на тему ИИ, написанные этим гением, принесли ему такую известность, что у него даже появилось сообщество поклонников, общение с которыми, однако, никак не приближало его к цели, с которой он начинал эксперимент «ИИ в ящике», — спасти человечество.

В результате он исчез из поля зрения и поклонников, и журналистов. Но я, разумеется, захотел с ним поговорить

ГЛАВА 3

Взгляд в будущее

Перейти на страницу:

Похожие книги

История вычислительной техники в лицах
История вычислительной техники в лицах

Книга посвящена жизни и творчеству первосоздателей отечественной цифровой электронной вычислительной техники — С.А. Лебедева, И.С. Брука, Б.И. Рамеева, В.М. Глушкова, Н.Я. Матюхина, М.А. Карцева и др. — замечательной плеяде ученых из воистину уникального многонационального созвездия мощных талантов, обеспечивших взлет важнейших направлений науки и техники в первые десятилетия после Великой Отечественной войны.Впервые рассказывается о научных школах в области цифровой электронной вычислительной техники в годы ее становления, о результатах огромной самоотверженной работы ученых и руководимых ими коллективов по обеспечению вычислительной техникой космических исследований, атомной энергетики, ракетостроения, первоклассных систем слежения за космосом, противоракетной и противовоздушной обороны, что предотвратило сползание «холодной войны» к открытой агрессии против СССР, способствовало появлению договоров о разоружении.Многие архивные документы, фотоиллюстрации, собранные автором, известным ученым, свидетелем и участником работ по созданию первых ЭВМ, публикуются впервые.Для специалистов, учащихся и всех интересующихся вычислительной техникой, кибернетикой, информатикой, творческим наследием замечательных ученых, создателей первых отечественных ЭВМ.

Б Н Малиновский , Борис Николаевич Малиновский

История / Прочая научная литература / Образование и наука
А что, если они нам не враги? Как болезни спасают людей от вымирания
А что, если они нам не враги? Как болезни спасают людей от вымирания

Если вы когда-нибудь задавались вопросом, как человечество смогло выжить в этом полном опасностей мире, то вы по адресу. Генетик и врач Шарон Моалем выдвинул смелую гипотезу: выжить человечеству помогли… болезни! Мы не догадываемся о том, что все заболевания и то, как мы на них реагируем, – это многовековой результат нашего совместного следования по пути эволюции.[ul]Что общего у диабетика с древесной лягушкой?Как самостоятельно активировать у себя направленные мутации?Как солнцезащитные очки провоцируют солнечный ожог?Как научиться получать полезный витамин D из вредного холестерина?[/ul]На эти и многие другие вопросы вы найдете ответы в этой удивительной и, пожалуй, самой неоднозначной книге по генетике!Внимание! Информация, содержащаяся в книге, не может служить заменой консультации врача. Перед совершением любых рекомендуемых действий необходимо проконсультироваться со специалистом.

Шарон Моалем

Научная литература / Прочая научная литература / Образование и наука