Как мы видим, в настоящее время Китай только в одной области – ИИ восприятия опережает США и через пять лет этот разрыв ещё больше увеличится в пользу Китая. По ИИ интернета соотношение сил в настоящее время примерно равно, но через пять лет Китай добьётся небольшого преимущества. В области же ИИ для бизнеса и автономного ИИ Китай ощутимо отстаёт. Но через пять лет, по прогнозу Кай-Фу Ли, Китай сравняется с США в автономном ИИ и несколько сократит разрыв в ИИ для бизнеса. В любом случае, эти обе державы намного вырвались вперёд в исследованиях искусственного интеллекта и в вопросах практического применения достижений в этой области.
II. Будущее искусственного интеллекта и угрозы, которые он несёт
Будущее ИИ.
Следующим этапом в исследованиях по искусственному интеллекту, отмечает Кай-Фу Ли, может стать сильный искусственный интеллект
– СИИ. Люди научатся создавать мыслящие машины, способные выполнять любые интеллектуальные задачи, с которыми справляется человек, и делать то, что человеку недоступно.Существует мнение, что с появлением СИИ у машин, способных к самосовершенствованию, начнётся стремительное развитие компьютерного интеллекта. Это явление часто называют сингулярностью
или эрой искусственного сверхразума. Если так произойдёт, мир могут заполнить компьютеры, превосходящие людей в интеллектуальном плане настолько, насколько мы превосходим насекомых.Такие фантастические предсказания разделили большую часть интеллектуального сообщества на два лагеря: утописты и сторонники антиутопии.
Утописты видят в расцвете СИИ и наступлении сингулярности последний рубеж, отделяющий нас от светлого будущего, в котором человечество раздвинет границы сознания и победит смерть.
Рэй Курцвейл, изобретатель и крупнейший идеолог Google, считает, что в будущем люди и машины сольются воедино. По его представлению, люди будут «загружать» свой разум в облака и постоянно обновлять ткани тела с помощью специально обученных нанороботов, введённых в кровоток. Курцвейл предсказывает, что к 2029 г. мы получим компьютеры с интеллектом, сравнимым с человеческим, т.е. СИИ, а точка сингулярности будет достигнута к 2045 году.
Другие мыслители-утописты видят в СИИ средство, которое позволит нам быстро разгадать тайны Вселенной. Основатель DeepMind Демис Хассабис считает, что с помощью сверхчеловеческого интеллекта мы сможем разрешить задачи, которые раньше казались неразрешимыми: остановим глобальное потепление и научимся побеждать ранее неизлечимые заболевания. Сверхразумные компьютеры помогут человечеству справиться с его бедами и люди приблизятся к божественному всеведению и всемогуществу.
В лагере антиутопистов не все настроены столь оптимистично. Илон Маск назвал суперинтеллект «самой большой опасностью, с которой мы можем столкнуться как цивилизация», сравнивая его создание с «призывом демонов».
По большей части сторонники антиутопической версии будущего не боятся, что ИИ захватит мир, как это было показано в фильмах вроде «Терминатора», в которых человекоподобные роботы охотятся на людей, охваченные жаждой поработить человечество.
Суперинтеллект будет продуктом, созданным человеком, а не появившимся в результате естественной эволюции, а потому у него не может быть инстинктов выживания, размножения или доминирования, которые управляют поведением людей или животных. Скорее всего, он будет стремиться достичь поставленных перед ним целей наиболее эффективным способом. Опасность, по мнению антиутопистов, состоит в том, что если люди окажутся препятствием на пути к достижению одной из этих целей – например, обратить вспять глобальное потепление, то суперинтеллект может легко, даже случайно, стереть людей с лица Земли. Глубокое понимание химии, физики и нанотехнологий позволит ИИ мгновенно достичь требуемого ему результата. Исследователи называют это «проблемой управления» или «проблемой выравнивания значений», причём она беспокоит даже тех, кто относится к СИИ с оптимизмом.
Прогнозы о том, когда будут достигнуты такие результаты, сильно расходятся. Ник Бостром, автор книги «Искусственный интеллект. Этапы. Угрозы. Стратегии», вышедшей в 2014 г., приводит мнение специалистов по ИИ, которые склоняются к тому, что СИИ появится к 2040 г., а суперинтеллект, скорее всего, в течение трёх десятилетий после этого.
В то же время Кай-Фу Ли считает, что ни один из вышеописанных сценариев, будь то бессмертный цифровой разум или всемогущий суперинтеллект, нельзя реализовать на основе современных технологий – учёные пока ещё не нашли чётких алгоритмов для СИИ и не особенно приблизились к их открытию. Сингулярность не может возникнуть спонтанно и автономные транспортные средства, в которых используются технологии глубокого обучения, не могут внезапно «проснуться» и понять, что способны объединиться и сформировать сверхразумную сеть.