Когда было объявлено о создании OpenAI, Альтман в отношении идеи моделирования человеческого разума был не так застенчив, как Суцкевер. «По мере того, как время идет и мы приближаемся к созданию того, что может превзойти человеческий разум629
, возникают вопросы о том, в какой мере компания Google будет готова поделиться своими достижениями», – сказал он. Когда его спросили, сможет ли OpenAI создать такую же технологию, он сказал, что рассчитывает на это630, и добавил, что OpenAI непременно поделится с обществом плодами своих трудов. «Это будет выложено в общий доступ631, и пользоваться этим смогут все, а не только, скажем, Google». Искусственный интеллект был самой масштабной идеей, какой когда-либо приходилось заниматься Альтману, но он смотрел на нее примерно так же, как и на все остальное, чем когда-либо занимался.В апреле 2018 года Альман и его коллеги опубликовали новый устав лаборатории632
, где миссия OpenAI излагалась совсем не так, как это звучало при ее создании. Выступая на открытии лаборатории, Альтман утверждал, что она будет открыто делиться результатами своих исследований. Потому-то ее и назвали OpenAI. Но ввиду той суматохи, которая была вызвана развитием генеративных моделей и технологии распознавания лиц, а также ввиду угроз, связанных с возможным созданием автономного летального оружия и нарушающих права граждан систем слежения, в новом уставе лаборатории теперь говорилось, что по мере необходимости она будет ограничивать обнародование некоторых технологий, пока не станет понятна степень их влияния на мир в целом. Такова была реальность, которую теперь осознавали многие организации. «Если вы с самого начала настраиваетесь на то, что это будет открытая платформа, которую каждый может использовать как угодно, последствия могут быть значительными, – говорит Мустафа Сулейман. – Прежде чем создавать какие-то технологии, нужно как следует подумать о том, в какой мере эта технология может быть использована не по назначению и как обеспечить надлежащий надзор». Ирония заключалась в том, что OpenAI довела эту осторожность до крайности. В последующие месяцы это стало для лаборатории новым способом продвижения на рынок. После создания новой системы анализа и синтеза речи, аналогичной Google’овской BERT, OpenAI через прессу объявила, что эту технологию слишком опасно выпускать в свет, поскольку она позволит злоумышленникам автоматически генерировать фейки и другую вводящую в заблуждение информацию. Многие специалисты подняли это утверждение на смех, заявив, что опасность технологии сильно преувеличена. И в конце концов ее все-таки обнародовали.В то же время в новом уставе OpenAI прямо и четко говорилось, что лаборатория занимается созданием AGI. Альтман и Суцкевер видели ограничения и опасности современных технологий, но их целью было создание машины, которая могла бы делать все то, что может делать человеческий мозг. «Миссия OpenAI состоит в том, чтобы гарантировать633
, что искусственный интеллект общего назначения (AGI) – под которым мы подразумеваем системы с высокой степенью автономии, способные выполнять экономически значимую работу эффективнее человека, – принесет пользу всему человечеству. Мы попытаемся сами создать полезные и безопасные формы AGI, но будем считать нашу миссию выполненной также и в том случае, если наши усилия помогут достичь этого результата другим разработчикам», – говорится в уставе. И Альтман, и Суцкевер заявляли, что они будут развивать AGI примерно так же, как DeepMind создавал системы, научившиеся играть в го и другие игры. Они утверждали, что для этого нужно лишь иметь достаточное количество исходных данных, нарастить вычислительные мощности и усовершенствовать алгоритмы анализа данных. Они знали о скептическом отношении многих специалистов и понимали, что эта технология может быть опасной. Но это их не беспокоило. «Моя цель – создать AGI, имеющий широкий спектр полезных функций, – говорит Альтман. – И я прекрасно понимаю, как смешно это звучит».