Святой Грааль в сфере ИИ – это неконтролируемое обучение, в ходе которого ИИ самообучается без осуществления тщательной подготовки. Всеобщий восторг вызвало заявление разработчиков DeepMind о том, что их алгоритмы «способны самостоятельно обучаться непосредственно на основе первичного опыта или исходных данных». Компания Google приобрела компанию DeepMind в 2014 году за 500 миллионов долларов, после того как та продемонстрировала ИИ, который научился играть в различные старые компьютерные игры Atari, просто наблюдая за тем, как в них играют.
Вызвавшая широкий общественный резонанс победа AlphaGo над Ли Седолем, одним из лучших игроков в го, стала важным этапом для ИИ: это игра очень сложная, в ней невозможно использовать грубый анализ всех возможных шагов. Но соучредитель DeepMind Демис Хассабис писал: «Мы все еще далеки от создания машины, которая может научиться с легкостью выполнять весь спектр интеллектуальных задач, которые может выполнить человек, что является отличительной чертой настоящего искусственного интеллекта».
Ян Лекун также осадил тех, кто слишком превозносил значимость победы AlphaGo, написав: «Основная часть обучения людей и животных – это неконтролируемое обучение. Если представить интеллект в виде торта, то неконтролируемое обучение будет коржом, контролируемое обучение будет глазурью на торте, а укрепляющее обучение будет вишенкой на торте. Мы знаем, как сделать глазурь и вишенку, но мы не знаем, как сделать корж. Нам необходимо решить проблему неконтролируемого обучения, прежде чем мы сможем хотя бы подумать о создании истинного ИИ».
На данный момент в процесс всегда вовлечены люди, не только в проектирование модели, но и в обработку данных, которые предоставляются модели для обучения. Это может привести к непредвиденной ошибке. Возможно, наиболее важным вопросом в создании ИИ является не разработка новых алгоритмов, а то, как убедиться в том, что наборы данных, при помощи которых мы их обучаем, являются по сути объективными. Книга Кэти О’Нейл «Weapons of Math Destruction» содержит крайне важную информацию по этому вопросу. Например, если бы вам понадобилось подготовить модель машинного обучения для превентивных полицейских мер, основываясь на наборе данных с записями арестов, но не принимая во внимание, что полиция арестовывает людей с темным цветом кожи, а белым говорит «больше не попадайся», то ваши результаты были бы сильно искажены. Для результата гораздо важнее характеристики обучающих данных, чем алгоритм. Неспособность это осознать – сама по себе является необъективностью, с которой будет трудно справиться тем, кто долго изучал информатику до появления машинного обучения.
Этот пример также дает представление о том, как работают модели машинного обучения. В любой заданной модели есть множество векторов функций, создающих n-мерное пространство, в которое классификатор или распознаватель помещает каждый новый элемент, требующий обработки. Несмотря на фундаментальные исследования, направленные на разработку совершенно новых алгоритмов машинного обучения, основная часть тяжелой работы в прикладном механическом обучении заключается в определении функций, которые с наибольшей вероятностью могут предугадать желаемый результат.
Однажды я спросил Джереми Ховарда, бывшего главного технического директора Kaggle, компании, которая проводит соревнования по краудсорсинговому анализу данных, что отличает победителей от проигравших. (Сам Джереми пять раз становился победителем, прежде чем присоединиться к Kaggle.)«Креативность, – сказал он мне. – Все используют одни и те же алгоритмы. Разница заключается в том, какие функции вы хотите добавить в модель. Вы ищете неординарные идеи о том, что может стать предиктивным». (Однако Питер Норвиг отметил, что граница, где необходимо проявить творчество, уже сдвинулась: «Безусловно, это было верно в те времена, когда победителями Kaggle становились такие технологии, как алгоритмы Random Forest и методы опорных векторов. Что касается сетей, использующих технологию глубинного обучения, в них гораздо чаще используется каждая доступная функция, поэтому креативность проявляется в выборе архитектуры модели и в настройке гиперпараметров, а не в выборе функций».)
Возможно, самым важным вопросом для машинного обучения, впрочем, как и для любой новой технологии, является то, какие проблемы мы должны решить в первую очередь. Джереми Ховард стал соучредителем Enlitic, компании, которая использует машинное обучение для анализа снимков диагностической радиологии, а также для сканирования многих других видов клинических данных для определения вероятности и актуальности проблемы, которую врачу-человеку следует рассмотреть более подробно. Учитывая, что ежегодно в Соединенных Штатах делается более 300 миллионов рентгеновских снимков, можно предположить, насколько возможности машинного обучения способны снизить стоимость и улучшить качество медицинского обслуживания.