Возьмем проблему распознавания наличия кошки на фотографии. При старом подходе машине пришлось бы моделировать весь процесс принятия решений, используемый человеком для обнаружения кошки. Современный подход обходит этап моделирования или даже понимания того, как люди принимают решения. Вместо этого он опирается на большой набор данных о людях, принимающих правильные решения о распознавании на основе изображений. Затем он подгоняет статистическую модель к большому набору данных об особенностях изображения, чтобы предсказать, когда человек скажет, что в кадре находится кошка. Впоследствии она применяет расчетную статистическую модель к новым изображениям, чтобы предсказать, есть там кошка или нет.
Прогресс стал возможен благодаря более высокой скорости компьютерных процессоров, а также новым графическим процессорам (GPU), изначально использовавшимся для создания графики высокого разрешения в видеоиграх, которые оказались мощным инструментом для обработки данных. Также были достигнуты значительные успехи в области хранения данных, что позволило снизить стоимость хранения и доступа к огромным массивам данных, и улучшилась способность выполнять большие объемы вычислений, распределенных по многим устройствам, чему способствовали быстрые достижения в области микропроцессоров и облачных вычислений.
Не менее важным был прогресс в машинном обучении, особенно в "глубоком обучении", с использованием многослойных статистических моделей, таких как нейронные сети. В традиционном статистическом анализе исследователь обычно начинает с теории, определяющей причинно-следственную связь. Гипотеза, связывающая оценку стоимости фондового рынка США с процентными ставками, является простым примером такой причинно-следственной связи, и она, естественно, поддается статистическому анализу для исследования того, соответствует ли она данным, и для прогнозирования будущих изменений. Теория возникает на основе человеческих рассуждений и знаний, часто основанных на синтезе прошлых представлений и некоторого творческого мышления, и определяет набор возможных взаимосвязей между несколькими переменными. Объединяя теорию с соответствующим набором данных, исследователи подгоняют линию или кривую к облаку точек в наборе данных и на основе этих оценок делают выводы и прогнозы. В зависимости от успеха этого первого подхода потребуется дополнительный вклад человека в виде пересмотра теории или полной смены фокуса.
В отличие от этого, в современных приложениях ИИ исследование не начинается с четких причинно-следственных гипотез. Например, исследователи не уточняют, какие характеристики цифровой версии изображения важны для его распознавания. Многослойные модели, применяемые к огромным объемам данных, пытаются компенсировать отсутствие предварительных гипотез. Каждый слой может иметь дело в первую очередь с различным уровнем абстракции; один слой может представлять края изображения и определять его широкие контуры, в то время как другой может сосредоточиться на других аспектах, например, на том, присутствует ли там глаз или лапа. Несмотря на эти сложные инструменты, без сотрудничества человека и машины трудно сделать правильные выводы из данных, и этот недостаток мотивирует потребность во все больших объемах данных и вычислительной мощности для поиска закономерностей.
Типичные алгоритмы машинного обучения начинаются с подгонки гибкой модели к выборочному набору данных, а затем делают прогнозы, которые применяются к большему набору данных. Например, в распознавании изображений алгоритм машинного обучения может быть обучен на выборке помеченных изображений, которые могут указывать на то, содержит ли изображение кошку. Этот первый шаг приводит к созданию модели, которая может делать предсказания на гораздо большем наборе данных, а эффективность этих предсказаний служит основой для следующего раунда усовершенствования алгоритмов.
Этот новый подход к ИИ уже имеет три важных последствия. Во-первых, он переплел ИИ с использованием огромного количества данных. По словам ученого в области ИИ Альберто Ромеро, который разочаровался в этой отрасли и покинул ее в 2021 году: "Если вы работаете в области ИИ, вы, скорее всего, собираете данные, очищаете данные, маркируете данные, разделяете данные, обучаетесь на данных, оцениваете данные. Данные, данные, данные. И все это для того, чтобы модель сказала: Это кошка". Такое внимание к огромному количеству данных является фундаментальным следствием акцента на автономность, вдохновленного Тьюрингом.