В левой части рисунка 3.6 показан пример такого условия, в котором веса пяти подсказок равны 1, 1/2, 1/4, 1/8 и 1/16. Это также пример более сильной версии условия доминирующей подсказки, когда вес любой подсказки больше, чем сумма весов последующих подсказок. В этом случае гарантируется, что однопричинные последовательные эвристики, такие как "бери лучшее" и "быстрое и экономное дерево", никогда не будут превзойдены линейной моделью. 23
Рисунок 3.6
Распределения весов подсказок (wi), при которых эвристика одной причины и эвристика равенства являются экологически рациональными, соответственно. Слева: условие доминирующей подсказки, при котором предпочтение отдается эвристике одного основания. Справа: Условие равных подсказок, при котором предпочтение отдается эвристике равенства. По материалам Gigerenzer et al. (2022).
Когда веса всех подсказок равны, как показано в правой части рисунка 3.6, очевидно, что эвристика одной причины не может работать лучше, чем эвристика равенства, такая как подсчет. В этом состоянии равенства ни одна из подсказок не лучше другой; поэтому для принятия правильного решения необходимо учитывать все подсказки. Это также условие, при котором никакие линейные модели, по-разному взвешивающие сигналы, не могут превзойти подсчет голосов.
Когда подсказки сильно коррелируют, условие доминирующей подсказки более вероятно, так как информация, добавляемая другими подсказками, кроме самой валидной, ограничена. В вышеупомянутом исследовании, в котором изучался дельта-инференция в тридцати девяти реальных задачах, три главных подсказки в каждой задаче, как правило, были сильно коррелированы, и условие доминирующей подсказки выполнялось в большинстве случаев. Это основная причина, по которой дельта-инференция с дельтой в 0, которая принимает решение почти исключительно на основе наиболее валидной подсказки, справилась со всеми задачами так же хорошо, как и линейная регрессия. С другой стороны, когда подсказки независимы, условие равенства подсказок более вероятно. Хотя весовые коэффициенты подсказок редко бывают точно равными, эвристика равенства может быть экологически рациональной, когда весовые коэффициенты подсказок не сильно различаются или их трудно оценить из-за нестабильности и неопределенности среды, недостаточности данных или того и другого.
Дилемма смещения и дисперсии
Посмотрите на рисунок 3.7 . Два игрока бросали дротики в доску. Кто из игроков справился лучше? Большинство скажет, что игрок А. Однако у этого игрока явный перекос: все дротики попали в правую нижнюю часть "бычьего глаза". У игрока B нет предвзятости, так как среднее положение дротиков находится в "яблочке", однако дротики разбросаны повсюду и далеки от цели. Эта аналогия помогает объяснить, почему и когда эвристика предсказывает лучше, чем более сложные модели.
Рисунок 3.7
Иллюстрация дилеммы "смещение-вариация" на доске для игры в дартс. Дротики игрока А демонстрируют явное смещение, но лишь небольшую дисперсию, поскольку все дротики находятся в правом нижнем углу "бычьего глаза", но близко друг к другу. Дротики игрока B не показывают смещения, но имеют значительную дисперсию, так как среднее положение дротиков находится в "бычьем глазу", но каждый дротик находится довольно далеко от остальных. По материалам Gigerenzer et al. (2022).
Ошибка предсказания модели состоит из трех компонентов:
Ошибка прогноза = смещение2 + дисперсия + ε
где смещение - это систематическая разница между средним прогнозом модели и истинным значением, дисперсия отражает чувствительность модели к ошибке выборки, а ε - неустранимая ошибка, вызванная случайным шумом. 24 При прогнозировании продаж продукта, например, модель делает прогноз x1 на основе одной случайной выборки наблюдений, x2 - на другой выборке, а xS - на выборке s. Разница между средним значением этих прогнозов и истинными значениями продаж µ - это смещение, а изменчивость этих прогнозов вокруг - дисперсия.
В стабильном мире и при достаточном количестве данных можно найти модель, которая имеет как небольшое смещение, так и небольшую дисперсию. Однако в неопределенном мире и при ограниченном количестве наблюдений обычно возникает дилемма смещения-вариации: Модели с меньшим количеством свободных параметров имеют меньшую дисперсию, но большую погрешность, чем модели с большим количеством свободных параметров, что аналогично контрасту между двумя игроками в дартс. Такие эвристики, как 1/N, one-clever-cue и take-the-best, не имеют ни одного, одного или всего нескольких параметров для оценки. Поэтому, пользуясь меньшими дисперсиями, они часто имеют меньшие ошибки предсказания, чем высокопараметризированные модели, такие как множественная регрессия и байесовские модели. Это преимущество еще больше усиливается в условиях, когда эвристики имеют такое же смещение, как и сложные модели, например, в условиях доминирующей подсказки для эвристики "одна подсказка".