Категории
Самые читаемые

Умный менеджмент - Jochen Reb

Читать онлайн Умный менеджмент - Jochen Reb

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 11 12 13 14 15 16 17 18 19 ... 65
Перейти на страницу:
сердечками.

Экологическая рациональность эвристики

Может ли быть так, что Элон Маск делает лучший выбор на основе одной причины, чем используя множество причин или целый центр оценки? Изучение экологической рациональности эвристик, основанных на одной причине, дает ответ на этот вопрос - и он утвердительный. Можно доказать, что существуют условия, при которых опора на одну причину так же хороша или даже лучше, чем рассмотрение большего количества информации. Условие доминирующей подсказки (о котором пойдет речь дальше) - одно из них. Однако изучение экологической рациональности также предписывает, когда другие классы эвристик должны быть успешными. Мы уже упоминали некоторые из этих условий. Здесь мы сосредоточимся на двух общих результатах. Первый показывает, что распределение весов подсказок служит ориентиром для выбора эвристик из набора адаптивных инструментов, а второй объясняет, почему простые эвристики могут предсказывать лучше, чем сложные модели в ситуациях неопределенности.

Признаки доминирования и равенства

Сигналы определяют как абсолютную, так и относительную эффективность эвристики. Как правило, эвристики, основанные на одной причине, экологически рациональны в условиях, когда существует доминирующая подсказка, в то время как эвристики равенства экологически рациональны, когда подсказки имеют равную силу. Чтобы понять, почему так происходит, рассмотрим ситуацию, в которой для принятия бинарного решения, например, нанимать или не нанимать, доступны n бинарных подсказок.

Линейная модель, которая взвешивает и складывает все сигналы, имеет вид

y = w1x1 + w2x2 + ... + wnxn

где y - критериальная переменная, xI - значение подсказки i (i = 1, ..., n), а wI - вес решения подсказки, который упорядочен и отражает относительный вклад подсказки после рассмотрения подсказки или подсказок более высокого ранга. Для упрощения все веса положительны. Модель предписывает "нанять", если y положительно; в противном случае - "не нанимать".

Эта линейная модель не может принимать решения более точно, чем эвристика с одним ключом, которая основывает свои решения исключительно на самом верном ключе (т. е. ключе1), если сумма весов всех других ключей меньше веса ключа1 - таким образом, другие ключи не могут отменить решения, принятые ключом1. 22 Это называется условием доминирующего ключа, при котором значения весов ключей таковы, что

В левой части рисунка 3.6 показан пример такого условия, в котором веса пяти подсказок равны 1, 1/2, 1/4, 1/8 и 1/16. Это также пример более сильной версии условия доминирующей подсказки, когда вес любой подсказки больше, чем сумма весов последующих подсказок. В этом случае гарантируется, что однопричинные последовательные эвристики, такие как "бери лучшее" и "быстрое и экономное дерево", никогда не будут превзойдены линейной моделью. 23

Рисунок 3.6

Распределения весов подсказок (wi), при которых эвристика одной причины и эвристика равенства являются экологически рациональными, соответственно. Слева: условие доминирующей подсказки, при котором предпочтение отдается эвристике одного основания. Справа: Условие равных подсказок, при котором предпочтение отдается эвристике равенства. По материалам Gigerenzer et al. (2022).

Когда веса всех подсказок равны, как показано в правой части рисунка 3.6, очевидно, что эвристика одной причины не может работать лучше, чем эвристика равенства, такая как подсчет. В этом состоянии равенства ни одна из подсказок не лучше другой; поэтому для принятия правильного решения необходимо учитывать все подсказки. Это также условие, при котором никакие линейные модели, по-разному взвешивающие сигналы, не могут превзойти подсчет голосов.

Когда подсказки сильно коррелируют, условие доминирующей подсказки более вероятно, так как информация, добавляемая другими подсказками, кроме самой валидной, ограничена. В вышеупомянутом исследовании, в котором изучался дельта-инференция в тридцати девяти реальных задачах, три главных подсказки в каждой задаче, как правило, были сильно коррелированы, и условие доминирующей подсказки выполнялось в большинстве случаев. Это основная причина, по которой дельта-инференция с дельтой в 0, которая принимает решение почти исключительно на основе наиболее валидной подсказки, справилась со всеми задачами так же хорошо, как и линейная регрессия. С другой стороны, когда подсказки независимы, условие равенства подсказок более вероятно. Хотя весовые коэффициенты подсказок редко бывают точно равными, эвристика равенства может быть экологически рациональной, когда весовые коэффициенты подсказок не сильно различаются или их трудно оценить из-за нестабильности и неопределенности среды, недостаточности данных или того и другого.

Дилемма смещения и дисперсии

Посмотрите на рисунок 3.7 . Два игрока бросали дротики в доску. Кто из игроков справился лучше? Большинство скажет, что игрок А. Однако у этого игрока явный перекос: все дротики попали в правую нижнюю часть "бычьего глаза". У игрока B нет предвзятости, так как среднее положение дротиков находится в "яблочке", однако дротики разбросаны повсюду и далеки от цели. Эта аналогия помогает объяснить, почему и когда эвристика предсказывает лучше, чем более сложные модели.

Рисунок 3.7

Иллюстрация дилеммы "смещение-вариация" на доске для игры в дартс. Дротики игрока А демонстрируют явное смещение, но лишь небольшую дисперсию, поскольку все дротики находятся в правом нижнем углу "бычьего глаза", но близко друг к другу. Дротики игрока B не показывают смещения, но имеют значительную дисперсию, так как среднее положение дротиков находится в "бычьем глазу", но каждый дротик находится довольно далеко от остальных. По материалам Gigerenzer et al. (2022).

Ошибка предсказания модели состоит из трех компонентов:

Ошибка прогноза = смещение2 + дисперсия + ε

где смещение - это систематическая разница между средним прогнозом модели и истинным значением, дисперсия отражает чувствительность модели к ошибке выборки, а ε - неустранимая ошибка, вызванная случайным шумом. 24 При прогнозировании продаж продукта, например, модель делает прогноз x1 на основе одной случайной выборки наблюдений, x2 - на другой выборке, а xS - на выборке s. Разница между средним значением этих прогнозов и истинными значениями продаж µ - это смещение, а изменчивость этих прогнозов вокруг - дисперсия.

В стабильном мире и при достаточном количестве данных можно найти модель, которая имеет как небольшое смещение, так и небольшую дисперсию. Однако в неопределенном мире и при ограниченном количестве наблюдений обычно возникает дилемма смещения-вариации: Модели с меньшим количеством свободных параметров имеют меньшую дисперсию, но большую погрешность, чем модели с большим количеством свободных параметров, что аналогично контрасту между двумя игроками в дартс. Такие эвристики, как 1/N, one-clever-cue и take-the-best, не имеют ни одного, одного или всего нескольких параметров для оценки. Поэтому, пользуясь меньшими дисперсиями, они часто имеют меньшие ошибки предсказания, чем высокопараметризированные модели, такие как множественная регрессия и байесовские модели. Это преимущество еще больше усиливается в условиях, когда эвристики имеют такое же смещение,

1 ... 11 12 13 14 15 16 17 18 19 ... 65
Перейти на страницу:
На этой странице вы можете бесплатно скачать Умный менеджмент - Jochen Reb торрент бесплатно.
Комментарии