Точно так же, если мы верим Эрни, что он выдал нам лучший аргумент из тех, что мог, включая все логические шаги, которые он выполнил и все источники, на которые опирался — и которые цитировал — тогда мы можем игнорировать любую информацию о документах Эрни. Не имеет значения, клоун он или физик. (Опять же предполагается, что мы достаточно эрудированы, чтобы понять его аргументы. В любом другом случае Эрни просто произносит какие-то загадочные слова и то, поверим ли мы им, зависит в большей степени как раз-таки от его авторитета.)
Таким образом кажется, что между аргументами и авторитетом есть своеобразная асимметрия. Если мы знаем об авторитете, то мы все еще хотели бы услышать и аргументы; однако когда мы услышали аргументы, вряд ли нам нужно будет знать авторитетность источника.
Очевидно (скажет неопытный человек) авторитет и аргумент являются фундаментально различными видами свидетельства, различие которых непостижимо при помощи до скуки ясных методов байесовской теории вероятности. Поскольку при одинаковой силе свидетельства, 90% против 10%, ситуации ведут себя по-разному. Как же нам поступить?
Здесь примерно половина технической демонстрации того, как представить эту разницу в теории вероятности. (Остальное вы можете принять на веру, положившись на мой авторитет, или посмотреть в отсылках.)
Если
p(H|E
1
)=90%
p(H|E1)=90% и
p(H|E
2
)=9%
p(H|E2)=9%, какова вероятность
p(H|E
1
,E
2
)
p(H|E1,E2)? Если признание Е
₁
истиной дает нам возможность присвоить Н вероятность в 90%, и признание Е
₂
истиной дает возможность присвоить Н вероятность в 9%, какую вероятность мы должны присвоить Н, если верны и Е
₁
и Е
₂
? Это просто не что-либо, что вы можете вычислить в теории вероятности из имеющейся информации. Нет, отсутствующая информация это не априорные сведения об Н. Е
₁
и Е
₂
могут быть не независимыми друг от друга.
Предположим, что Н это «моя дорожка скользкая», Е
₁
это «разбрызгиватель работает» и Е
₂
это «сейчас ночь». Дорожка становится скользкой, если разбрызгиватель работает не меньше минуты и остается такой до тех пор, пока он не выключится. Так что если мы знаем, что разбрызгиватель включен, то с 90% вероятностью дорожка скользкая. Разбрызгиватель включен 10% ночного времени, так что если сейчас ночь, то вероятность того, что дорожка скользкая — 9%. Если же мы знаем, что сейчас ночь и разбрызгиватель включен — то есть если нам известны оба факта — вероятность того, что дорожка скользкая, равна 90%.
Мы можем представить это графически следующим образом:
Ночь
→
Разбрызгиватель
→
Скользкая дорожка
Ночь может приводить к включению разбрызгивателя, а включение разбрызгивателя может приводить к скользкой дорожке.
Тут важны направления стрелок. Если я напишу:
Ночь
→
Разбрызгиватель
←
Скользкая дорожка
Это означало бы, что если я не знаю ничего о разбрызгивателе, то вероятности того, что была ночь и что дорожка скользкая будут независимы друг от друга. Для примера предположим, что я бросаю одну кость и вторую кость, а потом складываю выпавшие числа в сумму:
Кость 1
→
Сумма
←
Кость 2.
Если вы не скажете мне сумму, а сообщите только число с первой кости — я не смогу узнать ничего о том, что выпало на второй кости. Однако если вы сообщите мне число на первой кости и общую сумму, то узнать число на второй кости не составит труда.
Определение того, являются ли разные куски информации зависимыми или независимыми друг от друга при заданной начальной информации, на самом деле является достаточно технической темой. Почитать об этом можно в книге Джуди Перл «Probabilistic Reasoning in Intelligent Systems: Networks of Plausible Inference and Causality». (Если у вас есть время на книги, то рекомендую вам прочесть эту.)
Если вы знаете, как читать причинные графы, тогда вы взглянете на граф про кости и сразу же увидите:
p(кость 1,кость2)=p(кость 1)∗p(кость 2)
p(кость 1,кость2)=p(кость 1)∗p(кость 2)
p(кость 1,кость2|сумма)≠p(кость 1|сумма)∗p(кость 2|сумма)
p(кость 1,кость2|сумма)≠p(кость 1|сумма)∗p(кость 2|сумма)
Если вы смотрите на верную диаграмму про дорожку, вы видите следующие факты:
p(скользкая дорожка|ночь)≠p(скользкая дорожка)
p(скользкая дорожка|ночь)≠p(скользкая дорожка)
p(скользкая дорожка|разбрызгиватель)≠p(скользкая дорожка)
p(скользкая дорожка|разбрызгиватель)≠p(скользкая дорожка)
p(скользкая дорожка|ночь,разбрызгиватель)=p(скользкая дорожка|разбрызгиватель)
p(скользкая дорожка|ночь,разбрызгиватель)=p(скользкая дорожка|разбрызгиватель)
То есть, вероятность того, что дорожка скользкая, учитывая знание о разбрызгивателе и ночи, равно вероятности, которую мы присваиваем скользкой дорожке, если знаем только о разбрызгивателе. Знание о разбрызгивателе делает знание о ночи неактуальным касательно дорожки.
Это известно как «затмение», и критерий, который позволяет нам распознавать такие условные независимости в причинно-следственных графах, называется Д-разбиение.
Для случая с аргументом и авторитетом, причинно-следственная диаграмма будет выглядеть так:
Истина
→
Качество аргумента
→
Убеждение эксперта.