Зачем я затеял это переизложение основ? Дело в том, что не во всех учебниках порядок изложения таков, чтобы из него было четко видно, на каких допущениях основано определение вероятности и что получится, если какими-либо допущениями пренебречь. Первое, чем хочется пренебречь, это допущение аддитивности вероятности относительно несовместных событий. И что же? Не удалось мне здесь открыть Америку, увы. Еще в шестидесятых годах XX века профессор Берклиевского университета Лотфи Заде придумал «нечеткую логику», она же - теория «нечетких множеств», основное отличие формализма которой от теории вероятностей состоит именно в игнорировании данного допущения.
Профессор Заде предложил другой подход: в его формализме «степень принадлежности» объекта к объединению множеств вычисляется как максимум из «степеней принадлежности» его к каждому множеству. Соответственно, «степень принадлежности» объекта к пересечению множеств вычисляется как минимум из «степеней принадлежности» его к каждому множеству. Профессор обосновывает введение нового подхода некоторыми общефилософскими рассуждениями на тему того, что вероятность - это, якобы, «одно», а степень принадлежности - ну «совсем другое». Почему выбраны именно такие формулы, профессор также разъяснил вполне понятно. Оказывается, принципиальной роли это не играет, поскольку речь все равно идет о нечетких вещах, а считать так будет проще. Действительно, чем складывать или умножать, проще выбрать одно из чисел и все. Я тут в связи с этим думаю, не ввести ли мне новую арифметику, где вместо таблицы умножения будет таблица минимумов. Запоминать гораздо проще.
Но я не буду сейчас предаваться злобной критике теории «нечетких множеств», тем более, что японцы на ее основе понаделали нечетких процессоров, которые у них уже управляют всем от стиральных машинок до метрополитена. Как говорится, практика - критерий истины, а если сомневаешься - смотри философскую энциклопедию, определение критерия истины. Меня сейчас интересует другое: последствия конкретного игнорирования допущения об аддитивности. Как и следовало ожидать, в теории Заде понятие «степени принадлежности» совершенно утратило возможность статистической интерпретации. Может быть оно приобрело что-то ценное по сравнению с вероятностью (кроме простоты вычислений, конечно)? Но тут мне не удалось ничего раскопать, хотя профессор Заде и пытается в большинстве своих работ разъяснить, что вероятность вроде как имеет отношение к физическим явлениям и поэтому к понятиям неприменима, а вот принадлежность как раз подходит. Но я, почему-то, воспринимаю это как игру терминами и фактической разницы (кроме потери статистической интерпретации) не нахожу. Может именно возможность статистической интерпретации и, как следствие, возможность экспериментальной оценки мешала вероятности описывать неопределенные представления субъекта? На этом я остановлюсь чуть ниже.
А пока я хочу продолжить рассмотрение определений. Классическое определение оказалось вполне приемлемым, но как бы избыточным. Лишним оказалось как раз требование равновозможности элементарных исходов. Действительно, если предположить существование действительной числовой «меры возможности» событий, обладающей свойством аддитивности по отношению к несовместным событиям, то некоторые базовые формулы выводятся и без требования существования равновозможных элементарных исходов. Например, отлично выводится формула для вероятности объединения любых, в том числе совместных, событий.
Таким образом, у нас фактически остаются два существенных допущения - о числовом характере вероятности (что объясняется необходимостью сравнительных отношений) и об аддитивности. Третье допущение (о единичной вероятности достоверных событий) является тривиальным и я его не буду здесь обсуждать. А вот допущение об аддитивности обсудить следует.
Как мы помним из классического определения, там это допущение играло важную роль - обеспечивало совместимость понятия вероятности со статистическими представлениями. Можно ожидать того же и от сокращенного определения. Но не тут-то было. Зададимся вопросом: если вероятность события A в одном испытании равна p, то какова вероятность того, что в серии из n испытаний это событие произойдет i раз? В такой формулировке (т.е. без упоминания элементарных равновозможных исходов) это называется схемой Бернулли. В классической схеме мы без труда перешли от множества элементарных исходов единичного испытания, имеющего размерность m, к множеству элементарных исходов всей серии испытаний, имеющему размерность m в степени n. В схеме Бернулли такой переход затруднителен.
А дело в том, что в этом переходе содержится неявное допущение об однородности и независимости испытаний. Однородность заключается в том, что исход отдельного испытания не зависит от его порядкового номера, а независимость - в том, что он не зависит от исходов других испытаний. Для классической схемы этого достаточно: исход серии независимых испытаний определяется как совокупность исходов отдельных испытаний в серии. Т.е. множество исходов серии испытаний является произведением множеств исходов отдельных испытаний - чистая теория множеств без всяких дополнительных допущений. А поскольку все элементарные исходы в классическом определении всегда равновозможные, это же должно относиться и к исходам всей серии испытаний.
В схеме Бернулли, основанной на сокращенном определении вероятности, механизм для определения независимости отсутствует. А если что-то отсутствует, его необходимо доопределить. Вот только сделать это можно двумя способами: либо ввести произвольное допущение, либо ввести допущение, которое приводило бы что-нибудь с чем-нибудь в соответствие. Предлагается второй вариант - привести схему Бернулли в соответствие с классическим определением. Для этого достаточно взять классическое представление о независимости, вывести из него формулировку в терминах вероятностей (исключив все ссылки на элементарные равновозможные исходы) и использовать эту формулировку в качестве определения.
Классическое представление о независимости испытаний, как уже говорилось, состоит в том, что множество элементарных исходов серии испытаний является произведением множеств элементарных исходов отдельных испытаний. Если два события A и B, рассматриваются в рамках разных независимых испытаний, то они независимы. То же можно сказать и о более чем двух событиях. Рассчитанная по классической формуле вероятность пересечения таких событий является произведением вероятностей отдельных событий (что легко проверить). Это и предлагается взять за определение независимых событий для схемы Бернулли.
Надо заметить, что понятие независимости событий менее содержательно, чем понятие независимости испытаний, поскольку последнее предполагает независимость всех событий в рамках различных испытаний. Но для схемы Бернулли независимость испытаний и не нужна: в рамках серии испытаний могут иметь место любые зависимые события B, главное - чтобы рассматриваемые события A были независимы. Таким образом, сокращенное определение вероятности, согласно с принципами Оккама, все же помогло нам избавиться от определенных излишеств классической схемы.
Теперь, рассматривая различные исходы серии из n испытаний с точки зрения того, произошло в каждом из них событие A или нет, и используя вероятностную формулу независимости событий, можно вывести известное биномиальное распределение: вероятность того, что A будет иметь место в i испытаниях. А далее, по опробованной схеме можно доказать сходимость по вероятности доли исходов, в которых имело место событие A, к его вероятности.
В принципе, описанный «сокращенный» вариант и является современным определением понятия вероятности. Я, конечно, не вдавался в рассмотрение возможных пространств событий (так называемых «алгебр» и «сигма-алгебр»), но сути это не меняет. Такое определение шире классического, поскольку оно не требует равновероятности элементарных исходов, т.е. случай равновероятных исходов может рассматриваться как частный. Оно согласовано со статистическими представлениями, т.е. допускает экспериментальную оценку вероятности, и согласовано с традиционными представлениями теории множеств о независимости.
А теперь, я полагаю, следует упомянуть еще одно определение вероятности - «геометрическое». В нем речь идет об определении множества событий в виде протяженных объектов непрерывного измеримого континуума: линии, поверхности, пространства и т.д. Объекты такого континуума характеризуются определенной численной мерой: длиной, площадью, объемом и т.д. С этой мерой иногда и связывают вероятность. Это может иметь смысл по аналогии с классическим определением, если есть основания полагать, что «попадания» исходов испытаний в объекты равного объема являются равновозможными. Отличие от классической схемы состоит в том, что объемы рассматриваемых областей континуума могут определяться выбранной системой координат (сравните: в классической схеме никакое взаимно однозначное отображение не может изменить количества элементарных исходов). Таким образом, «геометрическая» вероятность привязана к определенной выделенной системе координат. С точки же зрения современного определения она, как и классическая вероятность, является лишь частным случаем.
Ну вот, с основами, вроде бы, покончили. Теперь можно попытаться дать ответ на вопрос, что же изучает теория вероятностей, что предлагал «рассчитывать» Христиан Гюйгенс? Вернувшись к истокам базовых допущений теории, видим ответ: рассчитываются «меры возможностей» событий с точки зрения текущего знания субъекта об объекте исследования. Причем, если определение меры выбрано правильно, то, как это формально доказано, в большом количестве независимых испытаний можно получить сколь угодно точную ее оценку. Таким образом, эта мера (вероятность) является не произвольно выбираемым параметром, а верифицируемым фактором.
Означает ли это, что вероятность является независимой от субъекта категорией поведения объекта, определяющей какую-то «частоту» события? Обсуждение этого вопроса смотрите далее.