Главная > Физика > Введение в статистическую радиофизику. Часть 1. Случайные процессы
<< Предыдущий параграф
Следующий параграф >>
<< Предыдущий параграф Следующий параграф >>
Макеты страниц

§ 7. Нормальный или гауссов закон распределения

В области применимости распределения Лапласа количество произведенных испытаний N, в сущности, уже не представляет интереса. Заранее известно, что за данное время t брауновская частица совершила чрезвычайно большое количество N (не существенно — какое именно) очень малых перемещений, и важно только распределение результирующего перемещения s (или результирующей амплитуды в задаче о сложении колебаний со случайными амплитудами ). Поэтому здесь также целесообразно перейти к «локальному» описанию , т. е. к непрерывному распределению дающему вероятность попадания s в интервал

Какова вероятность того, что лежит в интервале Этому интервалу отвечает интервал от до , т. е. в нем укладывается значений . Это число растет, как в то

время как относительная ширина интервала убывает, как

Все значения для , попадающих в интервал ширины а практически одинаковы, а реализация любого из них является одним из взаимно исключающих частных случаев интересующего нас события. Поэтому, согласно аксиоме сложения, получаем

— нормальный или гауссов закон распределения.

Теорему Муавра — Лапласа можно, следовательно, формулировать и так: биномиальный закон с переходит при в нормальный закон для х, причем равномерно для любых конечных

Закон (7.1) получен для так называемой нормированной случайной величины

т. е. такой, у которой среднее значение равно нулю а дисперсия равна единице Если переписать гауссово распределение для ненормированной величины у со средним значением у и с дисперсией то, поскольку получим

В частности, для перемещения s за время t при изотропном блуждании броуновской частицы мы нашли ранее (стр. 32), что , где — коэффициент диффузий. Следовательно,

В начальный момент плотность превращается в (частица с достоверностью находится в точке а затем — с ростом t — происходит неограниченное расплывание распределения, как показано на рис. 2.

Нетрудно подсчитать, что для распределенной по нормальному закону (7.2) случайной величины у центральные, моменты

имеют следующие значения:

Как уже было отмечено, распределение Гаусса имеет очень большое и очень общее значение. Задача Бернулли при больших — лишь одна из многих, приводящих к этому распределению. В дальнейшем мы еще обратимся к тем причинам, которые обусловливают особую роль и широкое распространение нормального закона. Здесь же достаточно напомнить следующее.

Вероятность состояния совокупность обобщенных координат q и импульсов для системы в термостате с энергетической температурой ( — постоянная Больцмана) дается так называемым каноническим распределением Гиббса:

где Y — свободная энергия, — гамильтониан системы. В тех случаях, когда Н — неотрицательная билинейная форма, мы имеем именно гауссово (многомерное) распределение. Для кинетической энергии, дающей распределение по скоростям, это справедливо всегда. Так, для одной частицы в силу того, что ее кинетическая энергия есть из (7.4) следует нормальное распределение для , т. е. максвелловское распределение:

Рис. 2.

Отсюда для распределения абсолютной величины скорости v вытекает закон

уже не являющийся нормальным.

Иногда вызывает недоумение следующий парадокс. Согласно (7.5) сколь угодно большие значения v имеют конечную вероятность

Следовательно, конечную вероятность имеет и тот заведомо невозможный случай, когда одна молекула обладает кинетической энергией, превышающей энергию всего газа (всего термостата). Дело здесь как раз в предельном переходе от очень больших, но конечных N к . Ведь для в биномиальном законе возможны значения только от 0 до N, распределения же Пуассона и Лапласа допускают любые При переходе от к непрерывному нормальному распределению верхняя граница отсутствует и для

Если рассматриваемая физическая система находится вблизи устойчивого состояния равновесия, совершая малые отклонения от него (флуктуации), то во многих случаях можно считать и потенциальную энергию неотрицательной квадратичной формой, т. е. распределение координат тоже гауссово.

Поясняя роль нормального распределения, мы сослались на примеры распределений Гиббса и Максвелла, т. е. на распределения, характеризующие систему случайных величин. Это естественное обобщение — переход от одной случайной величины к совокупностям таких величин и соответственно от одномерного распределения к многомерным — существенно как для непосредственных приложений, так и в качестве очередного шага на пути к теории случайных процессов. Достаточно заметить, что довольно часто используется способ задания случайной функции как детерминированной функции t и некоторой системы случайных параметров

Переход от одной случайной величины к системе таких величин особенно важен еще и потому, что именно здесь входит понятие о статистической зависимости между случайными величинами. Напомним, что означает статистическая независимость.

Пусть — возможные значения случайной величины Величины называются попарно независимыми (или, как еще говорят, независимыми в совокупности), если их совместная функция распределения распадается на произведение функций распределения каждой из них:

Очевидно, такая же формула справедлива при этом и для плотностей вероятности:

а любой смешанный момент порядка распадается на произведение моментов:

В частности, для двух независимых случайных величин имеем

Однако обращение разности в нуль еще не означает статистической независимости g и . Статистическая связь между g и мерой которой служит разность называется корреляцией случайных величин g и Во многих случаях удобно пользоваться симметричной и безразмерной мерой корреляции — коэффициентом корреляции, который определен как

Нетрудно видеть, что при линейной связи имеем 1. Легко также показать, что всегда . При говорят, что величины g и некоррелированы, при корреляция отрицательна, а случай иногда (не очень удачно) называют антикорреляцией. Статистическая независимость случайных величин g и влечет за собой их некоррелированность, но обратное в общем случае неверно.

Среднее значение суммы случайных величин всегда равно сумме их средних значений, но дисперсия суммы случайных величин есть

Таким образом, дисперсия суммы равна сумме дисперсий при достаточном условии попарной некоррелированности всех случайных величин (что, как сказано, еще не означает их попарной независимости).

Систему случайных величин можно представлять себе как случайную точку или вектор в -мерном пространстве. Поэтому такую систему часто называют, как известно, -мерной случайной величиной.

Приведем в качестве примера общий вид нормального или гауссова закона распределения для -мерной случайной величины (сама величина называется при этом нормальной или гауссовой). Общее выражение этого закона таково:

где -неотрицательная симметричная квадратичная форма:

постоянная С выражается через элементы матрицы в соответствии с условием нормировки

Таким образом, поверхности равной плотности вероятности — это семейство вложенных друг в друга подобных -мерных эллипсоидов . Плотность вероятности максимальна в начале координат где она равна

Обычно нормальное распределение записывается в канонической форме, т. е. через так называемую корреляционную матрицу где — моменты второго порядка:

Если ввести стандарты компонент рассматриваемой «-мерной случайной величины то можно записать через коэффициенты корреляции

Очевидно, матрица В симметрична, как и исходная матрица А, Мы имеем поэтому уравнений (7.10), выражающих все независимые через независимые Если разрешить этй уравнения относительно и подставить полученные выражения через в (7.8) и (7.9), то распределение (7.8) принимает канонический вид:

Здесь — элементы матрицы обратной матрице В.

В частности, для двумерной нормальной случайной величины закон распределения будет

или, через стандарты и коэффициент корреляции

В числе многих других особенностей нормального распределения следует указать и на ту, что для него некоррелированность влечет за собой статистическую независимость. Из двумерной формулы (7.13) это видно непосредственно, так как при плотность вероятности становится произведением двух одномерных нормальных плотностей. Но то же самое нетрудно показать и в общем -мерном случае. Действительно, попарная некоррелированность g означает, что матрица В диагональна (отличны от нуля только ). Следовательно, диагональна и обратная матрица причем

В результате получаем из (7.11)

т. е. распадается на произведение одномерных нормальных плотностей вероятности каждой из величин

Таким образом, для нормальных случайных величин некоррелированность и независимость равнозначны.

Заметим в заключение, что в физической литературе широко принято обозначать случайную величину же буквой, что и ее возможные значения. Мы уже делали это выше, например, при рассмотрении модели брауновского движения: мы обозначали через как случайное число шагов вправо, так и возможные значения этого случайного числа. Такой прием сокращает количество употребляемых символов и в большинстве

случаев не приводит к недоразумениям. В дальнейшем мы будем поступать так же, используя разные обозначения для случайной величины и ее возможных значений лишь тогда, когда без этого действительно возможно искажение смысла.

<< Предыдущий параграф Следующий параграф >>
Оглавление