Предельные теоремы занимают ключевое место в теории вероятностей. Эти теоремы значимы не только как элегантные теоретические результаты, но и как мост между теорией и практикой, объясняющий распространённость нормально распределённых величин в реальных экспериментах, а также их обобщения на устойчивые законы.
Одним из классических предельных законов является центральная предельная теорема, применимая к независимым одинаково распределённым величинам с конечной дисперсией.
Центральная предельная теорема:
Рассмотрим X1,..., Xn — бесконечную последовательность независимых и одинаково распределённых случайных величин с конечными средними E (X1) = ц и дисперсиями Var(X1) = а2. Тогда
- ''" п ^N (0,1)
&у/п
где -D обозначает сходимость по распределению.
Версия Линдеберга обобщает классическую центральную предельную теорему, допуская различия в распределениях величин. Однако для этого необходимо выполнение условий Линдеберга, которые, упрощённо говоря, требуют, чтобы дисперсия каждого слагаемого была мала по сравнению с дисперсией суммы.
Центральная предельная теорема Линдеберга:
Рассмотрим независимые случайные величины X1,..., Xn, определённые на одном вероятностном пространстве, каждая с конечным средним и дисперсией:
E (X,) = ц, Var(Xi) = а--.
Обозначим Sn У=П=1 X,. Тогда среднее и дисперсия суммы выражаются как:
E (Sn) = mn, Var(Sn) = s2n,
где тп = £n=1 Mi и ssn = YLi а1
Для применения теоремы необходимо выполнение условий Линдеберга: где 1{|х,-^,|>£вп} — функция-индикатор.
Тогда нормированная сумма сходится по распределению к стандартному нормальному распределению:
Sn - m'n ->N (0,1).
sn
Разумеется формулировка Линдеберга далеко не самая общая для предельных теорем, так что попробуем схематично обозначить те направления, в которых можно дальше обобщать центральную предельную теорему. Для этого внимательно посмотрим на классические условия и разберемся, какие из них можно ослабить:
I: Заметим, для выполнения вышеизложенных теорем мы накладываем очень сильное условие независимости на случайные величины в нашей сумме. Зачастую работать с полностью независмыми величинами не получается даже в теории, на практике же это условие очевидно нарушается сразу, потому что проверить полную независимость не получается, и скорее мы можем предполагать тот или иной вариант "слабой зависимости" величин, которая в свою очередь может проявляться в разным формах:
Подобная терминалогия оправда тем, что случайные величины X-1 + ... + Xn - очевидно образуют мартингал.
Свойство "мартингал-разности" является свойством "слабой зависимости" в том смысле, что у новой величны Xn нет направленного "дрифта" в зависимости от сигма-алгебры, порожденной предыдущими случайными величинами. Однако дисперсия (разброс вокруг нуля) Xn может зависить от истории ряда. Легко построить пример мартингала, предельное распределение которого при должной нормировке сходится к смеси нормальных распределений с разными дисперсиями. Поэтому логично, что предельные теоремы, работающие с мартингалами должны дополнительно требовать либо некую стационарность ряда, либо должны использовать более хитрую нормировку, зависящую от истории. С данными теоремами мы познакомимся в первой главе.
Концепт "мартингал-разностей" находит много применений на практике. Самым ярким из них является применение теории мартингалов в финансовой математике. Действительно, если предположить выполнение "гипотезы эффективного рынка" , которая говорит о том, что цена акции учитывает всю имеющуюся информацию на данный момент, то ясно, что направление движения цены (другими словами математическое ожидание по некоторой мере E (Xn+1 — Xn)) мы определить не можем, ведь вся направленная информация "уже в рынке" , однако про Var(Xn+i — Xn) ничего сказать не получается, и в свою очередь, на практике наблюдается свойство "кластеризации волатильности" , когда за большим движением цены статистически следуюет еще одно большое движение.
Тем самым строгое свойство независимости величин Xn+1 — Xn в мо- деле "эффективного рынка" очевидно не выполняется, однако выполняется свойство "мартингал-разностей" и благодаря вышеописанным обобщениям применять предельные теоремы все равно получается.
2. Другой ряд теорем получается, если в качества свойств "слабой зависимости" брать классические свойства слабой зависимости такие, как: эргодичность, перемешивание, сильное перемешивание и так далее. Эти свойства обеспечивают, что ряд величин со временем "забывает" свою историю, и влияние Xn на величину Xm при m > ж в некотором смысле стремится к нулю. В этом напревление есть сильные результаты. Однако известно, что отказаться от независимости в силу его более слабой версии, не накладывая дополнительных условий не получается.
Одним из вариантов ослабить дополнительные требования является рандомизация. Техника рандомизации будет рассмотрена во второй главе.
II: Еще одним сильным требованием в классической ЦПТ, является требование конечной дисперсии величин. Существует много распределений у которых второго момента нет. Что важно, эти распределения часто встречаются в задачах, моделирующих тот или иной практически значимый процесс, а значит, с ними тоже нужно как-то работать. Примерами подобных распределений являются распределение Коши и распределение Леви, которые часто встречаются на практике. Эти распределения в том числе примечательны тем, что не имеет даже конечного первого момента.
Чтобы научиться работать с подобными распределениями нужно изменить форму задачи. Теперь в абстрактной форме мы хотим, чтобы существовал слабый предел у последовательности:
X1 + ... + Xn
an
Оказывается, что можно провести полную классификацию, и узнать, как могут выглядить всевозможные пределы L. Эти пределы будут принадлежать множеству "Строго устойчивых законов". Строго устойчивые законы и соответствующие предельные законы будут рассмотрены в 3-ей главе.
III: Во втором пункте мы поняли, что осмысленно изменять саму форму суммирования, чтобы получать новые предельные теоремы и интересные распределения. Можно пойти еще дальше и обобщить рассмотрения "ряда" случайных величин до "схемы серий" случайных величин:
Опр: Схемой серий называется последовательность случайных величин, проиндексированная двумя целыми числами Xi,j. При этом, при фиксированном втором индексе X1>n, ...,Xn,n - независимые одинаково распределенные величины по закону Fn.
Возникает естественный вопрос, при каких условиях на схему серий, и куда могут сходиться суммы по строкам Sn = X1,n +... + Xn,n. Однако, оказывается, что множество предельных распределений для подобных схем серий совпадает с множеством "устойчивых законов" , которые мы уже упоминали в третьем пункте.
Пункты II, III будут подробно изучены с помощью "операторной техники" в третьей главе.
IV: Так же есть и другие направления, в которых можно искать новые предельные теоремы. В данном дипломе эти направления подробно рассмотрены не будут. Однако перечислим возможные пути дальнейшего развития теории:
1. В предыдущих пунктах везьде мы смотрим на слабую сходимости величин. Однако, можно рассматривать и другие виды сходимости.
2. Вместо сложения можно рассматривать другие операции. К примеру, существует построенная теория предельных теорем для случая, когда рассматривается максимум из первых n величин ряда.
3. Можно рассматривать другие пространства, и изучать предельные теоремы для случайных величин, действующих, в Rn или даже в других, более сложных пространствах.
Для доказательства центральной предельный теоремы необходимо проверить выполнение условий Линдеберга. Поэтому следующая лемма является центральной для доказательства.
Лемма: (Yu. Davydov, A. Tempelman)[2]
Пусть X - однородный случайный процесс, E[(X(0))2] < ж, и пусть {Tn} - последовательность точечно усредняющих множеств. Тогда для почти всех ы G QX относительно PX выполняется условие Линдеберга: для каждого с при п D ж
Ek= iE [(X ; ы - M ы 21 в]
Е*=i К(ы)
где Bn = {|X(rnji,w) — Mn(w)| > е^Дк^Уп12(ы)}. Из этой леммы следует основной результат. Для случая одномерного T он формулируется следующим образом:
Теорема: (Yu. Davydov, A. Tempelman)[2]
Пусть X (t), t G R, - это эргодический стационарный измеримый случайный процесс, и E[(X(0))2] < ж; обозначим а2 = Var[X(0)], Mn = n J™ X (t)dt. Пусть rn,i (n = 1, 2,..., и i = 1,..., n) - случайные переменные, независимые от X и, для каждого п, независимые между собой и равномерно распределенные на [0, п]. Тогда, если п D +ж,
-ф= Ж(X(Tn,i) — Mn) D N(0,1).
а х/ п
i=1
Как мы видим, техника рандомизации позволила значительно ослабить требование на "слабую зависимость".
Billingsley. Probability and Measure. Wiley Series in Probability.
[2] Yu. Davydov and A. Tempelman. Randomized limit theorems for stationary ergodic random processes and fields. Stochastic Processes and their Applications, online 7.05 2024,
https://doi.org/10.1016/j.spa.2024.104380
http://arxiv.org/abs/2201.08981
[3] A. Tempelman. Randomized multivariate central limit theorems for ergodic homogeneous random fields. Stochastic Processes and their Applications, 143 (2022).
[4] S. Roch. Notes 19: Martingale CLT. Math 733-734: Theory of Probability.
[5] N. Herrndorf. Stationary strongly mixing sequences not satisfying the central limit theorem. Annals of Probability, 11 (1983), no. 3, 808-813.
[6] I. A. Ibragimov. Five Decades in Probability and Statistics.
[7] R. C. Bradley. Strong Mixing Conditions. Department of Mathematics, Indiana University, Bloomington, Indiana, USA.
[8] W. Feller. An Introduction to Probability Theory and Its Applications, Vol. 1. 3rd ed., Wiley, New York, 1968.
[9] И. А. Ибрагимов, Центральная предельная теорема для одного класса зависимых случайных величин, Теория вероятн. и ее примен., 1963, том 8, выпуск 1, 89-94
1. Ряд теорем получается, если вместо независимости, требовать от величин выполнения некоторых "мартингальных свойств" , а именно, вместо независимых величин работать с мартингал разностями.
Опр: Последовательность случайных величин X1,X2,... называется последовательностью мартингал-разностей, если:
1. E|Xj| < Vj Е N.
2. E [Xj | Xi,.. .,Xj-i] =0 Vj Е N.