Тип работы:
Предмет:
Язык работы:


Энтропия распределений случайных процессов

Работа №127234

Тип работы

Магистерская диссертация

Предмет

математика

Объем работы22
Год сдачи2023
Стоимость5550 руб.
ПУБЛИКУЕТСЯ ВПЕРВЫЕ
Просмотрено
36
Не подходит работа?

Узнай цену на написание


АННОТАЦИЯ 2
1 Введение 3
2 Основные обозначения 5
3 Гауссовские меры 6
4 Примеры асимптотик функций малых уклонений 8
5 Оценки mm-энтропии пространства с гауссовской мерой 14
6 Доказательства 15
6.1 Общие оценки mm-энтропии: леммы 15
6.2 Доказательство основной теоремы 18
Список литературы 21

Пусть (X, d) - метрическое пространство, A С X - некоторое компактное множе­ство. Поскольку в любом покрытии компактного множества открытыми множе­ствами найдётся конечное подпокрытие, то естественным является желание коли­чественно измерить сложность покрытия этого компактного множества. Обозна­чим N(A, е) минимальное число замкнутых шаров радиуса е, достаточное, чтобы покрыть A. Величина
H(A, е) := log N(A, s) называется энтропией компакта A или метрической энтропией A в пространстве X.
Идея использования энтропии компактов для измерения «массивности» мно­жеств в метрических пространствах восходит ещё к довоенным работам Л.С. Пон­трягина и Л.Г. Шнирельмана. А.Н. Колмогоров [20] инициировал систематическое изучение энтропии компактов для различных классов множеств, особенно для ком­пактных классов функций в функциональных пространствах, см., например, зна­менитый обзор А.Н. Колмогорова и В.М. Тихомирова [21], комментарий к нему В.М. Тихомирова [25], а также его обзоры [26, 27]. Вскоре энтропия компактов также нашла замечательные применения в теории вероятностей, где Р. Дадли, В.Н. Судаков и К. Ферник на её основе исследовали траекторные свойства гаус­совских случайных процессов, см., например, [22, 23].
Следуя К. Шеннону [13, Приложение 7], похожим образом можно ввести поня­тие энтропии метрического пространства с борелевской мерой (X, d, P), полагая
Nmm(s,5) := min {n | 3x1,..., xn : P (X Lj=1 B(xj, s)) < 5} ;
Hmm(s,5) := log Nmm(s,5),
где B(x, r) здесь и далее обозначает замкнутый шар радиуса r с центром в х. Это определение активно использует тот факт, что мера P с точностью до произвольно малой массы сосредоточена на компакте [28]. Индекс «mm» означает «measure­metric» по аналогии с mm-пространствами, введенными Громовым в [6]. Величину Hmm(.,.) в дальнейшем будем называть mm-энтропией. Более детальный анализ структуры «метрика плюс мера» см. [17].
Многие авторы впоследствии переоткрывали это определение. В литературе изучались близкие по смыслу к mm-энтропии, но интегральные по форме показа­тели е-дискретизации (quantization) пространства с мерой.
Ошибка дискретизации (quantization error) в интегральном виде равна
inf / min d(x, {х1,..., xn})qP(dx) xi,...,xn J X
для некоторого показателя q.
Такие моментные характеристики ошибок дискретизации используются в об­ширной литературе, мотивированной передачей сигналов с помощью словарей.
Упомянем для примера работы Г. Лушги и Ж. Пажеса [12], Ш. Дерайха с соав­торами [2, 3, 4, 5]. С другой стороны, А.М. Вершик [14] для построения новых инвариантов в эргодической теории использовал в качестве меры ошибки дискре­тизации расстояние Канторовича. В работе была введена энтропия на метрическом пространстве (X, р) относительно борелевской меры р как
H(р, р,е) = inf H(v),
где инфимум пробегает по всем дискретным распределениям v таким, что они находятся в ^-окрестности меры р по метрике Канторовича кр, а H(p) для дис­кретного распределения p = (p1,... ,pn) определяется классическим образом как
H (Р) = “52 Pilog Р^.
Напомним, что расстояние Канторовича относительно пространства с метрикой (X, dist) между вероятностными мерами р1,р2 определяется следующим образом:
kdist(pi,P2) = inf dist(x,y)Y (dx,dy),
Т€Г(дх,Д2) J JxxX
где Г(р1,р2) - семейство вероятностных мер с носителем X х X, т.ч. их марги­нальные распределения совпадают с р1 и р2. Непосредственно формула для mm- энтропии сигналов обсуждалась разве что в [24] и нескольких других работах тех же авторов.
То, что названо выше mm-энтропией метрического пространства с мерой и фак­тически есть в работе Шеннона, есть самое естественное по своему объему понятие энтропии, и энтропия компактов это лишь его частный случай при 5 ^ 0. Поэтому представляет интерес систематическое исследование и вычисление mm-энтропии метрических (и, в частности, линейных нормированных) пространств с мерой, ко­торое начато в статье [18] для банаховых пространств с гауссовской мерой.
Отметим, что mm-энтропия предлагалась в [14] в качестве обобщения энтропии по Колмогорову для уже произвольных автоморфизмов, сохраняющих меру, под названием масштабированной энтропии. Без понятия mm-энтропии такое обобще­ние невозможно определить.
В то время как энтропии компактов, энтропии динамических систем и их много­численным применениям посвящены едва ли не тысячи работ, mm-энтропия прак­тически не изучалась и мало использовалась в приложениях.
Стоит ещё упомянуть пользу mm-энтропии для общей теории метрических про­странств с мерой, развиваемой в разных направлениях (Громов [6], Вершик [16]), а именно, с точки зрения классификации: mm-энтропия является нетривиальным инвариантом mm-пространств относительно изометрий, сохраняющих меру, и по­этому позволяет утверждать, например, отсутствие изоморфизма двух таких про­странств, если их mm-энтропии различны.

Возникли сложности?

Нужна помощь преподавателя?

Помощь в написании работ!


В работе для широкого класса банаховых пространств с гауссовской мерой по­казано, что их энтропия в смысле Шеннона (mm-энтропия) тесно связана с энтропией соответствующего эллипсоида рассеяния, в определённом диапа­зоне ведёт себя так же, как логарифм меры малых шаров. Полученные оценки обобщают недавние результаты работы А.М. Вершика и М.А. Лифшица.


[1] N. Bingham, C. Goldie and J. Teugels. “Regular Variation” (Encyclopedia of Mathematics and its Applications). Cambridge: Cambridge University Press, 1987.
[2] S. Dereich, “High resolution coding of stochastic processes and small ball probabilities”. Ph.D. dissertation, Technische Univ. Berlin (2003).
[3] S. Dereich, “Small ball probabilities around random centers of Gaussian measures and applications to quantization”. J. Theoret. Probab., 16 (2003), 427-449.
[4] S. Dereich, F. Fehringer, A. Matoussi, and M. Scheutsow, “On the link between small ball probabilities and the quantization problem for Gaussian measures on Banach spaces”. J. Theoret. Probab., 16 (2003), 249-265.
[5] S. Dereich, M. Lifshits, “Probabilities of randomly centered small balls and quantization in Banach spaces”, Ann. Probab., 33 (2005), 1397-1421.
[6] M. Gromov, “Metric structures for Riemannian and non-Riemannian spaces”, Birkhauser Boston, 1999.
[7] A.I. Karol, A.I. Nazarov. “Spectral Analysis for Some Multifractional Gaussian Processes”. Russ. J. Math. Phys. 28, 488-500, 2021.
[8] A.I. Karol, A.I. Nazarov, and Ya.Yu. Nikitin. “Small ball probabilities for Gaussian random fields and tensor products of compact operators”. Transactions of the American Mathematical Society, 360(3):1443-1474, 2008.
[9] J. Kuelbs, W.V. Li, “Metric entropy and the small ball problem for Gaussian measures”, J. Func. Anal., 116 (1993), 133-157.
[10] W. Li. “Comparison results for the lower tail of Gaussian seminorms”. Journal of Theoretical Probability, 5(1):1-31, 1992.
[11] W.V. Li, W. Linde, “Approximation, metric entropy and small ball estimates for Gaussian measures”, Ann. Probab., 27 (1999), 1556-1578.
[12] H. Luschgy, G. Pages, “Sharp asymptotics of the functional quantization problem for Gaussian processes”, Ann. Probab., 32 (2004), 1574-1599.
[13] C.E. Shannon, “A mathematical theory of communication”, I,II, Bell Syst. Techn. J., 27 (1948), 3, 379-423; 4, 623-656. К. Шеннон, “Математическая теория связи”. В кн. “Работы по теории информации и кибернетике”, М.: Изд-во иностр. лит., 1963, 243-332.
[14] A.M. Vershik, “Dynamics of metrics in measure spaces and their asymptotics invariants”, Markov Process and Related Fields, 16, 1 (2010), 169-185.
[15] В.И. Богачев, “Гауссовские меры”. М.: Наука, 1997.
...


Работу высылаем на протяжении 30 минут после оплаты.



Подобные работы


©2025 Cервис помощи студентам в выполнении работ