АННОТАЦИЯ 2
1 Введение 3
2 Основные обозначения 5
3 Гауссовские меры 6
4 Примеры асимптотик функций малых уклонений 8
5 Оценки mm-энтропии пространства с гауссовской мерой 14
6 Доказательства 15
6.1 Общие оценки mm-энтропии: леммы 15
6.2 Доказательство основной теоремы 18
Список литературы 21
Пусть (X, d) - метрическое пространство, A С X - некоторое компактное множество. Поскольку в любом покрытии компактного множества открытыми множествами найдётся конечное подпокрытие, то естественным является желание количественно измерить сложность покрытия этого компактного множества. Обозначим N(A, е) минимальное число замкнутых шаров радиуса е, достаточное, чтобы покрыть A. Величина
H(A, е) := log N(A, s) называется энтропией компакта A или метрической энтропией A в пространстве X.
Идея использования энтропии компактов для измерения «массивности» множеств в метрических пространствах восходит ещё к довоенным работам Л.С. Понтрягина и Л.Г. Шнирельмана. А.Н. Колмогоров [20] инициировал систематическое изучение энтропии компактов для различных классов множеств, особенно для компактных классов функций в функциональных пространствах, см., например, знаменитый обзор А.Н. Колмогорова и В.М. Тихомирова [21], комментарий к нему В.М. Тихомирова [25], а также его обзоры [26, 27]. Вскоре энтропия компактов также нашла замечательные применения в теории вероятностей, где Р. Дадли, В.Н. Судаков и К. Ферник на её основе исследовали траекторные свойства гауссовских случайных процессов, см., например, [22, 23].
Следуя К. Шеннону [13, Приложение 7], похожим образом можно ввести понятие энтропии метрического пространства с борелевской мерой (X, d, P), полагая
Nmm(s,5) := min {n | 3x1,..., xn : P (X Lj=1 B(xj, s)) < 5} ;
Hmm(s,5) := log Nmm(s,5),
где B(x, r) здесь и далее обозначает замкнутый шар радиуса r с центром в х. Это определение активно использует тот факт, что мера P с точностью до произвольно малой массы сосредоточена на компакте [28]. Индекс «mm» означает «measuremetric» по аналогии с mm-пространствами, введенными Громовым в [6]. Величину Hmm(.,.) в дальнейшем будем называть mm-энтропией. Более детальный анализ структуры «метрика плюс мера» см. [17].
Многие авторы впоследствии переоткрывали это определение. В литературе изучались близкие по смыслу к mm-энтропии, но интегральные по форме показатели е-дискретизации (quantization) пространства с мерой.
Ошибка дискретизации (quantization error) в интегральном виде равна
inf / min d(x, {х1,..., xn})qP(dx) xi,...,xn J X
для некоторого показателя q.
Такие моментные характеристики ошибок дискретизации используются в обширной литературе, мотивированной передачей сигналов с помощью словарей.
Упомянем для примера работы Г. Лушги и Ж. Пажеса [12], Ш. Дерайха с соавторами [2, 3, 4, 5]. С другой стороны, А.М. Вершик [14] для построения новых инвариантов в эргодической теории использовал в качестве меры ошибки дискретизации расстояние Канторовича. В работе была введена энтропия на метрическом пространстве (X, р) относительно борелевской меры р как
H(р, р,е) = inf H(v),
где инфимум пробегает по всем дискретным распределениям v таким, что они находятся в ^-окрестности меры р по метрике Канторовича кр, а H(p) для дискретного распределения p = (p1,... ,pn) определяется классическим образом как
H (Р) = “52 Pilog Р^.
Напомним, что расстояние Канторовича относительно пространства с метрикой (X, dist) между вероятностными мерами р1,р2 определяется следующим образом:
kdist(pi,P2) = inf dist(x,y)Y (dx,dy),
Т€Г(дх,Д2) J JxxX
где Г(р1,р2) - семейство вероятностных мер с носителем X х X, т.ч. их маргинальные распределения совпадают с р1 и р2. Непосредственно формула для mm- энтропии сигналов обсуждалась разве что в [24] и нескольких других работах тех же авторов.
То, что названо выше mm-энтропией метрического пространства с мерой и фактически есть в работе Шеннона, есть самое естественное по своему объему понятие энтропии, и энтропия компактов это лишь его частный случай при 5 ^ 0. Поэтому представляет интерес систематическое исследование и вычисление mm-энтропии метрических (и, в частности, линейных нормированных) пространств с мерой, которое начато в статье [18] для банаховых пространств с гауссовской мерой.
Отметим, что mm-энтропия предлагалась в [14] в качестве обобщения энтропии по Колмогорову для уже произвольных автоморфизмов, сохраняющих меру, под названием масштабированной энтропии. Без понятия mm-энтропии такое обобщение невозможно определить.
В то время как энтропии компактов, энтропии динамических систем и их многочисленным применениям посвящены едва ли не тысячи работ, mm-энтропия практически не изучалась и мало использовалась в приложениях.
Стоит ещё упомянуть пользу mm-энтропии для общей теории метрических пространств с мерой, развиваемой в разных направлениях (Громов [6], Вершик [16]), а именно, с точки зрения классификации: mm-энтропия является нетривиальным инвариантом mm-пространств относительно изометрий, сохраняющих меру, и поэтому позволяет утверждать, например, отсутствие изоморфизма двух таких пространств, если их mm-энтропии различны.
В работе для широкого класса банаховых пространств с гауссовской мерой показано, что их энтропия в смысле Шеннона (mm-энтропия) тесно связана с энтропией соответствующего эллипсоида рассеяния, в определённом диапазоне ведёт себя так же, как логарифм меры малых шаров. Полученные оценки обобщают недавние результаты работы А.М. Вершика и М.А. Лифшица.
[1] N. Bingham, C. Goldie and J. Teugels. “Regular Variation” (Encyclopedia of Mathematics and its Applications). Cambridge: Cambridge University Press, 1987.
[2] S. Dereich, “High resolution coding of stochastic processes and small ball probabilities”. Ph.D. dissertation, Technische Univ. Berlin (2003).
[3] S. Dereich, “Small ball probabilities around random centers of Gaussian measures and applications to quantization”. J. Theoret. Probab., 16 (2003), 427-449.
[4] S. Dereich, F. Fehringer, A. Matoussi, and M. Scheutsow, “On the link between small ball probabilities and the quantization problem for Gaussian measures on Banach spaces”. J. Theoret. Probab., 16 (2003), 249-265.
[5] S. Dereich, M. Lifshits, “Probabilities of randomly centered small balls and quantization in Banach spaces”, Ann. Probab., 33 (2005), 1397-1421.
[6] M. Gromov, “Metric structures for Riemannian and non-Riemannian spaces”, Birkhauser Boston, 1999.
[7] A.I. Karol, A.I. Nazarov. “Spectral Analysis for Some Multifractional Gaussian Processes”. Russ. J. Math. Phys. 28, 488-500, 2021.
[8] A.I. Karol, A.I. Nazarov, and Ya.Yu. Nikitin. “Small ball probabilities for Gaussian random fields and tensor products of compact operators”. Transactions of the American Mathematical Society, 360(3):1443-1474, 2008.
[9] J. Kuelbs, W.V. Li, “Metric entropy and the small ball problem for Gaussian measures”, J. Func. Anal., 116 (1993), 133-157.
[10] W. Li. “Comparison results for the lower tail of Gaussian seminorms”. Journal of Theoretical Probability, 5(1):1-31, 1992.
[11] W.V. Li, W. Linde, “Approximation, metric entropy and small ball estimates for Gaussian measures”, Ann. Probab., 27 (1999), 1556-1578.
[12] H. Luschgy, G. Pages, “Sharp asymptotics of the functional quantization problem for Gaussian processes”, Ann. Probab., 32 (2004), 1574-1599.
[13] C.E. Shannon, “A mathematical theory of communication”, I,II, Bell Syst. Techn. J., 27 (1948), 3, 379-423; 4, 623-656. К. Шеннон, “Математическая теория связи”. В кн. “Работы по теории информации и кибернетике”, М.: Изд-во иностр. лит., 1963, 243-332.
[14] A.M. Vershik, “Dynamics of metrics in measure spaces and their asymptotics invariants”, Markov Process and Related Fields, 16, 1 (2010), 169-185.
[15] В.И. Богачев, “Гауссовские меры”. М.: Наука, 1997.
...