Информационное измерение - Information dimension

В теории информации , информационное измерение является информационной мерой для случайных векторов в евклидовом пространстве , на основе нормированной энтропии тонко квантованных версий случайных векторов . Эта концепция была впервые представлена Альфредом Реньи в 1959 году.

Проще говоря, это мера фрактальной размерности в виде распределения вероятностей . Он характеризует скорость роста энтропии Шеннона, задаваемую последовательно более тонкой дискретизацией пространства.

В 2010 году Ву и Верду дали рабочую характеристику информационного измерения Реньи как фундаментального предела сжатия данных практически без потерь для аналоговых источников при различных ограничениях регулярности кодера / декодера.

Определение и свойства

Энтропия дискретной случайной величины равна

где - мера вероятности того, когда , а обозначает набор .

Позвольте быть произвольной действительной случайной величиной. Учитывая положительное целое число , мы создаем новую дискретную случайную величину

где - оператор пола, который преобразует действительное число в наибольшее целое меньшее его. потом

а также

называются нижним и верхним информационными измерениями соответственно. Когда мы называем это ценностным информационным измерением ,

Некоторые важные свойства информационного измерения :

  • Если мягкое условие выполнено, то у нас есть .
  • Для -мерного случайного вектора первое свойство можно обобщить на .
  • При ограничении экспоненциальной подпоследовательностью достаточно вычислить верхнюю и нижнюю информационные размерности .
  • и остаются неизменными, если при квантовании используются функции округления или ограничения.

-Мерная энтропия

Если существует информационное измерение , можно определить -мерную энтропию этого распределения как

при условии, что лимит существует. Если , нульмерная энтропия равна стандартной энтропии Шеннона . Для целого размерности , то -мерная энтропия является -кратно интегралом , определяющий соответствующим дифференциал энтропии .

Дискретно-непрерывное распределение смеси

Согласно теореме Лебега о разложении , распределение вероятностей может быть однозначно представлено смесью

где и ; является чисто атомарной вероятностной мерой (дискретная часть), является абсолютно непрерывной вероятностной мерой и является вероятностной мерой, сингулярной по отношению к мере Лебега, но без атомов (сингулярная часть). Позвольте быть случайной величиной, такой что . Предположим, что распределение можно представить как

где - дискретная мера, - абсолютно непрерывная вероятностная мера с . потом

Кроме того, учитывая и дифференциальную энтропию , то -мерная энтропия просто задаются

где это Шеннон энтропия дискретной случайной величины с и и задаются

Пример

Стандартное распределение Гаусса для иллюстрации example.png

Рассмотрим сигнал с гауссовым распределением вероятностей .

Мы пропускаем сигнал через полуволновой выпрямитель, который преобразует все отрицательные значения в 0 и поддерживает все остальные значения. Однополупериодный выпрямитель можно охарактеризовать функцией

Исправленное гауссовское распределение.png

Тогда на выходе выпрямителя сигнал имеет выпрямленное гауссово распределение . Он характеризуется атомной массой 0,5 и имеет гауссову PDF для всех .

С этим смешанным распределением мы применяем приведенную выше формулу и получаем информационную размерность распределения и вычисляем -мерную энтропию.

Нормализованная правая часть гауссова распределения с нулевым средним имеет энтропию , следовательно,

Связь с дифференциальной энтропией

Показано, что информационная размерность и дифференциальная энтропия тесно связаны.

Позвольте быть случайной величиной с непрерывной плотностью .

Простая непрерывная функция, которая используется для квантования.png

Предположим, мы делим диапазон на интервалы длины . По теореме о среднем значении в каждой ячейке существует такое значение , что

Рассмотрим дискретизированную случайную величину, если .

F (x), который уже был квантован в несколько функций Дирака. Png

Вероятность каждой точки поддержки равна

Пусть . Энтропия IS

Если мы установили, а затем мы делаем точно такое же квантование, что и определение информационного измерения. Поскольку перемаркировка событий дискретной случайной величины не изменяет ее энтропию, мы имеем

Это дает

а когда достаточно большой,

которая является дифференциальной энтропией непрерывной случайной величины. В частности, если она интегрируема по Риману, то

Сравнение этой энтропии с -мерной энтропией показывает, что дифференциальная энтропия - это в точности одномерная энтропия

Фактически, это можно обобщить на более высокие измерения. Реньи показывает, что если - случайный вектор в -мерном евклидовом пространстве с абсолютно непрерывным распределением с функцией плотности вероятности и конечной энтропией целой части ( ), то имеем

а также

если интеграл существует.

Сжатие данных без потерь

Информационное измерение распределения дает теоретическую верхнюю границу степени сжатия, если кто-то хочет сжать переменную, полученную из этого распределения. В контексте сжатия данных без потерь мы пытаемся сжать действительное число с меньшим количеством действительного числа, оба из которых имеют бесконечную точность.

Основная цель сжатия данных без потерь - найти эффективные представления для исходных реализаций с помощью . Код представляет собой пару отображений:

  • кодировщик: который преобразует информацию из источника в символы для передачи или хранения;
  • декодер: обратный процесс преобразования кодовых символов обратно в форму, понятную получателю.

Вероятность ошибки блока составляет .

Определить быть инфимумом из таких , что существует последовательность кодов , таких , что для всех достаточно больших .

Таким образом, в основном дает соотношение между длиной кода и длиной источника, это показывает, насколько хороша конкретная пара кодеров-декодеров. Основные ограничения в кодировании источников без потерь заключаются в следующем.

Рассмотрим функцию непрерывного кодирования с ее функцией непрерывного декодирования . Если мы не налагаем регулярности и , благодаря богатой структуре , у нас будет минимально- достижимая ставка для всех . Это означает, что можно построить пару кодер-декодер с бесконечной степенью сжатия.

Чтобы получить какие-то нетривиальные и содержательные выводы, приведем минимально достижимую скорость для линейного кодера и декодера Бореля. Если случайная величина имеет распределение, которое представляет собой смесь дискретной и непрерывной частей. Тогда для всех. Предположим, мы ограничиваем декодер до липшицевой функции и выполняется, тогда минимально достижимая скорость для всех .

Смотрите также

Примечания

использованная литература

  • Чинлар, Эрхан (2011). Вероятность и стохастика . Тексты для выпускников по математике. 261 . Springer. DOI : 10.1007 / 978-0-387-87859-1 . ISBN 978-0-387-87858-4.