Теорема кодирования с шумом канала - Noisy-channel coding theorem

В теории информации , то шумная-канальное кодирование теоремы (иногда теорема Шеннона или предел Шеннона ), устанавливаю , что для любой заданной степени шумового загрязнения канала связи , можно общаться дискретные данными (цифровая информация ) почти безошибочные до вычислимая максимальная скорость в канале. Этот результат был представлен Клодом Шенноном в 1948 году и частично основан на более ранних работах и ​​идеях Гарри Найквиста и Ральфа Хартли .

Предел Шеннона или емкость Шеннона каналу связи относится к максимальной скорости данных без ошибок , которые теоретически могут быть переданы по каналу , если ссылка подвержена ошибкам случайной передачи данных, для конкретного уровня шума. Впервые он был описан Шенноном (1948), и вскоре после того, как опубликовал в книге Шеннона и Уоррен Уивер под названием Математическая теория связи (1949). Это положило начало современной теории информации .

Обзор

Заявлено от Клода Шеннона в 1948 году теорема описывает максимально возможную эффективность коррекции ошибок методов в сравнении с уровнем шумовых помех и искажения данных. Теорема Шеннона находит широкое применение как в связи, так и в хранении данных . Эта теорема имеет фундаментальное значение для современной теории информации . Шеннон только набросал доказательство. Первое строгое доказательство для дискретного случая принадлежит Амиэлю Файнштейну в 1954 году.

Теорема Шеннона утверждает, что при наличии зашумленного канала с пропускной способностью C и информацией, передаваемой со скоростью R , тогда, если существуют коды, которые позволяют сделать вероятность ошибки в приемнике сколь угодно малой. Это означает , что, теоретически, можно передают информацию практически без ошибок в любом случае ниже предельной скорости, C .

Обратное тоже важно. Если , сколь угодно малая вероятность ошибки недостижима. Все коды будут иметь вероятность ошибки больше определенного положительного минимального уровня, и этот уровень увеличивается с увеличением скорости. Таким образом, нельзя гарантировать надежную передачу информации по каналу на скоростях, превышающих пропускную способность канала. Теорема не рассматривает редкую ситуацию, когда скорость и мощность равны.

Пропускная способность канала может быть рассчитана на основе физических свойств канала; для канала с ограниченной полосой пропускания с гауссовским шумом, используя теорему Шеннона – Хартли .

Простые схемы, такие как «отправить сообщение 3 раза и использовать лучшую схему голосования 2 из 3, если копии отличаются», являются неэффективными методами исправления ошибок, неспособными асимптотически гарантировать, что блок данных может быть передан без ошибок. Усовершенствованные методы, такие как коды Рида – Соломона и, в последнее время, коды и турбокоды с низкой плотностью проверки четности (LDPC) , намного ближе подходят к достижению теоретического предела Шеннона, но за счет высокой вычислительной сложности. Используя эти высокоэффективные коды и вычислительную мощность современных цифровых сигнальных процессоров , теперь можно достичь очень близкого к пределу Шеннона. Фактически, было показано, что коды LDPC могут достигать в пределах 0,0045 дБ предела Шеннона (для каналов двоичного аддитивного белого гауссовского шума (AWGN) с очень большой длиной блока).

Математическое утверждение

Базовая математическая модель системы связи следующая:

Сообщение Вт передается через канал с шумом с использованием функции кодирования и декодирования. Кодер отображает W в заранее определенной последовательности канальных символов длины п . В своей базовой модели канал искажает каждый из этих символов независимо от других. Выходной сигнал канала - полученная последовательность - подается в декодер, который преобразует последовательность в оценку сообщения. В этом случае вероятность ошибки определяется как:

Теорема (Шеннон, 1948):

1. Для каждого дискретного канала без памяти пропускная способность канала определяется в терминах взаимной информации ,
обладает следующим свойством. Для любого и , для достаточно большого , существует код длины и скорости и алгоритм декодирования, такой, что максимальная вероятность блочной ошибки равна .
2. Если вероятность битовой ошибки приемлема, достижимы скорости до , где
и - бинарная функция энтропии
3. По любому , ставки выше недостижимы.

(Маккей (2003), стр. 162; см. Галлагер (1968), гл. 5; Обложка и Томас (1991), стр. 198; Шеннон (1948), тм. 11)

Схема доказательства

Как и в случае с некоторыми другими важными результатами в теории информации, доказательство теоремы о кодировании зашумленного канала включает результат достижимости и соответствующий обратный результат. Эти два компонента служат для ограничения, в данном случае, набора возможных скоростей, с которыми можно общаться по зашумленному каналу, а сопоставление служит для демонстрации того, что эти границы являются жесткими.

Следующие ниже наброски представляют собой лишь один набор множества различных стилей, доступных для изучения в текстах по теории информации.

Достижимость для дискретных каналов без памяти

Это конкретное доказательство достижимости следует стилю доказательств, использующих свойство асимптотической равнораспределенности (AEP). Другой стиль можно найти в текстах по теории информации, использующих показатели ошибок .

Оба типа доказательств используют аргумент случайного кодирования, когда кодовая книга, используемая по каналу, строится случайным образом - это служит для упрощения анализа, в то же время доказывая существование кода, удовлетворяющего желаемой низкой вероятности ошибки при любой скорости передачи данных ниже пропускная способность канала .

С помощью связанного с AEP аргумента, учитывая канал, строки длины исходных символов и строки длины выходных данных канала , мы можем определить совместно типичный набор следующим образом:

Мы говорим, что две последовательности и являются совместно типичными, если они лежат в совместно типичном наборе, определенном выше.

Шаги

  1. В стиле аргумента случайного кодирования мы случайным образом генерируем кодовые слова длины n из распределения вероятностей Q.
  2. Этот код раскрывается отправителю и получателю. Также предполагается, что известна матрица перехода для используемого канала.
  3. Сообщение W выбирается в соответствии с равномерным распределением по набору кодовых слов. То есть .
  4. Сообщение W отправляется по каналу.
  5. Приемник получает последовательность согласно
  6. Отправляя эти кодовые слова по каналу, мы получаем и декодируем в некоторую исходную последовательность, если существует ровно 1 кодовое слово, которое совместно типично с Y. Если нет совместно типичных кодовых слов или если их более одного, объявляется ошибка. Ошибка также возникает, если декодированное кодовое слово не соответствует исходному кодовому слову. Это называется декодированием типичного набора .

Вероятность ошибки этой схемы делится на две части:

  1. Во-первых, ошибка может возникнуть, если для принятой последовательности Y не найдены совместно типичные X-последовательности.
  2. Во-вторых, ошибка может возникнуть, если неверная последовательность X является типичной совместно с принятой последовательностью Y.
  • По случайности построения кода можно предположить, что средняя вероятность ошибки, усредненная по всем кодам, не зависит от отправленного индекса. Таким образом, без ограничения общности можно считать W = 1.
  • Из совместного AEP мы знаем, что вероятность того, что не существует совместно типичного X, стремится к 0 при увеличении n. Мы можем ограничить эту вероятность ошибки величиной .
  • Также из совместного AEP мы знаем, что вероятность того, что конкретное и результат W = 1 являются типичными вместе, равна .

Определять:

как случай, когда сообщение i является типичным вместе с последовательностью, полученной при отправке сообщения 1.

Мы можем наблюдать, что по мере приближения к бесконечности, если для канала вероятность ошибки упадет до 0.

Наконец, учитывая, что средняя кодовая книга показана как «хорошая», мы знаем, что существует кодовая книга, производительность которой лучше, чем в среднем, и, таким образом, удовлетворяет нашу потребность в сколь угодно низкой вероятности ошибки при обмене данными по зашумленному каналу.

Слабое преобразование для дискретных каналов без памяти

Предположим, код кодовых слов. Пусть W равномерно проведен по этому множеству как индекс. Позвольте и быть переданными кодовыми словами и принятыми кодовыми словами, соответственно.

  1. использование идентичностей, включающих энтропию и взаимную информацию
  2. поскольку X является функцией W
  3. с помощью неравенства Фано
  4. за счет того, что емкость взаимной информации максимальна.

Результат этих шагов таков . Поскольку длина блока стремится к бесконечности, мы получаем, что она ограничена от 10, если R больше C - мы можем получить сколь угодно низкие коэффициенты ошибок, только если R меньше C.

Сильная конверсия для дискретных каналов без памяти

Сильная обратная теорема, доказанная Вулфовицем в 1957 г., гласит, что

для некоторой конечной положительной постоянной . В то время как слабое обратное утверждение утверждает, что вероятность ошибки ограничена от нуля при стремлении к бесконечности, сильное обратное утверждение утверждает, что ошибка стремится к 1. Таким образом, это резкий порог между совершенно надежной и совершенно ненадежной связью.

Теорема кодирования каналов для нестационарных каналов без памяти

Мы предполагаем, что канал не имеет памяти, но его вероятности перехода меняются со временем, как это известно как передатчику, так и приемнику.

Тогда пропускная способность канала определяется выражением

Максимум достигается при распределениях достижения пропускной способности для каждого соответствующего канала. То есть где - пропускная способность i- го канала.

Схема доказательства

Доказательство проводится почти так же, как и доказательство теоремы о канальном кодировании. Достижимость следует из случайного кодирования, при котором каждый символ выбирается случайным образом из распределения достижения пропускной способности для этого конкретного канала. Аргументы типичности используют определение типичных множеств для нестационарных источников, определенных в статье об асимптотическом равнораспределении .

Когда не сходится, в игру вступает техническая сторона lim inf .

Скорость кодирования канала в режиме конечной длины блока

Теория информации с конечной длиной блока исследует максимальную скорость кодирования канала, достижимую при заданной длине блока и вероятности ошибки в режиме конечной длины блока (неасимптотический режим). Максимально достижимая скорость кодирования канала с заданной вероятностью блочной ошибки и длиной блока (для каналов с двоичным аддитивным белым гауссовым шумом (AWGN) с короткими длинами блоков), близко аппроксимируемая Полянским , Бедным и Верду (PPV) в 2010 г., определяется выражением

где - величина, обратная дополнительной кумулятивной функции распределения Гаусса , - пропускная способность канала и является характеристикой канала, называемой дисперсией канала.

Смотрите также


Примечания

использованная литература

внешние ссылки