Interested Article - Теория информации

Теория информации — раздел прикладной математики , радиотехники (теория обработки сигналов ) и информатики , относящийся к измерению количества информации , её свойств и устанавливающий предельные соотношения для систем передачи данных. Как и любая математическая теория, теория оперирует математическими моделями , а не реальными физическими объектами (источниками и каналами связи ). Использует, главным образом, математический аппарат теории вероятностей и математической статистики .

Основные разделы теории информации — кодирование источника ( сжимающее кодирование ) и канальное ( помехоустойчивое ) кодирование. Теория информации тесно связана с информационной энтропией , коммуникационными системами, криптографией и другими смежными дисциплинами.

Область находится на пересечении математики , статистики , информатики , физики , нейробиологии , информационной инженерии и электротехники . Теория также нашла применение в других областях, включая статистический вывод , обработку естественного языка , криптографию , нейробиологию , человеческое зрение , эволюцию и функцию молекулярных кодов ( биоинформатика ), выбор статистической модели , теплофизику , квантовые вычисления , лингвистику , выявление плагиата , распознавание образов и выявление аномалий . Важные подразделы теории информации включают в себя сжатие данных , канальное кодирование , алгоритмическую теорию сложности , алгоритмическую теорию информации , информационно-теоретическую безопасность, и измерение информации.

Введение

Появление теории информации связано с опубликованием Клодом Шенноном работы « Математическая теория связи » в 1948 году . С точки зрения Шеннона, теория информации — раздел математической теории связи. Теория информации устанавливает основные границы возможностей систем передачи информации, задает исходные принципы их разработки и практического воплощения. Круг задач теории информации представляется с помощью структурной схемы, типичной системы передачи или хранения информации.

Схема системы связи

В схеме источником является любой объект вселенной , порождающий сообщения, которые должны быть перемещены в пространстве и времени . Независимо от изначальной физической природы, все подлежащие передаче сообщения обычно преобразуются в форму электрических сигналов , такие сигналы и рассматриваются как выход источника. Кодер источника представляет информацию в наиболее компактной форме. Кодер канала обрабатывает информацию для защиты сообщений от помех при передаче по каналу связи или возможных искажений при хранении информации. Модулятор преобразовывает сообщения, формируемые кодером канала, в сигналы, согласованные с физической природой канала связи или средой накопителя информации. Среда распространения информации ( канал связи ) вносит в процесс передачи информации случайный шум, который искажает сообщение и тем самым затрудняет его прочтение. Блоки, расположенные на приёмной стороне, выполняют обратные операции и предоставляют получателю информацию в удобном для восприятия виде.

История

Рождение теории информации зачастую связывают с размещением в июле-октябре 1948 года Клодом Шенноном работы в журнале американской телефонной компании «Bell System» под названием «Математическая теория связи». Но стоит упомянуть, что вклад в формулировку и построение теории информации также был внесён и многими другими выдающимися учёными. Сам Шеннон в начале своей статьи написал «Некоторые основные положения этой теории имеются в важных работах Найквиста и Хартли . В настоящее время теория расширена тем, что включено некоторое число новых факторов, в частности, влияние шума в канале».

В основном Шеннон развивал направление работ Хартли, используя понятие «информации», но сам термин не разъясняет, лишь оговаривает, что сообщения могут иметь какое-то «значение», то есть относиться к системе, имеющей свою физическую или умозрительную сущность ( кибернетическая система). Теория Шеннона изначально рассматривалась как точно сформулированная математическая задача и дала возможность определить пропускную способность коммуникационного канала с шумом.

Кодирование данных

Кодирование являет собой процесс перехода сообщения на входе канала связи до кода сообщения на выходе, при этом информационная ценность сообщения должна оставаться неизменной. В теории информации можно выделить следующие разделы:

1. Кодирование дискретных источников (модель кодирования данных «без потерь»).

2. Кодирование данных, обеспечивающее их безошибочную передачу по каналу с шумом.

Код является однозначно декодируемым, если любая последовательность символов из алфавита кода (а, в основном, это 0 и 1) разбивается на отдельные слова. Если ни одно кодовое слово не является началом другого, код называется префиксным и он является однозначно декодируемым. Следовательно, префиксность — достаточное, но не необходимое условие однозначной декодируемости. Требование префиксности ограничивает множество длин кодовых слов и не даёт возможности выбирать кодовые слова слишком короткими. Необходимым и достаточным условием существования префиксного кода объёма с длинами кодовых слов является выполнение неравенства Крафта:

Также требуется рассмотреть код Шеннона — Фано — алгоритм префиксного неоднородного кодирования. Этот метод кодирования использует избыточность сообщения, заключённую в неоднородном распределении частот символов его алфавита, то есть заменяет коды более частых символов короткими двоичными последовательностями, а коды более редких символов — более длинными двоичными последовательностями. Рассмотрим источник, выбирающий буквы из множества с вероятностями . Считаем, что буквы упорядочены по убыванию вероятностей ( ). Кодовым словом кода Шеннона для сообщения с номером является двоичная последовательность, представляющая собой первые разрядов после запятой в двоичной записи числа :

3. Кодирование данных для систем со многими пользователями описывает оптимальное взаимодействие абонентов, использующих общий ресурс, например, канал связи.

См. также

Примечания

  1. F. Rieke; D. Warland; R Ruyter van Steveninck; W Bialek. Spikes: Exploring the Neural Code (неопр.) . — The MIT press, 1997. — ISBN 978-0262681087 .
  2. Delgado-Bonal, Alfonso; Martín-Torres, Javier. (англ.) // (англ.) . — 2016. — 3 ноября ( т. 6 , № 1 ). — ISSN . — doi : . — Bibcode : . — PMC . 24 февраля 2021 года.
  3. cf; Huelsenbeck, J. P.; Ronquist, F.; Nielsen, R.; Bollback, J. P. Bayesian inference of phylogeny and its impact on evolutionary biology (англ.) // Science : journal. — 2001. — Vol. 294 , no. 5550 . — P. 2310—2314 . — doi : . — Bibcode : .
  4. Allikmets, Rando; Wasserman, Wyeth W.; Hutchinson, Amy; Smallwood, Philip; Nathans, Jeremy; Rogan, Peter K. , Michael Dean (1998) Organization of the ABCR gene: analysis of promoter and splice junction sequences] (англ.) // (англ.) : journal. — Elsevier , 1998. — Vol. 215 , no. 1 . — P. 111—122 . — doi : . 21 августа 2008 года.
  5. Burnham, K. P. and Anderson D. R. (2002) Model Selection and Multimodel Inference: A Practical Information-Theoretic Approach, Second Edition (Springer Science, New York) ISBN 978-0-387-95364-9 .
  6. Jaynes, E. T. (англ.) // Phys. Rev. : journal. — 1957. — Vol. 106 , no. 4 . — P. 620 . — doi : . — Bibcode : . 30 августа 2011 года.
  7. Bennett, Charles H.; Li, Ming; Ma, Bin. (англ.) // Scientific American . — Springer Nature , 2003. — Vol. 288 , no. 6 . — P. 76—81 . — doi : . — Bibcode : . — . 7 октября 2007 года.
  8. David R. Anderson. (pdf) (1 ноября 2003). Дата обращения: 23 июня 2010. 23 июля 2011 года.

Литература

Ссылки

Источник —

Same as Теория информации