Взаимная информация
— статистическая функция двух случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой.
В частности, для независимых случайных величин взаимная информация равна нулю:
В случае, когда одна случайная величина (например,
) является детерминированной функцией другой случайной величины (
), взаимная информация равна энтропии:
Условная и относительная взаимная информация
Условная взаимная информация
— статистическая функция трёх случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой, при условии заданного значения третьей:
Относительная взаимная информация
— статистическая функция трёх случайных величин, описывающая количество информации, содержащееся в одной случайной величине относительно другой, при условии заданной третьей случайной величины:
Свойства
Являются симметричными функциями:
Удовлетворяют неравенствам:
Взаимная информация трёх случайных величин
Определяют также
взаимную информацию трёх случайных величин
:
Взаимная информация трёх случайных величин может быть отрицательной. Рассмотрим равномерное распределение на тройках битов
, таких, что
. Определим случайные величины
как значения битов
, соответственно. Тогда