Количество информации


Количество информации в теории информации – это количество информации в одном случайном объекте относительно другого.

Пусть и случайные величины, заданные на соответствующих множествах и . Тогда количество информации относительно есть разность априорной и апостериорной энтропий:

где количество элементов множества .

, если один из элементов множества реализуется с вероятностью 1, а остальные, соответственно, 0, в силу того, что и .

Максимум значения энтропии достигается, когда все , т.е. все исходы равновероятны.

При этом, , если отображение в однозначное, т.е. .