Общая корреляция


В теории вероятностей и, в частности, в теории информации полная корреляция (Ватанабэ, 1960) является одним из нескольких обобщений взаимной информации . Он также известен как многомерное ограничение (Garner, 1962) или мультиинформация (Studený & Vejnarová, 1999). Он количественно определяет избыточность или зависимость среди набора n случайных переменных.

Для заданного набора n случайных величин полная корреляция определяется как расхождение Кульбака-Лейблера от совместного распределения к независимому распределению ,

где – информационная энтропия переменной , а – совместная энтропия набора переменных . В терминах дискретных распределений вероятностей по переменным полная корреляция определяется выражением