Ограничение плотности дискретных точек (LDDP) в питоне

Энтропия Шеннона из теории информации измеряет неопределенность или беспорядок в эмпирическом распределении дискретной случайной величины, тогда как дифференциальная энтропия измеряет ее для непрерывной случайной величины. Однако классическое определение дифференциальной энтропии оказалось неверным и было исправлено с помощью Предельной плотности дискретных точек (LDDP). Вычисляет ли scipy или другой LDDP? Как я могу оценить LDDP в python?


person develarist    schedule 04.08.2020    source источник


Ответы (1)


Поскольку LDDP эквивалентен отрицательной KL-дивергенции от вашей функции плотности m(x) к вашему распределению вероятностей p(x), вы можете использовать одну из многих реализаций KL-дивергенции, например, из scipy.stats.entropy.

Соответствующая процедура (при условии, что у вас есть конечная поддержка) состоит в том, чтобы аппроксимировать непрерывное распределение дискретным путем выборки по его поддержке и вычисления расхождения KL.

Если это невозможно, то ваш единственный вариант, который я могу придумать, это, вероятно, использовать численные (или, возможно, аналитические?) методы интегрирования, которых у вас должно быть много. Простым первым шагом было бы попробовать методы Монте-Карло.

person Danny Kong    schedule 04.08.2020
comment
Поскольку этот вопрос ориентирован на Python, был бы полезен пример кода. - person Bram Vanroy; 12.02.2021