Вычисление энтропии в t-sne scikit-learn

В реализации scikit-learn t-SNE, которая https://github.com/scikit-learn/scikit-learn/blob/f0ab589f1541b1ca4570177d93fd7979613497e3/sklearn/manifold/_utils.pyx

может кто-нибудь объяснить, почему энтропия вычисляется следующим образом в строке 98?

entropy = math.log(sum_Pi) + beta * sum_disti_Pi

Ваш вопрос интересный, хотя у меня нет ответа. В исходной статье, здесь, стр. 4, энтропия для t-SNE определяется так же, как энтропия Шеннона, которая отличается от энтропии, используемой в реализации sklearn.

Daneel R. 13.09.2018 22:09

Думаю, лучше задать такой вопрос: datascience.stackexchange.com или stats.stackexchange.com

ChaosPredictor 13.09.2018 23:36

Другой способ взглянуть на проблему: Продемонстрируйте, что math.log(sum_Pi) + beta * sum_disti_Pi==- sum(Pi * log(Pi) ).

Daneel R. 14.09.2018 11:03
0
3
27
0

Другие вопросы по теме