Максимальное ожидание opencv-Log Значение правдоподобия

0

Я оцениваю параметры GMM с использованием EM,

Когда я использую свой скрипт Matlab И запускаю код EM, я получаю одно значение "лог-правдоподобие "..

Однако в opencv выход EM.train дает матрицу, содержащую значение loglijelihood для каждого образца.

Как получить одно значение вероятности логарифма? Нужно ли мне брать минимум всех значений loglikelihood всех образцов или сумму всех значений loglijelihoodhood?

Теги:
opencv
expectation-maximization
gaussian
mixture-model

1 ответ

0

Вам нужна сумма логарифмических вероятностей данных, которые вы используете для оценки функции плотности вероятности. Вы получите лояльность к вашей оценке.

Вы можете найти хорошее объяснение в книге "Распознавание образов и машинное обучение"

  • 0
    @AndreySmorodov .. У меня тут небольшая проблема - книга мне тоже не сильно помогает ... EM.train выводит матрицу "loghood", которая имеет размерность (no_of_samples * 1) и матрицу "probs", которая (no_of_samples * no_of_components) ..... когда вы имеете в виду "вероятности точек данных", я предполагаю, что я должен использовать матрицу "probs" и суммировать все значения журнала в ней?
  • 0
    Вы можете вычислить логарифмическое правдоподобие, как описано здесь: schraudolph.org/teach/ml03/MLmix.pdf, но, как я знаю, значение логарифмического правдоподобия не требует никакой пользовательской информации, оно используется только для оптимизации. Для поиска му или сигмы, например. И это оценивается для тренировочного набора, а не для каждого примера. Нет, я не имел в виду значения матрицы пробников, она содержит пробники для апостериорных вероятностей каждого компонента гауссовой смеси, который вам нужен для вероятности оценки.
Показать ещё 1 комментарий

Ещё вопросы

Сообщество Overcoder
Наверх
Меню