Машинное обучение вики
Метки: Визуальный редактор apiedit
SSerov (обсуждение | вклад)
Метки: Визуальный редактор apiedit
 
Строка 6: Строка 6:
 
<math>x \in X, x =(x^1,x^2, ... x^D)</math>.
 
<math>x \in X, x =(x^1,x^2, ... x^D)</math>.
   
Проблема заключается в том, что чтобы оценить вероятность необходимо экспоненциальное относительно <math>D</math> число наблюдений.
+
Проблема заключается в том, что, чтобы оценить вероятность, необходимо экспоненциальное относительно <math>D</math> число наблюдений.
 
== Предположение "наивного Байеса" ==
 
== Предположение "наивного Байеса" ==
 
Для решения вышеуказанной проблемы может использоваться предположение "наивного Байеса", которое заключается в том, что признаки статистически взаимно независимы при условии класса:
 
Для решения вышеуказанной проблемы может использоваться предположение "наивного Байеса", которое заключается в том, что признаки статистически взаимно независимы при условии класса:

Текущая версия от 23:49, 13 января 2017

Проблема размерности[]

При поиске вероятности для объекта с n независимыми признаками возникает проблема высокой размерности:

,

.

Проблема заключается в том, что, чтобы оценить вероятность, необходимо экспоненциальное относительно число наблюдений.

Предположение "наивного Байеса"[]

Для решения вышеуказанной проблемы может использоваться предположение "наивного Байеса", которое заключается в том, что признаки статистически взаимно независимы при условии класса:

.

При этом предположении принцип максимума апостериорной вероятности принимает вид:

.

Следует отметить, что признаки могут быть зависимы, но независимы при условии класса(пример этого есть в слайдах Китова, но он непонятный).

Примеры использования[]

Ссылки[]

Лекции Китова, слайды 22-27

Лекции Воронцова, слайд 9

machinelearning.ru, начало