Машинное обучение вики
Метки: Визуальный редактор apiedit
Юэнтэк (обсуждение | вклад)
Метки: Визуальный редактор apiedit
 
(не показано 29 промежуточных версий 9 участников)
Строка 1: Строка 1:
  +
__NOTOC__
  +
 
=== Вопрос 1 ===
 
=== Вопрос 1 ===
Принцип минимизации [[Эмпирический риск|эмпирического риска]]. Типичные [[Функция потерь (Loss function)|функции потерь]] для регрессии и бинарной классификации.
+
[[Метод минимизации эмпирического риска (Empirical risk minimization)|Принцип минимизации эмпирического риска]]. Типичные [[Функция потерь (Loss function)|функции потерь]] для регрессии и бинарной классификации.
   
 
=== Вопрос 2 ===
 
=== Вопрос 2 ===
Строка 18: Строка 20:
   
 
=== Вопрос 7 ===
 
=== Вопрос 7 ===
  +
[[Байесовский подход минимальной цены (Bayes decision rule)|Байесовское правило минимальной цены]] и минимальной ошибки (максимальной апостериорной вероятности)
  +
  +
>> [[Байесовский подход минимальной цены (теормин)|Специальная статья по теормину]]
   
 
=== Вопрос 8 ===
 
=== Вопрос 8 ===
  +
[[Матрица ошибок (Confusion matrix)|Матрица ошибок]]. [[Оценки классификаторов#Точность (Precision)|Точность]], [[Оценки классификаторов#Полнота (Recall)|полнота]], [[Оценки классификаторов#F-мера|F-мера]].
   
 
=== Вопрос 9 ===
 
=== Вопрос 9 ===
  +
[[ROC-кривая]], [[AUC-ROC|AUC]]
   
 
=== Вопрос 10 ===
 
=== Вопрос 10 ===
  +
[[Гауссов классификатор]]
[http://ru.learnmachinelearning.wikia.com/wiki/%D0%93%D0%B0%D1%83%D1%81%D1%81%D0%BE%D0%B2_%D0%BA%D0%BB%D0%B0%D1%81%D1%81%D0%B8%D1%84%D0%B8%D0%BA%D0%B0%D1%82%D0%BE%D1%80, Гауссов Классификатор ]
 
   
 
=== Вопрос 11 ===
 
=== Вопрос 11 ===
  +
[[Метод главных компонент (Principal component analysis)|Метод главных компонент]] (определение)
   
 
=== Вопрос 12 ===
 
=== Вопрос 12 ===
  +
[[Ядра (Kernels)|Обобщение методов через ядра]]. [[Ядра (Kernels)#Типичные ядра|Типичные ядра]]: линейное, полиномиальное, Гауссово (RBF)
 
 
=== Вопрос 13 ===
 
=== Вопрос 13 ===
  +
[[Сингулярное разложение (SVD)#Определение|Сингулярное разложение]] (SVD) - определение
   
 
=== Вопрос 14 ===
 
=== Вопрос 14 ===
  +
[[Сокращённое сингулярное разложение]] порядка k. В каком смысле это разложение [[Сокращённое сингулярное разложение#Оптимальность с точки зрения нормы Фробениуса|даёт оптимальную аппроксимацию матрицы]]?
 
 
=== Вопрос 15 ===
 
=== Вопрос 15 ===
  +
[[Решающее дерево (Decision tree)#Решающие правила|Решающие правила]] в алгоритме CART и алгоритм их выбора. Возможные [[Критерий информативности (Impurity function)|критерии перемешанности классов]] и откликов в задаче регрессии.
   
  +
>> [[Решающие правила в дереве Cart и алгоритм их выбора. Возможные критерии перемешанности классов и откликов в задачи регрессии (теормин)|Специальная статья по теормину]].
 
=== Вопрос 16 ===
 
=== Вопрос 16 ===
  +
[[Регуляризация|Типичные регуляризаторы]], какой из них может отбирать признаки и почему?
   
 
=== Вопрос 17 ===
 
=== Вопрос 17 ===
  +
Типичные [[Функция потерь (Loss function)|функции потерь]] для бинарной классификации. Какие из них порождают оптимальные веса, зависящие только от части объектов обучающей выборки?
   
 
=== Вопрос 18 ===
 
=== Вопрос 18 ===
  +
[[Логистическая регрессия]] (бинарная, многоклассовая)
 
 
=== Вопрос 19 ===
 
=== Вопрос 19 ===
  +
[[Метод опорных векторов (Support vector machine)|Метод опорных векторов]] (бинарный)
   
 
=== Вопрос 20 ===
 
=== Вопрос 20 ===
  +
[[Ядерное сглаживание для оценки плотности]]
   
  +
>>[[Ядерное сглаживание для оценки плотности (теормин)|Специальная статья по теормину]].
=== Вопрос 21 ===
 
   
 
=== Вопрос 21 ===
  +
[[Гребневая регрессия (Ridge regression)#Постановка задачи|Гребневая регрессия]] и [[Гребневая регрессия (Ridge regression)#Вывод оптимальных весов|вывод оптимальных весов]] для неё
 
=== Вопрос 22 ===
 
=== Вопрос 22 ===
[[Алгоритм робастной регрессии]]
+
[[Робастная регрессия (Robust regression)|Алгоритм робастной регрессии]]
   
 
=== Вопрос 23 ===
 
=== Вопрос 23 ===

Текущая версия от 23:44, 12 января 2017


Вопрос 1[]

Принцип минимизации эмпирического риска. Типичные функции потерь для регрессии и бинарной классификации.

Вопрос 2[]

Классификация с помощью дискриминантных функций

Вопрос 3[]

Определение линейного классификатора (бинарный / многоклассовый)

Вопрос 4[]

Отступ для классификатора (бинарного / многоклассового)

Вопрос 5[]

В чём заключается проклятие размерности?

Вопрос 6[]

Матрица штрафов (cost matrix)

Вопрос 7[]

Байесовское правило минимальной цены и минимальной ошибки (максимальной апостериорной вероятности)

>> Специальная статья по теормину

Вопрос 8[]

Матрица ошибок. Точность, полнота, F-мера.

Вопрос 9[]

ROC-кривая, AUC

Вопрос 10[]

Гауссов классификатор

Вопрос 11[]

Метод главных компонент (определение)

Вопрос 12[]

Обобщение методов через ядра. Типичные ядра: линейное, полиномиальное, Гауссово (RBF)

Вопрос 13[]

Сингулярное разложение (SVD) - определение

Вопрос 14[]

Сокращённое сингулярное разложение порядка k. В каком смысле это разложение даёт оптимальную аппроксимацию матрицы?

Вопрос 15[]

Решающие правила в алгоритме CART и алгоритм их выбора. Возможные критерии перемешанности классов и откликов в задаче регрессии.

>> Специальная статья по теормину.

Вопрос 16[]

Типичные регуляризаторы, какой из них может отбирать признаки и почему?

Вопрос 17[]

Типичные функции потерь для бинарной классификации. Какие из них порождают оптимальные веса, зависящие только от части объектов обучающей выборки?

Вопрос 18[]

Логистическая регрессия (бинарная, многоклассовая)

Вопрос 19[]

Метод опорных векторов (бинарный)

Вопрос 20[]

Ядерное сглаживание для оценки плотности

>>Специальная статья по теормину.

Вопрос 21[]

Гребневая регрессия и вывод оптимальных весов для неё

Вопрос 22[]

Алгоритм робастной регрессии

Вопрос 23[]

Предположение "наивного Байеса"