(→Вопрос 19: http://ru.learnmachinelearning.wikia.com/wiki/%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%BE%D0%BF%D0%BE%D1%80%D0%BD%D1%8B%D1%85_%D0%B2%D0%B5%D0%BA%D1%82%D0%BE%D1%80%D0%BE%D0%B2_(Support_vector_machine)) Метки: Визуальный редактор apiedit |
Метки: Визуальный редактор apiedit |
||
(не показано 26 промежуточных версий 7 участников) | |||
Строка 1: | Строка 1: | ||
+ | __NOTOC__ |
||
+ | |||
=== Вопрос 1 === |
=== Вопрос 1 === |
||
− | [[Метод минимизации эмпирического риска|Принцип минимизации эмпирического риска]]. Типичные [[Функция потерь (Loss function)|функции потерь]] для регрессии и бинарной классификации. |
+ | [[Метод минимизации эмпирического риска (Empirical risk minimization)|Принцип минимизации эмпирического риска]]. Типичные [[Функция потерь (Loss function)|функции потерь]] для регрессии и бинарной классификации. |
=== Вопрос 2 === |
=== Вопрос 2 === |
||
Строка 18: | Строка 20: | ||
=== Вопрос 7 === |
=== Вопрос 7 === |
||
+ | [[Байесовский подход минимальной цены (Bayes decision rule)|Байесовское правило минимальной цены]] и минимальной ошибки (максимальной апостериорной вероятности) |
||
+ | |||
+ | >> [[Байесовский подход минимальной цены (теормин)|Специальная статья по теормину]] |
||
=== Вопрос 8 === |
=== Вопрос 8 === |
||
+ | [[Матрица ошибок (Confusion matrix)|Матрица ошибок]]. [[Оценки классификаторов#Точность (Precision)|Точность]], [[Оценки классификаторов#Полнота (Recall)|полнота]], [[Оценки классификаторов#F-мера|F-мера]]. |
||
=== Вопрос 9 === |
=== Вопрос 9 === |
||
+ | [[ROC-кривая]], [[AUC-ROC|AUC]] |
||
=== Вопрос 10 === |
=== Вопрос 10 === |
||
− | [[Гауссов классификатор |
+ | [[Гауссов классификатор]] |
=== Вопрос 11 === |
=== Вопрос 11 === |
||
+ | [[Метод главных компонент (Principal component analysis)|Метод главных компонент]] (определение) |
||
=== Вопрос 12 === |
=== Вопрос 12 === |
||
+ | [[Ядра (Kernels)|Обобщение методов через ядра]]. [[Ядра (Kernels)#Типичные ядра|Типичные ядра]]: линейное, полиномиальное, Гауссово (RBF) |
||
− | |||
=== Вопрос 13 === |
=== Вопрос 13 === |
||
+ | [[Сингулярное разложение (SVD)#Определение|Сингулярное разложение]] (SVD) - определение |
||
=== Вопрос 14 === |
=== Вопрос 14 === |
||
+ | [[Сокращённое сингулярное разложение]] порядка k. В каком смысле это разложение [[Сокращённое сингулярное разложение#Оптимальность с точки зрения нормы Фробениуса|даёт оптимальную аппроксимацию матрицы]]? |
||
− | |||
=== Вопрос 15 === |
=== Вопрос 15 === |
||
+ | [[Решающее дерево (Decision tree)#Решающие правила|Решающие правила]] в алгоритме CART и алгоритм их выбора. Возможные [[Критерий информативности (Impurity function)|критерии перемешанности классов]] и откликов в задаче регрессии. |
||
+ | >> [[Решающие правила в дереве Cart и алгоритм их выбора. Возможные критерии перемешанности классов и откликов в задачи регрессии (теормин)|Специальная статья по теормину]]. |
||
=== Вопрос 16 === |
=== Вопрос 16 === |
||
+ | [[Регуляризация|Типичные регуляризаторы]], какой из них может отбирать признаки и почему? |
||
=== Вопрос 17 === |
=== Вопрос 17 === |
||
+ | Типичные [[Функция потерь (Loss function)|функции потерь]] для бинарной классификации. Какие из них порождают оптимальные веса, зависящие только от части объектов обучающей выборки? |
||
=== Вопрос 18 === |
=== Вопрос 18 === |
||
+ | [[Логистическая регрессия]] (бинарная, многоклассовая) |
||
− | |||
=== Вопрос 19 === |
=== Вопрос 19 === |
||
+ | [[Метод опорных векторов (Support vector machine)|Метод опорных векторов]] (бинарный) |
||
− | |||
− | === http://ru.learnmachinelearning.wikia.com/wiki/%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D0%BE%D0%BF%D0%BE%D1%80%D0%BD%D1%8B%D1%85_%D0%B2%D0%B5%D0%BA%D1%82%D0%BE%D1%80%D0%BE%D0%B2_(Support_vector_machine) === |
||
=== Вопрос 20 === |
=== Вопрос 20 === |
||
+ | [[Ядерное сглаживание для оценки плотности]] |
||
+ | |||
+ | >>[[Ядерное сглаживание для оценки плотности (теормин)|Специальная статья по теормину]]. |
||
=== Вопрос 21 === |
=== Вопрос 21 === |
||
+ | [[Гребневая регрессия (Ridge regression)#Постановка задачи|Гребневая регрессия]] и [[Гребневая регрессия (Ridge regression)#Вывод оптимальных весов|вывод оптимальных весов]] для неё |
||
− | |||
=== Вопрос 22 === |
=== Вопрос 22 === |
||
− | [[Алгоритм робастной регрессии]] |
+ | [[Робастная регрессия (Robust regression)|Алгоритм робастной регрессии]] |
=== Вопрос 23 === |
=== Вопрос 23 === |
Текущая версия от 23:44, 12 января 2017
Вопрос 1[]
Принцип минимизации эмпирического риска. Типичные функции потерь для регрессии и бинарной классификации.
Вопрос 2[]
Классификация с помощью дискриминантных функций
Вопрос 3[]
Определение линейного классификатора (бинарный / многоклассовый)
Вопрос 4[]
Отступ для классификатора (бинарного / многоклассового)
Вопрос 5[]
В чём заключается проклятие размерности?
Вопрос 6[]
Вопрос 7[]
Байесовское правило минимальной цены и минимальной ошибки (максимальной апостериорной вероятности)
>> Специальная статья по теормину
Вопрос 8[]
Матрица ошибок. Точность, полнота, F-мера.
Вопрос 9[]
Вопрос 10[]
Вопрос 11[]
Метод главных компонент (определение)
Вопрос 12[]
Обобщение методов через ядра. Типичные ядра: линейное, полиномиальное, Гауссово (RBF)
Вопрос 13[]
Сингулярное разложение (SVD) - определение
Вопрос 14[]
Сокращённое сингулярное разложение порядка k. В каком смысле это разложение даёт оптимальную аппроксимацию матрицы?
Вопрос 15[]
Решающие правила в алгоритме CART и алгоритм их выбора. Возможные критерии перемешанности классов и откликов в задаче регрессии.
>> Специальная статья по теормину.
Вопрос 16[]
Типичные регуляризаторы, какой из них может отбирать признаки и почему?
Вопрос 17[]
Типичные функции потерь для бинарной классификации. Какие из них порождают оптимальные веса, зависящие только от части объектов обучающей выборки?
Вопрос 18[]
Логистическая регрессия (бинарная, многоклассовая)
Вопрос 19[]
Метод опорных векторов (бинарный)
Вопрос 20[]
Ядерное сглаживание для оценки плотности
>>Специальная статья по теормину.
Вопрос 21[]
Гребневая регрессия и вывод оптимальных весов для неё