Машинное обучение вики
Нет описания правки
Метка: rte-source
Нет описания правки
Метка: rte-source
Строка 1: Строка 1:
 
=== Вопрос 1 ===
 
=== Вопрос 1 ===
[[Метод минимизации эмпирического риска|Принцип минимизации эмпирического риска]]. Типичные [[Функция потерь (Loss function)|функции потерь]] для регрессии и бинарной классификации.{{Рецензия|Имя = Сергей Иванов|Комментарий = Типичные функции потерь лежат внутри ПМЭР, там надо раздел сделать, а тут правильную ссылку на него}}
+
[[Метод минимизации эмпирического риска|Принцип минимизации эмпирического риска]]. Типичные [[Функция потерь (Loss function)|функции потерь]] для регрессии и бинарной классификации.
   
 
=== Вопрос 2 ===
 
=== Вопрос 2 ===

Версия от 12:31, 5 января 2017

Вопрос 1

Принцип минимизации эмпирического риска. Типичные функции потерь для регрессии и бинарной классификации.

Вопрос 2

Классификация с помощью дискриминантных функций

Ответственный: Мерцалов

Вопрос 3

Определение линейного классификатора (бинарный / многоклассовый)

Вопрос 4

Отступ для классификатора (бинарного / многоклассового)

Вопрос 5

В чём заключается проклятие размерности?

Статья не заполнена. Ответственный: Мерцалов

Вопрос 6

Матрица штрафов (cost matrix)

Вопрос 7

Байесовское правило минимальной цены и минимальной ошибки (максимальной апостериорной вероятности)

Сергей Иванов: Not found?

Ответственный: Серов

Вопрос 8

Матрица ошибок. Точность, полнота, F-мера.

Ответственный: Кругликов

Вопрос 9

ROC-кривая, AUC

Ответственный: Колмакова

Вопрос 10

Гауссов Классификатор

Вопрос 11

Метод главных компонент (определение)

Вопрос 12

Обобщение методов через ядра. Типичные ядра: линейное, полиномиальное, Гауссово (RBF)

Сергей Иванов: Статью скорее всего придётся переоформлять для билета, ссылки нужно будет исправить

Вопрос 13

Сингулярное разложение (SVD) - определение

Вопрос 14

Сокращённое сингулярное разложение порядка k. В каком смысле это разложение даёт идеальную аппроксимацию матрицы?

Сергей Иванов: После кластеризации если ответ на второй вопрос будет находится далеко от определения, нужно тут будет дать ссылку на нужный раздел

Вопрос 15

Решающие правила в алгоритме CART и алгоритм их выбора. Возможные критерии перемешанности классов и откликов в задаче регрессии.

Сергей Иванов: Статья написана чисто под теормин, так что для билета придётся всё реструктуризовать.

Вопрос 16

Типичные регуляризаторы, какой из них может отбирать признаки и почему?

Вопрос 17

Типичные функции потерь для бинарной классификации. Какие из них порождают оптимальные веса, зависящие только от части объектов обучающей выборки?

Вопрос 18

Логистическая регрессия (бинарная, многоклассовая)

Ответственный: Кругликов

Вопрос 19

Метод опорных векторов (бинарный)

Вопрос 20

Ядерное сглаживание для оценки плотности

>>Специальная статья по теормину.

Вопрос 21

Гребневая регрессия и вывод оптимальных весов для неё

Сергей Иванов: Вывод оптимальных весов в отдельный раздел надо

Вопрос 22

Алгоритм робастной регрессии

Вопрос 23

Предположение "наивного Байеса"