Машинное обучение вики
Qbrick (обсуждение | вклад)
мНет описания правки
Метки: Визуальный редактор apiedit
Нет описания правки
Метка: rte-source
Строка 56: Строка 56:
 
=== Вопрос 17 ===
 
=== Вопрос 17 ===
 
Типичные [[Функция потерь (Loss function)|функции потерь]] для бинарной классификации. Какие из них порождают оптимальные веса, зависящие только от части объектов обучающей выборки?
 
Типичные [[Функция потерь (Loss function)|функции потерь]] для бинарной классификации. Какие из них порождают оптимальные веса, зависящие только от части объектов обучающей выборки?
 
'''Ответственный: Липкина'''
 
   
 
=== Вопрос 18 ===
 
=== Вопрос 18 ===

Версия от 19:18, 5 января 2017

Вопрос 1

Принцип минимизации эмпирического риска. Типичные функции потерь для регрессии и бинарной классификации.

Вопрос 2

Классификация с помощью дискриминантных функций

Ответственный: Мерцалов

Вопрос 3

Определение линейного классификатора (бинарный / многоклассовый)

Ответственный: 317-ая группа в полном составе

Вопрос 4

Отступ для классификатора (бинарного / многоклассового)

Вопрос 5

В чём заключается проклятие размерности?

Вопрос 6

Матрица штрафов (cost matrix)

Вопрос 7

Байесовское правило минимальной цены и минимальной ошибки (максимальной апостериорной вероятности)

Ответственный: Серов

Вопрос 8

Матрица ошибок. Точность, полнота, F-мера.

Ответственный: Кругликов

Вопрос 9

ROC-кривая, AUC

Вопрос 10

Гауссов Классификатор

Вопрос 11

Метод главных компонент (определение)

Вопрос 12

Обобщение методов через ядра. Типичные ядра: линейное, полиномиальное, Гауссово (RBF)

Вопрос 13

Сингулярное разложение (SVD) - определение

Вопрос 14

Сокращённое сингулярное разложение порядка k. В каком смысле это разложение даёт идеальную аппроксимацию матрицы?

Вопрос 15

Решающие правила в алгоритме CART и алгоритм их выбора. Возможные критерии перемешанности классов и откликов в задаче регрессии.

>> Специальная статья по теормину.

Вопрос 16

Типичные регуляризаторы, какой из них может отбирать признаки и почему?

Вопрос 17

Типичные функции потерь для бинарной классификации. Какие из них порождают оптимальные веса, зависящие только от части объектов обучающей выборки?

Вопрос 18

Логистическая регрессия (бинарная, многоклассовая)

Ответственный: Кругликов

Вопрос 19

Метод опорных векторов (бинарный)

Вопрос 20

Ядерное сглаживание для оценки плотности

>>Специальная статья по теормину.

Вопрос 21

Гребневая регрессия и вывод оптимальных весов для неё

Вопрос 22

Алгоритм робастной регрессии

Вопрос 23

Предположение "наивного Байеса"