Машинное обучение вики
Advertisement


Вопрос 1[]

Принцип минимизации эмпирического риска. Типичные функции потерь для регрессии и бинарной классификации.

Вопрос 2[]

Классификация с помощью дискриминантных функций

Вопрос 3[]

Определение линейного классификатора (бинарный / многоклассовый)

Вопрос 4[]

Отступ для классификатора (бинарного / многоклассового)

Вопрос 5[]

В чём заключается проклятие размерности?

Вопрос 6[]

Матрица штрафов (cost matrix)

Вопрос 7[]

Байесовское правило минимальной цены и минимальной ошибки (максимальной апостериорной вероятности)

>> Специальная статья по теормину

Вопрос 8[]

Матрица ошибок. Точность, полнота, F-мера.

Вопрос 9[]

ROC-кривая, AUC

Вопрос 10[]

Гауссов классификатор

Вопрос 11[]

Метод главных компонент (определение)

Вопрос 12[]

Обобщение методов через ядра. Типичные ядра: линейное, полиномиальное, Гауссово (RBF)

Вопрос 13[]

Сингулярное разложение (SVD) - определение

Вопрос 14[]

Сокращённое сингулярное разложение порядка k. В каком смысле это разложение даёт оптимальную аппроксимацию матрицы?

Вопрос 15[]

Решающие правила в алгоритме CART и алгоритм их выбора. Возможные критерии перемешанности классов и откликов в задаче регрессии.

>> Специальная статья по теормину.

Вопрос 16[]

Типичные регуляризаторы, какой из них может отбирать признаки и почему?

Вопрос 17[]

Типичные функции потерь для бинарной классификации. Какие из них порождают оптимальные веса, зависящие только от части объектов обучающей выборки?

Вопрос 18[]

Логистическая регрессия (бинарная, многоклассовая)

Вопрос 19[]

Метод опорных векторов (бинарный)

Вопрос 20[]

Ядерное сглаживание для оценки плотности

>>Специальная статья по теормину.

Вопрос 21[]

Гребневая регрессия и вывод оптимальных весов для неё

Вопрос 22[]

Алгоритм робастной регрессии

Вопрос 23[]

Предположение "наивного Байеса"

Advertisement