- Статьи
76 результатов
-
Решающее дерево (Decision tree)
Решающее дерево (Decision tree) — решение задачи обучения с учителем, основанный на том, как решает задачи прогнозирования человек. В общем случае — это k-ичное дерево с решающими правилами в нелистовых вершинах (узлах) и некотором заключении о -
Ядерное сглаживание для оценки плотности
Проблема: нужен непараметрический метод для оценки плотности. Решение: метод будет основан на локальной оценке плотности в окрестности интересующей точки по известной выборке. Локальная оценка опирается на само определение плотности распределения: p ( x )= lim h → 0 -
Ансамбли моделей
Обучаем несколько базовых моделей, а затем агрегируем их результаты по какому-либо правилу и выдаем окончательный результат. Почему ансамблирование улучшает результат описано здесь. -
Метод опорных векторов (Support vector machine)
Пусть дана выборка ( x i, y i ), i= 1 … N, x i ∈ R D, y i ∈{ − 1; 1}{\displaystyle (x_i, y_i),~i=1\ldots N,~x_i\in R^D,~y_i\in -
ROC-кривая
TPR полностью совпадает с полнотой, и показывает долю верно предсказанных классов у объектов, относящихся к положительному классу. FPR — это доля неправильно предсказанных классов среди объектов отрицательного класса. -
Гребневая регрессия (Ridge regression)
Решается задача регрессии. Применяется линейная модель (вообще говоря, один из признаков полагается константным для того, чтобы аппроксимирующая гиперплоскость не обязательно проходила через нуль, я не знаю, почему это практически всюду опускается): f ( x, β )= ⟨ β -
Оценки классификаторов
Везде ниже x{\displaystyle x} — элемент выборки, y{\displaystyle y} — метка класса, a ( x ){\displaystyle a(x)} — классификатор. Также T P, F P, F N, T N{\displaystyle TP, FP, FN, TN} — значения матрицы ошибок -
Метод ближайших соседей (kNN)
Метод ближайших соседей (kNN - k Nearest Neighbours) - метод решения задач классификации и задач регрессии, основанный на поиске ближайших объектов с известными значения целевой переменной. Метод основан на предположении о том, что близким объектам в признаковом -
Линейный классификатор
Линейный классификатор — алгоритм классификации, основанный на построении линейной разделяющей поверхности. Иными словами, это такой классификатор, дискриминантная функция которого линейна. В случае двух классов разделяющей поверхностью является гиперплоскость, которая делит пространство признаков на два полупространства. В -
Отступ (для классификатора)
Отступ (для классификатора) — эвристика, оценивающая то, насколько объект "погружён" в свой класс, насколько эталонным представителем он является. Чем меньше значение отступа, тем ближе объект находится к границе класса, соответственно тем выше вероятность ошибочного прогноза. Отступ -
Модель Бернулли
Пусть x{\displaystyle x} — объект из выборки, x k{\displaystyle x^k} — его k{\displaystyle k} -й признак. -
Регуляризация
добавить вероятностную модель, соответствующую регуляризации Регуляризация — способ предотвратить переобучение модели. -
Функция потерь (Loss function)
В задачах классификации наиболее естественным выбором является пороговая функция потерь L ( y, y ′ )= [ y ′ ≠ y ].{\displaystyle{\mathcal L}(y,y')= [y'\neq y].} Такая функция потерь разрывна, минимизация эмпирического риска оказывается сложной задачей комбинаторной оптимизации -
Матрица ошибок (Confusion matrix)
Пусть дана выборка x i{\displaystyle x_i} ( i= 1, …, N{\displaystyle i= 1,\dots, N}, y i{\displaystyle y_i} - метка класса i-го объекта, y i ∈{ 1, 2, …, C}{\displaystyle y_i\in -
Машинное обучение вики
Обучаемся учить машину учиться. Старайтесь следовать стилю вики — разбивать материал на статьи согласно здравому смыслу, а не билетам. Прочитайте правила оформления статей. -
Расстояние Кульбака — Лейблера
Расстояние Кульбака — Лейблера - метрика между распределениями случайных величин. Обозначение: K L ( P|| Q ){\displaystyle KL(P||Q)}, причём откуда взялись две вертикальные палки науке неизвестно, по идее это просто функция от двух распределений P{\displaystyle -
Метод минимизации эмпирического риска (Empirical risk minimization)
По-честному, мы должны минимизировать следующий функционал: ∫ X ∫ Y p ( x, y ) L ( a ( x ), y ) d x d y{\displaystyle\int\limits_{\mathbb X}\int\limits_{\mathbb Y} p(x, y)\mathcal L(a -
Теоретический минимум к экзамену по ММРО (МГУ ВМК ММП, 5 семестр, 2016-2017)
Принцип минимизации эмпирического риска. Типичные функции потерь для регрессии и бинарной классификации. Классификация с помощью дискриминантных функций -
Сокращённое сингулярное разложение
Пусть дана матрица A ∈ R N × D, r g A= R{\displaystyle A\in\mathbb{R}^{N\times D}, rg A= R}. Пусть есть сингулярное разложение A= U Σ V T{\displaystyle A= U\Sigma -
Метод главных компонент (Principal component analysis)
Рассматриваем выборку x i, i= 1, …, N{\displaystyle x_i,~i= 1,\dots,N} в пространстве признаков размерности K{\displaystyle K} (далее везде k ⩽ K{\displaystyle k\leqslant K} ). Пусть L{\displaystyle L} - некоторое подпространство -
EM-алгоритм
EM-алгоритм (англ. expectation-maximization) — алгоритм, используемый в математической статистике для нахождения оценок максимального правдоподобия параметров вероятностных моделей, в случае, когда модель зависит от некоторых скрытых переменных. Каждая итерация алгоритма состоит из двух шагов. На -
Бустинг: AdaBoost
Это процедура с целью построения ансамбля из базовых (иногда говорят, слабых) алгоритмов, имеющего качество, превосходящее качество базового алгоритма. В отличие от бэггинга, это детерминированная процедура, выполняющаяся последовательно, основанная на результатах предыдущей итерации. Рассматривается задача классификации -
Гауссов классификатор
Основная идея — построить классификатор в предположении того, что функция p ( x| y ){\displaystyle p(x|y)} (так называемая функция правдоподобия, т.е. распределение объектов при фиксированном ответе y{\displaystyle y} ) известна для каждого класса и -
Метод максимального правдоподобия (Maximum likelihood estimation)
X= ( x 1, x 2,..., x n ), Y= ( y 1, y 2,..., y n ){\displaystyle X=(x_{1},x_{2},...,x_{n}),Y=(y_{1},y_{2},...,y_{n})}. Обучающие объекты и ответы на них -
Структурирование пространства признаков
При большом размере обучающей выборки поиск ближайших соседей методом перебора становится крайне ресурсоёмким делом. Мы же хотим попытаться структурировать пространство признаков каким-либо образом, чтобы поиск ближайших соседей осуществлялся быстрее. Везде далее предполагается, что функция
Близкая по теме вики
The Elder Scrolls Wiki
games
30тыс.
страниц100тыс.
изображений100
видео
The Elder Scrolls — серия компьютерных ролевых игр, созданная компанией Bethesda Softworks. Наша основная задача — качественное, понятное и красочное предоставление информации о вселенной The Elder Scrolls, а также освещение последних новостей о ней.