Оцените презентацию от 1 до 5 баллов!
Тип файла:
ppt / pptx (powerpoint)
Всего слайдов:
13 слайдов
Для класса:
1,2,3,4,5,6,7,8,9,10,11
Размер файла:
98.50 kB
Просмотров:
52
Скачиваний:
0
Автор:
неизвестен
Слайды и текст к этой презентации:
№1 слайд![Классификация нормально](/documents_5/b86e16a0ef1972a838abaa76f940cbab/img0.jpg)
Содержание слайда: Классификация нормально распределенных векторов при неизвестных параметрах распределения
№2 слайд![Основная задача при](/documents_5/b86e16a0ef1972a838abaa76f940cbab/img1.jpg)
Содержание слайда: Основная задача при построении статистических решающих правил – нахождение оценок вероятностных распределений классов. Для этого можно использовать принципы обучения, основанные на использовании обучающих множеств, состоящих из конечного набора объектов каждого класса.
Основная задача при построении статистических решающих правил – нахождение оценок вероятностных распределений классов. Для этого можно использовать принципы обучения, основанные на использовании обучающих множеств, состоящих из конечного набора объектов каждого класса.
№3 слайд![В случае нормального](/documents_5/b86e16a0ef1972a838abaa76f940cbab/img2.jpg)
Содержание слайда: В случае нормального распределения задача сводится к оценке векторов математических ожиданий классов и матриц ковариации.
В случае нормального распределения задача сводится к оценке векторов математических ожиданий классов и матриц ковариации.
X N(M,)
i – Xj = {xi}i = 1,..., Ni j = 1...m
Часто множество Xj называют обучающим множеством.
№4 слайд![Для m классов мы должны](/documents_5/b86e16a0ef1972a838abaa76f940cbab/img3.jpg)
Содержание слайда: Для m классов мы должны получить оценки максимального правдоподобия. Известно, что оценка МП для математического ожидания нормально распределенного вектора является средним арифметическим по обучающему множеству, а соответственно оценка матрицы ковариации имеет вид, приведенный в таблице. Соответственно для случая равных матриц ковариации нужно получить усредненную по классам оценку.
Для m классов мы должны получить оценки максимального правдоподобия. Известно, что оценка МП для математического ожидания нормально распределенного вектора является средним арифметическим по обучающему множеству, а соответственно оценка матрицы ковариации имеет вид, приведенный в таблице. Соответственно для случая равных матриц ковариации нужно получить усредненную по классам оценку.
№5 слайд![Линейное решающее правило на](/documents_5/b86e16a0ef1972a838abaa76f940cbab/img4.jpg)
Содержание слайда: Линейное решающее правило на основе полученных оценок выглядит следующим образом:
№6 слайд![Часто используются](/documents_5/b86e16a0ef1972a838abaa76f940cbab/img5.jpg)
Содержание слайда: Часто используются рекуррентные оценки, когда данные получаются не сразу, а последовательно по мере поступления во времени.
Часто используются рекуррентные оценки, когда данные получаются не сразу, а последовательно по мере поступления во времени.
Рекуррентная оценка строится следующим образом:
N-шаг рекуррентного алгоритма есть оценка на N-ом шаге тогда:
Пусть для шага N имеем оценку , соответственно при добавлении следующего вектора получаем новую оценку:
№7 слайд![](/documents_5/b86e16a0ef1972a838abaa76f940cbab/img6.jpg)
№8 слайд![Задача статистической](/documents_5/b86e16a0ef1972a838abaa76f940cbab/img7.jpg)
Содержание слайда: Задача статистической классификации для количества классов больше 2
Как ставится задача классификации, когда у нас имеется m классов: 1, 2, ... m ?
Имеем:
C(j|i) – стоимость ошибки, когда принимается решение j, а наблюдается i.
P(j|i) = f(x|i) dx – условная вероятность ошибки.
X = X i – пространство разбивается таким образом при решении задачи классификации;
q1, q2, ... qm – это априорные вероятности классов.
В общем виде задача сводится к минимизации общей стоимости решения:
№9 слайд![Область X k определяется в](/documents_5/b86e16a0ef1972a838abaa76f940cbab/img8.jpg)
Содержание слайда: Область X k определяется в виде набора следующих неравенств:
Рассмотрим пример для 3-х классов: m = 3
Найдем правило для первого класса X 1 :
№10 слайд![Фактически мы получаем здесь](/documents_5/b86e16a0ef1972a838abaa76f940cbab/img9.jpg)
Содержание слайда: Фактически мы получаем здесь два неравенства:
Фактически мы получаем здесь два неравенства:
j=2: q2 f(x|2)C(1|2) + q3 f(x|3)C(1|3) <
< q1 f(x|1)C(2|1) + q3 f(x|3)C(2|3)
j=3: q2 f(x|2)C(1|2) + q3 f(x|3)C(1|3) <
< q1 f(x|1)C(3|1) + q2 f(x|2)C(3|2)
Самая простая интерпретация, когда мы рассматриваем следующий случай: C(i|j) = const.
Тогда, например, для m=3 получаем для рассматриваемого 1-го класса следующее:
№11 слайд![Самая простая интерпретация,](/documents_5/b86e16a0ef1972a838abaa76f940cbab/img10.jpg)
Содержание слайда: Самая простая интерпретация, когда мы рассматриваем следующий случай: C(i|j) = const.
Самая простая интерпретация, когда мы рассматриваем следующий случай: C(i|j) = const.
Тогда, например, для m=3 получаем для рассматриваемого 1-го класса следующее:
Фактически определяется max{qi f(x|i)} – то есть приводится байесовский критерий к критерию максимальной апостериорной вероятности.
Если вернуться к линейно-дискриминантным функциям на основе отношения правдоподобия , то получим из рассмотренного выше следующее соотношение:
№12 слайд![](/documents_5/b86e16a0ef1972a838abaa76f940cbab/img11.jpg)
№13 слайд![Возможное количество пар](/documents_5/b86e16a0ef1972a838abaa76f940cbab/img12.jpg)
Содержание слайда: Возможное количество пар таких решений будет равно - это количество разделяющих поверхностей.
Возможное количество пар таких решений будет равно - это количество разделяющих поверхностей.
Для m = 3: имеем разделяющие поверхности, показанные на рисунке:
Мы имеем уравнение попарных разделяющих поверхностей в следующем виде: