Презентация Классификация нормально распределенных векторов при неизвестных параметрах распределения онлайн

На нашем сайте вы можете скачать и просмотреть онлайн доклад-презентацию на тему Классификация нормально распределенных векторов при неизвестных параметрах распределения абсолютно бесплатно. Урок-презентация на эту тему содержит всего 13 слайдов. Все материалы созданы в программе PowerPoint и имеют формат ppt или же pptx. Материалы и темы для презентаций взяты из открытых источников и загружены их авторами, за качество и достоверность информации в них администрация сайта не отвечает, все права принадлежат их создателям. Если вы нашли то, что искали, отблагодарите авторов - поделитесь ссылкой в социальных сетях, а наш сайт добавьте в закладки.
Презентации » Образование » Классификация нормально распределенных векторов при неизвестных параметрах распределения



Оцените!
Оцените презентацию от 1 до 5 баллов!
  • Тип файла:
    ppt / pptx (powerpoint)
  • Всего слайдов:
    13 слайдов
  • Для класса:
    1,2,3,4,5,6,7,8,9,10,11
  • Размер файла:
    98.50 kB
  • Просмотров:
    52
  • Скачиваний:
    0
  • Автор:
    неизвестен



Слайды и текст к этой презентации:

№1 слайд
Классификация нормально
Содержание слайда: Классификация нормально распределенных векторов при неизвестных параметрах распределения

№2 слайд
Основная задача при
Содержание слайда: Основная задача при построении статистических решающих правил – нахождение оценок вероятностных распределений классов. Для этого можно использовать принципы обучения, основанные на использовании обучающих множеств, состоящих из конечного набора объектов каждого класса. Основная задача при построении статистических решающих правил – нахождение оценок вероятностных распределений классов. Для этого можно использовать принципы обучения, основанные на использовании обучающих множеств, состоящих из конечного набора объектов каждого класса.

№3 слайд
В случае нормального
Содержание слайда: В случае нормального распределения задача сводится к оценке векторов математических ожиданий классов и матриц ковариации. В случае нормального распределения задача сводится к оценке векторов математических ожиданий классов и матриц ковариации. X  N(M,) i – Xj = {xi}i = 1,..., Ni j = 1...m Часто множество Xj называют обучающим множеством.

№4 слайд
Для m классов мы должны
Содержание слайда: Для m классов мы должны получить оценки максимального правдоподобия. Известно, что оценка МП для математического ожидания нормально распределенного вектора является средним арифметическим по обучающему множеству, а соответственно оценка матрицы ковариации имеет вид, приведенный в таблице. Соответственно для случая равных матриц ковариации нужно получить усредненную по классам оценку. Для m классов мы должны получить оценки максимального правдоподобия. Известно, что оценка МП для математического ожидания нормально распределенного вектора является средним арифметическим по обучающему множеству, а соответственно оценка матрицы ковариации имеет вид, приведенный в таблице. Соответственно для случая равных матриц ковариации нужно получить усредненную по классам оценку.

№5 слайд
Линейное решающее правило на
Содержание слайда: Линейное решающее правило на основе полученных оценок выглядит следующим образом:

№6 слайд
Часто используются
Содержание слайда: Часто используются рекуррентные оценки, когда данные получаются не сразу, а последовательно по мере поступления во времени. Часто используются рекуррентные оценки, когда данные получаются не сразу, а последовательно по мере поступления во времени. Рекуррентная оценка строится следующим образом: N-шаг рекуррентного алгоритма есть оценка на N-ом шаге тогда: Пусть для шага N имеем оценку , соответственно при добавлении следующего вектора получаем новую оценку:

№7 слайд
Содержание слайда:

№8 слайд
Задача статистической
Содержание слайда: Задача статистической классификации для количества классов больше 2 Как ставится задача классификации, когда у нас имеется m классов: 1, 2, ... m ? Имеем: C(j|i) – стоимость ошибки, когда принимается решение j, а наблюдается i. P(j|i) = f(x|i) dx – условная вероятность ошибки. X =  X i – пространство разбивается таким образом при решении задачи классификации; q1, q2, ... qm – это априорные вероятности классов. В общем виде задача сводится к минимизации общей стоимости решения:

№9 слайд
Область X k определяется в
Содержание слайда: Область X k определяется в виде набора следующих неравенств: Рассмотрим пример для 3-х классов: m = 3 Найдем правило для первого класса X 1 :

№10 слайд
Фактически мы получаем здесь
Содержание слайда: Фактически мы получаем здесь два неравенства: Фактически мы получаем здесь два неравенства: j=2: q2 f(x|2)C(1|2) + q3 f(x|3)C(1|3) < < q1 f(x|1)C(2|1) + q3 f(x|3)C(2|3) j=3: q2 f(x|2)C(1|2) + q3 f(x|3)C(1|3) < < q1 f(x|1)C(3|1) + q2 f(x|2)C(3|2) Самая простая интерпретация, когда мы рассматриваем следующий случай: C(i|j) = const. Тогда, например, для m=3 получаем для рассматриваемого 1-го класса следующее:

№11 слайд
Самая простая интерпретация,
Содержание слайда: Самая простая интерпретация, когда мы рассматриваем следующий случай: C(i|j) = const. Самая простая интерпретация, когда мы рассматриваем следующий случай: C(i|j) = const. Тогда, например, для m=3 получаем для рассматриваемого 1-го класса следующее: Фактически определяется max{qi f(x|i)} – то есть приводится байесовский критерий к критерию максимальной апостериорной вероятности. Если вернуться к линейно-дискриминантным функциям на основе отношения правдоподобия , то получим из рассмотренного выше следующее соотношение:

№12 слайд
Содержание слайда:

№13 слайд
Возможное количество пар
Содержание слайда: Возможное количество пар таких решений будет равно - это количество разделяющих поверхностей. Возможное количество пар таких решений будет равно - это количество разделяющих поверхностей. Для m = 3: имеем разделяющие поверхности, показанные на рисунке: Мы имеем уравнение попарных разделяющих поверхностей в следующем виде:

Скачать все slide презентации Классификация нормально распределенных векторов при неизвестных параметрах распределения одним архивом:
Похожие презентации