Презентация Общие свойства линейных дискриминантных функций в детерминистской постановке онлайн

На нашем сайте вы можете скачать и просмотреть онлайн доклад-презентацию на тему Общие свойства линейных дискриминантных функций в детерминистской постановке абсолютно бесплатно. Урок-презентация на эту тему содержит всего 13 слайдов. Все материалы созданы в программе PowerPoint и имеют формат ppt или же pptx. Материалы и темы для презентаций взяты из открытых источников и загружены их авторами, за качество и достоверность информации в них администрация сайта не отвечает, все права принадлежат их создателям. Если вы нашли то, что искали, отблагодарите авторов - поделитесь ссылкой в социальных сетях, а наш сайт добавьте в закладки.
Презентации » Образование » Общие свойства линейных дискриминантных функций в детерминистской постановке



Оцените!
Оцените презентацию от 1 до 5 баллов!
  • Тип файла:
    ppt / pptx (powerpoint)
  • Всего слайдов:
    13 слайдов
  • Для класса:
    1,2,3,4,5,6,7,8,9,10,11
  • Размер файла:
    336.50 kB
  • Просмотров:
    65
  • Скачиваний:
    0
  • Автор:
    неизвестен



Слайды и текст к этой презентации:

№1 слайд
ОБУЧАЕМЫЕ КЛАССИФИКАТОРЫ.
Содержание слайда: ОБУЧАЕМЫЕ КЛАССИФИКАТОРЫ. ДЕТЕРМИНИСТСКИЙ ПОДХОД Общие свойства линейных дискриминантных функций в детерминистской постановке Постникова Ольга гр.3341

№2 слайд
Общие свойства линейных
Содержание слайда: Общие свойства линейных дискриминантных функций в детерминистской постановке Здесь рассматривается задача классификации данных, заданных в виде конечных наборов многомерных векторов. Данный подход основан на нахождении линейных дискриминантных функций: d( ) = T + WN+1 > 0 (или ) Мы имеем следующее:  X1 X1 = {X i }  X2 X2 = {X j } Общий объем выборки: N = N1 + N2 Задача заключается в нахождении решающей функции, которая удовлетворяет N линейным неравенствам, при условии N > n:

№3 слайд
Находим некоторую решающую
Содержание слайда: Находим некоторую решающую функцию d(X), которая удовлетворяет неравенствам (*) и задает некоторую дихотомию, то есть разделение исходного пространства на два полупространства. Возникает вопрос можно ли решить данную систему неравенств. Возникает понятие разделяющей мощности решающего правила – это число возможных способов классификации данного объекта, которые допускаются с данной функцией. Находим некоторую решающую функцию d(X), которая удовлетворяет неравенствам (*) и задает некоторую дихотомию, то есть разделение исходного пространства на два полупространства. Возникает вопрос можно ли решить данную систему неравенств. Возникает понятие разделяющей мощности решающего правила – это число возможных способов классификации данного объекта, которые допускаются с данной функцией. Можно рассмотреть количество линейных возможных дихотомий для N точек в линейном пространстве n. При этом каждая линейная решающая функция задает две дихотомии (так как нумерация классов может быть 1-2 или наоборот 2-1) Стоит задача разбиения точек в n-мерном пространстве с помощью (n-1) - мерной гиперплоскости. Общее возможных дихотомий для N точек равно 2N – это все возможные классификации: 2N =

№4 слайд
Оказывается, что не все
Содержание слайда: Оказывается, что не все возможные классификации могут быть заданы линейно. На рисунке представлены 4 точки , которые могут быть разделены с помощью 7 гиперплоскостей ( в двумерном пространстве – просто линиями) Оказывается, что не все возможные классификации могут быть заданы линейно. На рисунке представлены 4 точки , которые могут быть разделены с помощью 7 гиперплоскостей ( в двумерном пространстве – просто линиями) Однако существуют дихотомии, которые не могут быть реализованы линейно  x2 Линейно не могут быть заданы: I класс (x2, x4) x1   x3 II класс (x1, x3)  x4 N = 4 Q = 24 = 16 QP = 16 – 2 = 14 Формула, которая задает возможное количество классификаций (дихотомий), реализуемых линейно для N объектов, размерность пространства n: Эта формула имеет место только тогда, когда точки объекта расположено “хорошо”. Это означает, что ни одна из точек группы, состоящей из (n+1) точки, не лежит в подпространстве размерности (n-1).

№5 слайд
Пример Расчет количества
Содержание слайда: Пример Расчет количества возможных линейных дихотомий для N точек в n-мерном пространстве: С ростом размерности число возможных дихотомий резко возрастает. Рассмотрим использование обобщенных линейных дискриминантных функций, полученных с помощью нелинейного преобразования исходного n-мерного пространства в пространство размерности k>n d(X) = f1(x)W1 + f2(x)W2 + ... + fk(x)Wk + Wk+1 , где k > n

№6 слайд
Мы можем построить некие
Содержание слайда: Мы можем построить некие функции от x, путем некоего нелинейного преобразования и соответственно мы можем повысить размерность пространства и искать решение уже там. Мы можем построить некие функции от x, путем некоего нелинейного преобразования и соответственно мы можем повысить размерность пространства и искать решение уже там. Можно ввести понятие вероятность получения линейной дихотомии – это функция PN,K – вероятность того, что данная дихотомия будет реализована с помощью линейной функции.

№7 слайд
Как ведет себя данная
Содержание слайда: Как ведет себя данная функция? Как ведет себя данная функция? Определим параметр : N = (k + 1) Если ввести такой параметр, то получим, если k – обобщенная размерность, график зависимости Это зависимость вероятности получения линейной разделимости N точек при размерности пространства k

№8 слайд
При lt вероятность близка к
Содержание слайда: При  < 2 вероятность близка к единице. При  < 2 вероятность близка к единице. При N < 2(k + 1) вероятность достаточно близка к единице. Величина Ck = 2(k+1) называется мощностью соответствующая линейной решающей функции. Чем больше размерность, тем больше мощность решающей функции. Можно показать, что для исходного пространства с размерностью dim X = n мощность Ck для обобщенных линейных решающих функций определяется следующим образом: гиперплоскость – Ck =2(n+1); гиперсфера – Ck = 2(n+2); поверхность второго порядка: Ck =(n+1)(n+2) полиномиальная поверхность порядка r: Ck =2Crn+r

№9 слайд
Персептронный алгоритм
Содержание слайда: Персептронный алгоритм получения линейных решающих правил

№10 слайд
Персептронный алгоритм
Содержание слайда: Персептронный алгоритм получения линейных решающих правил Простейший методы получения линейных решающих функций на основе персептронных алгоритма обучения основывается на рекуррентном построении решающего правила путем коррекции ошибок. Требуется найти , Wn+1 для построения решающего правила на основе использования конечных обучающих выборок. Введем понятие расширенных векторов . Перейдем от размерности n к n+1 следующим образом:

№11 слайд
Тогда наша система неравенств
Содержание слайда: Тогда наша система неравенств сводится к более простой задаче: Тогда наша система неравенств сводится к более простой задаче: (или <) x  X1 (x  X2) Персептронный алгоритм основан на последовательном просмотре обучающей выборки: X1, ... XN1 ………. XN X1 X2 N = N1 + N2 Процесс обучения заключается в том, что мы циклически просматриваем выборку и подставляем получаемое значение в W в (*), и на каждом шаге просмотра производим или не производим коррекцию весового вектора. 1. , если В этом случае получен правильный ответ при классификации текущего вектора

№12 слайд
. , если . , если , если Этот
Содержание слайда: 2. , если 2. , если , если Этот случай соответствует ошибочной классификации и соответственно производится коррекция весового вектора (должно быть С>0) Эта процедура и является процедурой обучения персептронного типа. Пусть мы имеем величину весового вектора после коррекции: Подставим новый весовой вектор в выражение для решающей функции: Видно, что значение весовой функции увеличилось на положительную величину , то есть мы продвинулись к правильному решению.

№13 слайд
Показано, что если решение
Содержание слайда: Показано, что если решение существует, то алгоритм сходится за конечное число шагов. Показано, что если решение существует, то алгоритм сходится за конечное число шагов. Различные варианты выбора коэффициента C позволяют улучшить данный алгоритм: 1. С – константа . Скорость сходимости может быть мала. 2. С = Cn = var(n) Попробуем менять C на каждом шагу так .чтобы сразу получить на текущем векторе правильное решение. Здесь можно использовать такой выбор , отсюда следует Вывод: Рассмотренный алгоритм появился на основе интуитивных соображений при разработке моделей работы головного мозга человека при решении задач обучения.

Скачать все slide презентации Общие свойства линейных дискриминантных функций в детерминистской постановке одним архивом: