Презентация Теорема Шеннона онлайн

На нашем сайте вы можете скачать и просмотреть онлайн доклад-презентацию на тему Теорема Шеннона абсолютно бесплатно. Урок-презентация на эту тему содержит всего 8 слайдов. Все материалы созданы в программе PowerPoint и имеют формат ppt или же pptx. Материалы и темы для презентаций взяты из открытых источников и загружены их авторами, за качество и достоверность информации в них администрация сайта не отвечает, все права принадлежат их создателям. Если вы нашли то, что искали, отблагодарите авторов - поделитесь ссылкой в социальных сетях, а наш сайт добавьте в закладки.
Презентации » Математика » Теорема Шеннона



Оцените!
Оцените презентацию от 1 до 5 баллов!
  • Тип файла:
    ppt / pptx (powerpoint)
  • Всего слайдов:
    8 слайдов
  • Для класса:
    1,2,3,4,5,6,7,8,9,10,11
  • Размер файла:
    182.32 kB
  • Просмотров:
    139
  • Скачиваний:
    0
  • Автор:
    неизвестен



Слайды и текст к этой презентации:

№1 слайд
Презентация по теме Формула
Содержание слайда: Презентация по теме: «Формула Шеннона. Использование формулы Шеннона» Подготовил студент группы 13Т Приказчик Никита

№2 слайд
Существует множество
Содержание слайда: Существует множество ситуаций, когда возможные события имеют различные вероятности реализации. Например, если монета несимметрична (одна сторона тяжелее другой), то при ее бросании вероятности выпадения "орла" и "решки" будут различаться. Формулу для вычисления количества информации в случае различных вероятностей событий предложил К. Шеннон в 1948 году. В этом случае количество информации определяется по формуле: I - количество информации; N - количество возможных событий; рi - вероятность i-го события.

№3 слайд
Например, пусть при бросании
Содержание слайда: Например, пусть при бросании несимметричной четырехгранной пирамидки вероятности отдельных событий будут равны:Р1 = 1/2, р2 = 1/4, р3 = 1/8, р4 = 1/8. Тогда количество информации, которое мы получим после реализации одного из них, можно рассчитать по формуле:I = -(l/2 log2l/2 + l/4 log2l/4 + l/8 log2l/8 + l/8 log2l/8) = (1/2 + 2/4 + 3/8 + 3/8) битов = 14/8 битов = 1,75 бита. Этот подход к определению количества информации называется вероятностным. Для частного, но широко распространенного и рассмотренного выше случая, когда события равновероятны (pi= 1/N), величину количества информации I можно рассчитать по формуле:

№4 слайд
По формуле можно определить,
Содержание слайда: По формуле можно определить, например, количество информации, которое мы получим при бросании симметричной и однородной четырехгранной пирамидки: I = log24 = 2 бита. Таким образом, при бросании симметричной пирамидки, когда события равновероятны, мы получим большее количество информации (2 бита), чем при бросании несимметричной (1,75 бита), когда события неравновероятны. Количество информации, которое мы получаем, достигает максимального значения, если события равновероятны.

№5 слайд
Качественную связь между
Содержание слайда: Качественную связь между вероятностью события и количеством информации в сообщении об этом событии можно выразить так: чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии. Формула Шеннона совпала по форме с формулой Больцмана, полученной на 70 лет ранее для измерения термодинамической энтропии идеального газа. Эта связь между количеством информации и термодинамической энтропией послужила сначала причиной горячих дискуссий, а затем – ключом к решению ряда научных проблем. В самом общем случае энтропия понимается как мера неупорядоченности, неорганизованности материальных систем.

№6 слайд
В году, исследуя проблему
Содержание слайда: В 1948 году, исследуя проблему рациональной передачи информации через зашумлённый коммуникационный канал, Клод Шеннон предложил революционный вероятностный подход к пониманию коммуникаций и создал первую, истинно математическую, теорию энтропии. Его сенсационные идеи быстро послужили основой разработки двух основных направлений: теории информации, которая использует понятие вероятности и эргодическую теорию для изучения статистических характеристик данных и коммуникационных систем, и теории кодирования, в которой используются главным образом алгебраические и геометрические инструменты для разработки эффективных кодов. Понятие энтропии, как меры случайности, введено Шенноном в его статье «Математическая теория связи» (англ. A Mathematical Theory of Communication), опубликованной в двух частях в Bell System Technical Journal в 1948 году.

№7 слайд
Задача. В озере обитает
Содержание слайда: Задача. В озере обитает 12500 окуней, 25000 пескарей, а карасей и щук по 6250. Какое количество информации несет сообщение о ловле рыбы каждого вида. Сколько информации мы получим, когда поймаем какую-нибудь рыбу? Дано: Ко=12500; Кп=25000; Кк= Кщ=6250 Найти: Iо, Iп, Iк, Iщ, I Решение: Найдем общее количество рыбы: N= Ко+Кп+Кк+Кщ. Найдем вероятность ловли каждого вида рыбы: pо= Ко/N; pп= Кп/N; pк= pщ= Кк/N. Найдем количество информации о ловле рыбы каждого вида: Iо= log2( 1/pо); Iп=log2 (1/pп ); Iк= Iщ= log2 (1/pк ) Найдем количество информации о ловле рыбы любого вида: I= pо∙log2pо+ pп∙log2pп +pк∙log2pк +pщ∙log2pщ

№8 слайд
Вопросы .Формула Шеннона.
Содержание слайда: Вопросы: 1.Формула Шеннона. 2.Для чего используется Формула Шеннона? 3.

Скачать все slide презентации Теорема Шеннона одним архивом: