Презентация Характеристики параллельных алгоритмов онлайн
На нашем сайте вы можете скачать и просмотреть онлайн доклад-презентацию на тему Характеристики параллельных алгоритмов абсолютно бесплатно. Урок-презентация на эту тему содержит всего 57 слайдов. Все материалы созданы в программе PowerPoint и имеют формат ppt или же pptx. Материалы и темы для презентаций взяты из открытых источников и загружены их авторами, за качество и достоверность информации в них администрация сайта не отвечает, все права принадлежат их создателям. Если вы нашли то, что искали, отблагодарите авторов - поделитесь ссылкой в социальных сетях, а наш сайт добавьте в закладки.
Презентации » Образование » Характеристики параллельных алгоритмов
Оцените!
Оцените презентацию от 1 до 5 баллов!
- Тип файла:ppt / pptx (powerpoint)
- Всего слайдов:57 слайдов
- Для класса:1,2,3,4,5,6,7,8,9,10,11
- Размер файла:546.50 kB
- Просмотров:60
- Скачиваний:0
- Автор:неизвестен
Слайды и текст к этой презентации:
№3 слайд
![Алгоритмы Алгоритм набор](/documents_5/c6c581a73a03822e13d707967085c2fc/img2.jpg)
Содержание слайда: Алгоритмы
Алгоритм – набор действий, которые необходимо выполнить для решения задачи
Последовательный алгоритм – решение задачи на одном процессоре
Параллельный алгоритм – решение задачи на одновременно работающих процессорах
Распараллеливание – какие операции должен выполнить каждый процессор параллельной системы
№4 слайд
![Декомпозиция, Связь,](/documents_5/c6c581a73a03822e13d707967085c2fc/img3.jpg)
Содержание слайда: Декомпозиция, Связь, Синхронизация
Декомпозиция – разбиение задачи на составные части
Декомпозиция данных
Декомпозиция функций
Комбинированная декомпозиция
Связь – взаимодействия между составными частями задачи
Синхронизация – обеспечение того, что в некоторый момент все процессоры находятся в строго определенном состоянии
№5 слайд
![Эффективность](/documents_5/c6c581a73a03822e13d707967085c2fc/img4.jpg)
Содержание слайда: Эффективность распараллеливания
Единственная цель распараллеливания – уменьшение времени вычислений
Не все задачи одинаково эффективно распараллеливаются
Задачи теоретического анализа
найти оптимальный метод распараллеливания для данного алгоритма
Определить насколько та или иная схема эффективна
№6 слайд
![Модель Система с p](/documents_5/c6c581a73a03822e13d707967085c2fc/img5.jpg)
Содержание слайда: Модель
Система с p процессорами
Процессоры могут взаимодействовать между собой
В модели с общей памятью
каждый процессор может обращаться независимо к каждой ячейке памяти
При обращении к одной и той же ячейке на запись могут возникать конфликты
В модели с распределенной памятью
Каждые 2 процессора могут взаимодействовать между собой
№8 слайд
![Характеристики эффективности](/documents_5/c6c581a73a03822e13d707967085c2fc/img7.jpg)
Содержание слайда: Характеристики эффективности распараллеливания
Коэффициент ускорения
Во сколько раз время параллельный алгоритм быстрее
Идеальное ускорение
Идеальное ускорение = количеству процессоров
Коэффициент эффективности
Отношение полученного ускорения к идеальному
Какой процент процессоров работает
Коэффициент избыточности
Параллельный алгоритм может потребовать дополнительных операций
Качество распараллеливания
Произведение всех коэффициентов
№9 слайд
![Характеристики системы обмена](/documents_5/c6c581a73a03822e13d707967085c2fc/img8.jpg)
Содержание слайда: Характеристики системы обмена информацией
Время передачи единицы информации
Время начальной задержки
Латентность
Время установления связи
Отношение между временем обработки и временем передачи единицы информации
Отношение между временем обработки единицы информации и временем установления связи
№17 слайд
![Постановка задачи в терминах](/documents_5/c6c581a73a03822e13d707967085c2fc/img16.jpg)
Содержание слайда: Постановка задачи в терминах графа
Последовательности операций соответствует путь на графе
Параллельно могут быть выполнены те операции, между которыми нет пути на графе
Каждой схеме распараллеливания на p процессоров соответствует расписание:
Для операции i
Выбирается процессор Pi
В момент времени ti
Задача: Найти оптимальное расписание для распараллеливания
№18 слайд
![Пример расписания общая](/documents_5/c6c581a73a03822e13d707967085c2fc/img17.jpg)
Содержание слайда: Пример расписания (общая память)
Момент времени 1
H=(операция 1:загрузить а, процессор 1, момент1 )
H=(операция 2:загрузить b, процессор 2, момент1 )
H=(операция 3:загрузить c, процессор 3, момент1 )
H=(операция 4:загрузить d, процессор 4, момент1 )
Момент времени 2
H=(операция 5: а*с, процессор 1, момент2 )
H=(операция 6: а*b, процессор 2, момент2 )
H=(операция 7: c*d, процессор 3, момент2 )
H=(операция 8: b*d, процессор 4, момент2 )
Момент времени 3
H=(операция 9: а*с+b*d, процессор 2, момент3 )
H=(операция 10: a*d+b*c, процессор 3, момент3 )
Момент времени 4
H=(операция 11: а*с+b*d+ a*d+b*c, процессор 3, момент4 )
№19 слайд
![Ограничения на расписание В](/documents_5/c6c581a73a03822e13d707967085c2fc/img18.jpg)
Содержание слайда: Ограничения на расписание
В один и тот же момент времени один процессор не может выполнять разные операции
Если для выполнения следующей операции должен быть готов результат предыдущей
Момент выполнения следующей операции должен быть больше момента выполнения предыдущей операции
№20 слайд
![Определение времени](/documents_5/c6c581a73a03822e13d707967085c2fc/img19.jpg)
Содержание слайда: Определение времени выполнения параллельного алгоритма
Время выполнения соответствует максимально длинному пути графа
Соответствует максимально возможному моменту времени, когда была назначена операция + время выполнения операции
Для практики интересно
минимальное время при данной схеме вычислений
Минимальное время для всех схем вычислений
Минимально возможное время при неограниченном количестве процессоров
№22 слайд
![Доказательство Пусть есть](/documents_5/c6c581a73a03822e13d707967085c2fc/img21.jpg)
Содержание слайда: Доказательство 2
Пусть есть расписание для получения минимально возможного времени
пусть оно соответствует P процессорам
Пусть оно требует времени T∞
Пусть каждый последовательный шаг этого расписания начинается в момент времени ti и всего шагов N∞
Пусть на каждом шаге выполняется ni операций
Общее время выполнения равно
№25 слайд
![Другие свойства Можно](/documents_5/c6c581a73a03822e13d707967085c2fc/img24.jpg)
Содержание слайда: Другие свойства
Можно показать, что максимально возможное ускорение при неизменном количестве операций равно количеству процессоров
Если количество процессоров равно T1/T∞ то время выполнения параллельного алгоритма не будет больше чем в 2 раза превышать оптимальное время выполнения при оптимальном расписании
№26 слайд
![Использование описания с](/documents_5/c6c581a73a03822e13d707967085c2fc/img25.jpg)
Содержание слайда: Использование описания с помощью графов
Вычислительную схему необходимо выбирать с графом минимального диаметра (минимальное время наиболее длинной последовательной операции)
Оценочное оптимальное количество процессоров определяется величиной
Максимальное время выполнения можно оценить
Удобно использовать для формальной оценки эффективности известных вычислительных схем
№27 слайд
![Факторы ограничения и](/documents_5/c6c581a73a03822e13d707967085c2fc/img26.jpg)
Содержание слайда: Факторы ограничения и повышения производительности
Гипотеза Минского – принципиальная непараллельность алгоритма
Закон Амдала – наличие принципиально последовательных участков
Закон Густафсона – линейное ускорение
Гетерогенность – дисбаланс нагрузки
Сверхлинейное ускорение – аппаратное и алгоритмическое
№28 слайд
![Гипотеза Минского Пусть](/documents_5/c6c581a73a03822e13d707967085c2fc/img27.jpg)
Содержание слайда: Гипотеза Минского
Пусть программа имеет p последовательных участков
Пусть переход на тот или другой участок выполняется путем бинарного ветвления
Всего выполнится участков программы
Если всю программу выполнять на p процессорах, то ускорение будет не больше, чем
Для некоторых эффективных последовательных алгоритмов гипотеза справедлива
№29 слайд
![Закон Амдала Amdahl, Наличие](/documents_5/c6c581a73a03822e13d707967085c2fc/img28.jpg)
Содержание слайда: Закон Амдала (Amdahl, 1967)
Наличие последовательных участков приводит к существенному снижению производительности
Пусть есть система из p процессоров
Пусть есть алгоритм, который состоит из участков, которые выполняются параллельно и участков, которые выполняются последовательно
Пусть доля последовательных частей равна α
Тогда доля параллельных частей равна (1- α)
№35 слайд
![Централизованная схема](/documents_5/c6c581a73a03822e13d707967085c2fc/img34.jpg)
Содержание слайда: Централизованная схема
Главный процессор раздает рабочим задачу
Рабочие выполняют задачу и возвращают результат главному процессору
Главный процессор – узкое место – существенно последовательная часть алгоритма
Главный процессор в один момент времени может обработать только данные с одного рабочего
№40 слайд
![Связь или противоречие?](/documents_5/c6c581a73a03822e13d707967085c2fc/img39.jpg)
Содержание слайда: Связь или противоречие?
Используются разные параметры
Амдал – доля последовательных операций последовательного алгоритма
Густафсон – доля последовательных операций параллельного алгоритма
Связь между параметрами
Доля последовательных вычислений зависит от количества процессоров и объема данных с которыми работает алгоритм!
При увеличении количества данных, с которыми работает алгоритм часто количество операций распараллеливаемой части растет быстрее, чем количество операций последовательной части и в явном виде закон Густафсона более применим
Для быстрых алгоритмов с малым количеством операций в явном виде лучше подходит закон Амдала
№41 слайд
![Практическое применение](/documents_5/c6c581a73a03822e13d707967085c2fc/img40.jpg)
Содержание слайда: Практическое применение законов Амдала и Густафсона
При очень малом количестве последовательных операций возможно очень большое ускорение при очень большом количестве процессоров
При увеличении объемов данных с которыми работает алгоритм эффекимвность распараллеливания растет
№43 слайд
![Дисбаланс нагрузки Если](/documents_5/c6c581a73a03822e13d707967085c2fc/img42.jpg)
Содержание слайда: Дисбаланс нагрузки
Если алгоритм, рассчитанный на гомогенную систему запустить на гетерогенной, то
Более быстрые процессоры выполнят свою работу быстрее
Более медленные процессоры будут работать дольше
Время выполнения такой параллельной программы будет определяться самым медленным процессором!!!
Эффективность распараллеливания падает – часть процессоров простаивает
№46 слайд
![Аппаратное сверхлинейное](/documents_5/c6c581a73a03822e13d707967085c2fc/img45.jpg)
Содержание слайда: Аппаратное сверхлинейное ускорение
Возможно, если процессоры параллельной программы выполняют параллельный код с большей производительностью, чем последовательный
Каждый процессор параллельной системы может
выполнять больше последовательных однотипных операций
Работать с меньшими объемами данных (за счет декомпозиции)
Данные и код лучше размещаются в оперативной памяти
Увеличивается вероятность попадания данных и кода в кэш
Очень часто встречается на практике для математических задач!!!
№48 слайд
![Пример подбор пароля Пусть](/documents_5/c6c581a73a03822e13d707967085c2fc/img47.jpg)
Содержание слайда: Пример: подбор пароля
Пусть последовательный алгоритм поиска имеет p стадий
Стадия1: Перебор географических названий
Стадия2: Перебор нецензурных слов
Стадия3: Перебор компьютерных терминов
…
Последовательный алгоритм выполняет все стадии последовательно и в случае успеха останавливается
№56 слайд
![Выводы В большинстве случаев](/documents_5/c6c581a73a03822e13d707967085c2fc/img55.jpg)
Содержание слайда: Выводы
В большинстве случаев ускорение за счет распараллеливания не может быть больше количества процессоров
Обычно ускорение значительно меньше количества процессоров
На практике встречаются ситуации, когда возможно сверхлинейное или близкое к идеальному ускорение
При увеличении количества процессоров эффективность распараллеливания падает
Для каждой задачи существует свое оптимальное количество процессоров
При увеличении количества данных и количества операций алгоритма решения задачи, эффективность распараллеливания увеличивается
Если задача эффективно и быстро решается на однопроцессорной системе, то переход к многопроцессорному алгоритму обычно не значительно увеличивает эффективность
Скачать все slide презентации Характеристики параллельных алгоритмов одним архивом:
Похожие презентации
-
Примеры разработки параллельных алгоритмов (реальная оптимизация)
-
Параллельные алгоритмы обмена информацией
-
Растровые алгоритмы и характеристики растра
-
Моделирование и анализ параллельных вычислений. Коммуникационная трудоемкость параллельных алгоритмов.
-
Обсуждаемые вопросы Определение и характеристики массива Принципы работы с массивами Объявление (декларация) Создание (выделение
-
Защитени бозайници в БългарияОбща характеристика Бозайниците (Mammalia) са най-висшият клас гръбначни животни. Името идва от начина им
-
Составные условия в разветвляющихся алгоритмах М. Е. Макарова http://www. uchinfo. com. ua http://www. uchinfo. com. ua. - презентация
-
Последовательное и параллельное соединение проводников
-
Общая характеристика элементов главной подгруппы VI группы (подгруппы кислорода)
-
Программирование ветвящихся алгоритмов. Условный оператор