Презентация Параллельные вычислительные системы онлайн
На нашем сайте вы можете скачать и просмотреть онлайн доклад-презентацию на тему Параллельные вычислительные системы абсолютно бесплатно. Урок-презентация на эту тему содержит всего 176 слайдов. Все материалы созданы в программе PowerPoint и имеют формат ppt или же pptx. Материалы и темы для презентаций взяты из открытых источников и загружены их авторами, за качество и достоверность информации в них администрация сайта не отвечает, все права принадлежат их создателям. Если вы нашли то, что искали, отблагодарите авторов - поделитесь ссылкой в социальных сетях, а наш сайт добавьте в закладки.
Презентации » Технология » Параллельные вычислительные системы
Оцените!
Оцените презентацию от 1 до 5 баллов!
- Тип файла:ppt / pptx (powerpoint)
- Всего слайдов:176 слайдов
- Для класса:1,2,3,4,5,6,7,8,9,10,11
- Размер файла:1.77 MB
- Просмотров:105
- Скачиваний:1
- Автор:неизвестен
Слайды и текст к этой презентации:
№2 слайд
![Чарльз Бэббидж первое](/documents_6/7e00f966782d030ba87c20b3f1185215/img1.jpg)
Содержание слайда: Чарльз Бэббидж:
первое упоминание о параллелизме
" В случае выполнения серии идентичных вычислений, подобных операции умножения и необходимых для формирования цифровых таблиц, машина может быть введена в действие с целью выдачи нескольких результатов одновременно, что очень существенно сократит весь объем процессов"
№5 слайд
![Определение параллелизма П.М.](/documents_6/7e00f966782d030ba87c20b3f1185215/img4.jpg)
Содержание слайда: Определение параллелизма
П.М. Коуги
Параллелизм - воспроизведение в нескольких копиях некоторой аппаратной структуры, что позволяет достигнуть повышения производительности за счет одновременной работы всех элементов структуры, осуществляющих решение различных частей этой задачи.
№25 слайд
![Конвейерные ВС Условия](/documents_6/7e00f966782d030ba87c20b3f1185215/img24.jpg)
Содержание слайда: Конвейерные ВС – Условия конвейеризации
вычисление базовой функции эквивалентно вычислению некоторой последовательности подфункций;
величины, являющиеся входными для данной подфункции, являются выходными величинами той подфункции, которая предшествует данной в процессе вычисления;
никаких других взаимосвязей, кроме обмена данными, между подфункциями нет;
№31 слайд
![Конвейерные ВС Проблемы](/documents_6/7e00f966782d030ba87c20b3f1185215/img30.jpg)
Содержание слайда: Конвейерные ВС – Проблемы управления
разный период времени обработки данных на разных ступенях;
обратная связь от текущей ступени к какой-либо из предыдущих;
множественные пути от текущей ступени к последующим;
подача элемента данных более чем на одну ступень одновременно (элемент распараллеливания обработки);
существование между входными элементами зависимостей, которые принуждают к определенному упорядочению связанных с ними вычислений;
№32 слайд
![Конвейерные ВС Стратегия](/documents_6/7e00f966782d030ba87c20b3f1185215/img31.jpg)
Содержание слайда: Конвейерные ВС – Стратегия управления
Стратегия управления - процедура, которая выбирает последовательность латентностей.
Жадная стратегия - выбирает всегда минимально возможную латентность между данной и следующей инициацией без учета каких бы то ни было следующих инициаций.
Оптимальная стратегия - обеспечивает минимальную достижимую среднюю латентность.
№33 слайд
![Конвейерные ВС](/documents_6/7e00f966782d030ba87c20b3f1185215/img32.jpg)
Содержание слайда: Конвейерные ВС –
Векторно-конвейерные процессоры
Вектор - набор данных, которые должны быть обработаны по одному алгоритму.
Векторные команды - команды, предназначенные для организации эффективной обработки векторных данных.
Векторные процессоры - процессоры, предназначенные для реализации эффективной обработки векторных данных.
№35 слайд
![Векторно-конвейерные](/documents_6/7e00f966782d030ba87c20b3f1185215/img34.jpg)
Содержание слайда: Векторно-конвейерные процессоры -
Cray - 1
Компания Cray Research в 1976г. выпускает первый векторно-конвейерный компьютер CRAY-1:
время такта 12.5нс,
12 конвейерных функциональных устройств
пиковая производительность 160 миллионов операций в секунду,
оперативная память до 1Мслова (слово - 64 разряда),
цикл памяти 50нс.
№36 слайд
![Развитие векторных](/documents_6/7e00f966782d030ba87c20b3f1185215/img35.jpg)
Содержание слайда: Развитие векторных процессоров -
Параллельно-векторные процессоры (PVP)
Архитектура. PVP-системы строятся из векторно-конвейерных процессоров, в которых предусмотрены команды однотипной обработки векторов независимых данных.
Как правило, несколько таких процессоров (1-16) работают одновременно над общей памятью (аналогично SMP) в рамках многопроцессорных конфигураций. Несколько таких узлов могут быть объединены с помощью коммутатора (аналогично MPP).
№37 слайд
![Развитие векторных](/documents_6/7e00f966782d030ba87c20b3f1185215/img36.jpg)
Содержание слайда: Развитие векторных процессоров -
Параллельно-векторные процессоры (PVP)
Примеры. NEC SX-4/SX-5, линия векторно-конвейерных компьютеров CRAY: от CRAY-1, CRAY J90/T90, CRAY SV1, CRAY X1, серия Fujitsu VPP.
Модель программирования. Эффективное программирование подразумевает векторизацию циклов и их распараллеливание (для одновременной загрузки нескольких процессоров одним приложением).
№41 слайд
![Конвейеризация](/documents_6/7e00f966782d030ba87c20b3f1185215/img40.jpg)
Содержание слайда: Конвейеризация однопроцессорных ЭВМ. Первый этап – предварительная выборка
Предварительная (опережающая) выборка команд - выборка следующей команды во время завершения текущей.
Введение модифицированного метода предварительной выборки позволяет повысить производительность реальных ЭВМ в среднем на 24% по сравнению с неконвейеризованными ЭВМ.
№44 слайд
![Конвейеризация](/documents_6/7e00f966782d030ba87c20b3f1185215/img43.jpg)
Содержание слайда: Конвейеризация однопроцессорных ЭВМ. Второй этап – конвейеризация ЦП.
При проектировании конвейера для процессора машины с архитектурой ОКОД требуются следующие данные:
разбиения всех типов команд, включенных в систему команд процессора;
время исполнения каждой ступенью конвейера всех типов разбиений команд в общих (часто условных) единицах времени;
смесь команд, на которую должен ориентироваться разработчик
№45 слайд
![Конвейеризация](/documents_6/7e00f966782d030ba87c20b3f1185215/img44.jpg)
Содержание слайда: Конвейеризация однопроцессорных ЭВМ. Помехи.
Помеха возникает, когда к одному элементу данных (ячейке памяти, регистру, разряду слова состояния) обращаются две или более команд, которые расположены в программе настолько близко, что при выполнении происходит их перекрытие в конвейере.
№54 слайд
![ОКМД Однородная](/documents_6/7e00f966782d030ba87c20b3f1185215/img53.jpg)
Содержание слайда: ОКМД –
Однородная вычислительная среда
Однородная вычислительная среда - регулярная решетка из однотипных процессорных элементов (ПЭ).
Каждый ПЭ может как обладать алгоритмически полным набором операций, так и реализовывать один вид операций, жестко заданный в структуре микросхемы на этапе проектирования, а также операциями обмена или взаимодействия с другими ПЭ.
№55 слайд
![ОКМД Однородная](/documents_6/7e00f966782d030ba87c20b3f1185215/img54.jpg)
Содержание слайда: ОКМД –
Однородная вычислительная среда
Систолическая матрица - реализация однородной вычислительной среды на СБИС.
Систолическая матрица представляет собой регулярный массив процессорных элементов, выполняющих на протяжении каждого такта одинаковые вычислительные операции с пересылкой результатов вычислений своим ближайшим соседям.
№64 слайд
![Параллельные ВС класса МКМД](/documents_6/7e00f966782d030ba87c20b3f1185215/img63.jpg)
Содержание слайда: Параллельные ВС класса МКМД
Симметричные мультипроцессоры - SMP
Примеры. HP 9000 V-class, N-class; SMP-cервера и рабочие станции на базе процессоров Intel.
Масштабируемость. Наличие общей памяти упрощает взаимодействие процессоров между собой, однако накладывает сильные ограничения на их число - не более 32 в реальных системах.
№65 слайд
![Параллельные ВС класса МКМД](/documents_6/7e00f966782d030ba87c20b3f1185215/img64.jpg)
Содержание слайда: Параллельные ВС класса МКМД
Симметричные мультипроцессоры - SMP
Операционная система. Система работает под управлением единой ОС (обычно UNIX-подобной, но для Intel-платформ поддерживается Windows NT). ОС автоматически распределяет процессы/нити по процессорам; но иногда возможна и явная привязка.
Модель программирования – с обменом данными через общую память (POSIX threads, OpenMP).
№66 слайд
![МКМД Мультипроцессоры с](/documents_6/7e00f966782d030ba87c20b3f1185215/img65.jpg)
Содержание слайда: МКМД – Мультипроцессоры
с распределенной памятью (NUMA)
Cache-Only Memory Architecture, COMA - для представления данных используется только локальная кэш-память имеющихся процессоров.
Cache-Coherent NUMA, CC-NUMA - обеспечивается однозначность локальных кэш-памятей разных процессоров.
Non-Cache Coherent NUMA, NCC-NUMA - обеспечивается общий доступ к локальной памяти разных процессоров без поддержки на аппаратном уровне когерентности кэша.
№73 слайд
![Параллельные ВС класса МКМД](/documents_6/7e00f966782d030ba87c20b3f1185215/img72.jpg)
Содержание слайда: Параллельные ВС класса МКМД
Симметричные мультипроцессоры - SMP
Примеры. HP 9000 V-class, N-class; SMP-cервера и рабочие станции на базе процессоров Intel.
Масштабируемость. Наличие общей памяти упрощает взаимодействие процессоров между собой, однако накладывает сильные ограничения на их число - не более 32 в реальных системах.
№74 слайд
![Параллельные ВС класса МКМД](/documents_6/7e00f966782d030ba87c20b3f1185215/img73.jpg)
Содержание слайда: Параллельные ВС класса МКМД
Симметричные мультипроцессоры - SMP
Операционная система. Система работает под управлением единой ОС (обычно UNIX-подобной, но для Intel-платформ поддерживается Windows NT). ОС автоматически распределяет процессы/нити по процессорам; но иногда возможна и явная привязка.
Модель программирования – с обменом данными через общую память (POSIX threads, OpenMP).
№75 слайд
![МКМД Мультипроцессоры с](/documents_6/7e00f966782d030ba87c20b3f1185215/img74.jpg)
Содержание слайда: МКМД – Мультипроцессоры
с распределенной памятью (NUMA)
Cache-Only Memory Architecture, COMA - для представления данных используется только локальная кэш-память имеющихся процессоров.
Cache-Coherent NUMA, CC-NUMA - обеспечивается однозначность локальных кэш-памятей разных процессоров.
Non-Cache Coherent NUMA, NCC-NUMA - обеспечивается общий доступ к локальной памяти разных процессоров без поддержки на аппаратном уровне когерентности кэша.
№79 слайд
![Суперкомпьютер это Компьютер](/documents_6/7e00f966782d030ba87c20b3f1185215/img78.jpg)
Содержание слайда: Суперкомпьютер – это …
Компьютер с производительностью свыше 10 000 млн. теоретических операций в сек.
Компьютер стоимостью более 2 млн. долларов.
Штучно или мелкосерийно выпускаемая вычислительная система, производительность которой многократно превосходит производительность массово выпускаемых компьютеров.
Вычислительная система, сводящая проблему вычислений любого объема к проблеме ввода/вывода.
№80 слайд
![Суперкомпьютеры -я редакция](/documents_6/7e00f966782d030ba87c20b3f1185215/img79.jpg)
Содержание слайда: Суперкомпьютеры
29-я редакция Top500 от 27.06.2007
1 - прототип будущего суперкомпьютера IBM BlueGene/L с производительностью на Linpack 280.6 TFlop/s.
2 - Cray XT4/XT3, установленный в Oak Ridge National Laboratory, производительность на тесте Linpack составила 101.7 TFlop/s.
3 - Cray Red Storm с производительностью 101.4 TFlop/s на тесте Linpack.
№91 слайд
![Элементная база параллельных](/documents_6/7e00f966782d030ba87c20b3f1185215/img90.jpg)
Содержание слайда: Элементная база параллельных ВС Микропроцессор AMD Opteron
10 сентября 2007 года Компания AMD представила процессор Quad-Core AMD Opteron (ранее известный под кодовым названием Barcelona), по словам производителя, «самый передовой x86-процессор из когда либо созданных и производимых, и первый настоящий четырехъядерный x86-микропроцессор»
№107 слайд
![Коммутирующие среды](/documents_6/7e00f966782d030ba87c20b3f1185215/img106.jpg)
Содержание слайда: Коммутирующие среды параллельных ВС
Myrinet
Недостатки Myrinet:
нестандартное решение, поддерживаемое всего одним производителем;
ограниченная пропускная способность — не более 2 Гбит/с (в ближайшее время ожидается появление варианта 10 Гбит/с);
сложная структура кабельной проводки при максимуме 256 узлов;
отсутствие возможности подключения к сетям хранения и глобальным сетям;
отсутствие систем хранения с поддержкой этой технологии.
№108 слайд
![Коммутирующие среды](/documents_6/7e00f966782d030ba87c20b3f1185215/img107.jpg)
Содержание слайда: Коммутирующие среды параллельных ВС Infiniband
Достоинства Infiniband:
стандарт Infiniband Trade Assotiation (IBTA);
несколько производителей;
небольшое время задержки;
пропускная способность 2, 10, 30 Гбит/с;
поддержка приоритезации Quality of Service;
наличие сдвоенных адаптеров 2 х 10 Гбит/с.
№109 слайд
![Коммутирующие среды](/documents_6/7e00f966782d030ba87c20b3f1185215/img108.jpg)
Содержание слайда: Коммутирующие среды параллельных ВС Infiniband
Недостатки Infiniband:
сложность изменения физической и логической структуры;
необходимость применения дополнительного шлюза для подключения к магистральной сети или глобальной сети;
сложная и дорогостоящая кабельная проводка;
ограничения на дальность передачи (17 м в случае применения электропроводных кабелей);
№110 слайд
![Коммутирующие среды](/documents_6/7e00f966782d030ba87c20b3f1185215/img109.jpg)
Содержание слайда: Коммутирующие среды параллельных ВС Ethernet
Достоинства Ethernet:
наличие развитого инструментария для управления и отладки;
простая и дешевая кабельная проводка;
высокая эксплуатационная надежность;
высокая собственная динамика при построении сетей хранения на базе IP с iSCSI;
возможность формирования структуры из нескольких удаленных кластеров (Grid);
низкие вычислительные затраты в случае интеграции сетевого адаптера на системную плату;
№111 слайд
![Коммутирующие среды](/documents_6/7e00f966782d030ba87c20b3f1185215/img110.jpg)
Содержание слайда: Коммутирующие среды параллельных ВС Ethernet
Недостатки Ethernet:
наличие задержки (сокращение времени задержки за счет применения TOE и RDMA должно получить свое практическое подтверждение);
высокая стоимость 10-гигабитного интерфейса (в ближайшем будущем ожидается снижение цены).
№115 слайд
![Параллельные ВС GRID](/documents_6/7e00f966782d030ba87c20b3f1185215/img114.jpg)
Содержание слайда: Параллельные ВС
GRID – предпосылки возникновения
Необходимость в концентрации огромного количества данных, хранящихся в разных организациях
Необходимость выполнения очень большого количества вычислений в рамках решения одной задачи.
Необходимость в совместном использовании больших массивов данных территориально разрозненной рабочей группой,
№118 слайд
![Параллельные ВС Свойства GRID](/documents_6/7e00f966782d030ba87c20b3f1185215/img117.jpg)
Содержание слайда: Параллельные ВС
Свойства GRID
масштабы вычислительного ресурса многократно превосходят ресурсы отдельного компьютера (вычислительного комплекса)
гетерогенность среды
пространственное (географическое) распределение информационно-вычислительного ресурса;
объединение ресурсов, которые не могут управляться централизованно (не принадлежат одной организации);
использование стандартных, открытых, общедоступных протоколов и интерфейсов;
обеспечение информационной безопасности.
№119 слайд
![Параллельные ВС Области](/documents_6/7e00f966782d030ba87c20b3f1185215/img118.jpg)
Содержание слайда: Параллельные ВС
Области применения GRID
массовая обработка потоков данных большого объема;
многопараметрический анализ данных;
моделирование на удаленных суперкомпьютерах;
реалистичная визуализация больших наборов данных;
сложные бизнес-приложения с большими объемами вычислений.
№126 слайд
![Параллельные ВС Прикладное ПО](/documents_6/7e00f966782d030ba87c20b3f1185215/img125.jpg)
Содержание слайда: Параллельные ВС
Прикладное ПО – подходы к созданию
Написание параллельной программы «с нуля»
Достоинства:
Возможность получения эффективного кода
Недостатки:
Высокая трудоемкость подхода
Высокие требования к квалификации программиста
Высокая вероятность ошибок в коде, трудность отладки ПО
№127 слайд
![Параллельные ВС Прикладное ПО](/documents_6/7e00f966782d030ba87c20b3f1185215/img126.jpg)
Содержание слайда: Параллельные ВС
Прикладное ПО – подходы к созданию
Автоматическое распараллеливание последовательной программы
Достоинства:
Использование наработанного (последовательного) программного обеспечения
Высокая надежность кода
Недостатки:
Низкая эффективность распараллеливания
№128 слайд
![Параллельные ВС Прикладное ПО](/documents_6/7e00f966782d030ba87c20b3f1185215/img127.jpg)
Содержание слайда: Параллельные ВС
Прикладное ПО – подходы к созданию
Смешанный подход – автоматическое распараллеливание с последующей оптимизацией
Этот подход в равной мере обладает и достоинствами, и недостатками обеих методов, описанных ранее.
Его применение требует обширного набора инструментальных программных средств.
№131 слайд
![Программирование параллельных](/documents_6/7e00f966782d030ba87c20b3f1185215/img130.jpg)
Содержание слайда: Программирование параллельных ВС
Системы с разделяемой памятью
Программирование систем с разделяемой памятью осуществляется согласно модели обмена через общую память
Инструментальные средства: POSIX threads, OpenMP.
Для подобных систем существуют сравнительно эффективные средства автоматического распараллеливания.
№133 слайд
![Программирование параллельных](/documents_6/7e00f966782d030ba87c20b3f1185215/img132.jpg)
Содержание слайда: Программирование параллельных ВС
OpenMP – структура программы
Основная нить и только она исполняет все последовательные области программы.
При входе в параллельную область порождаются дополнительные нити.
После порождения каждая нить получает свой уникальный номер, причем нить-мастер всегда имеет номер 0.
Все нити исполняют один и тот же код, соответствующий параллельной области.
При выходе из параллельной области основная нить дожидается завершения остальных нитей, и дальнейшее выполнение программы продолжает только она.
№134 слайд
![Программирование параллельных](/documents_6/7e00f966782d030ba87c20b3f1185215/img133.jpg)
Содержание слайда: Программирование параллельных ВС
OpenMP – переменные
В параллельной области все переменные программы разделяются общие (SHARED) и локальные (PRIVATE).
Общая переменная всегда существует в одном экземпляре и доступна всем нитям под одним и тем же именем.
Объявление локальной переменной вызывает порождение своего экземпляра данной переменной для каждой нити.
Изменение нитью значения своей локальной переменной никак не влияет на значения этой же локальной переменной в других нитях.
№137 слайд
![Программирование параллельных](/documents_6/7e00f966782d030ba87c20b3f1185215/img136.jpg)
Содержание слайда: Программирование параллельных ВС Кластеры и MPP
Программирование кластерных и MPP параллельных ВС осуществляется в рамках модели передачи сообщений.
Инструментальные средства: MPI, PVM, BSPlib.
Стандартом, использующимся при разработке программ, основанных на передаче сообщений, является стандарт MPI (Message Passing Interface – Взаимодействие через передачу сообщений).
№138 слайд
![Программирование параллельных](/documents_6/7e00f966782d030ba87c20b3f1185215/img137.jpg)
Содержание слайда: Программирование параллельных ВС
MPI
При запуске MPI-программы создается несколько ветвей;
Все ветви программы запускаются загрузчиком одновременно как процессы;
Ветви объединяются в группы - это некое множество взаимодействующих ветвей;
Каждой группе в соответствие ставится область связи;
Каждой области связи в соответствие ставится коммуникатор.
№141 слайд
![MPI - Функции инициализации и](/documents_6/7e00f966782d030ba87c20b3f1185215/img140.jpg)
Содержание слайда: MPI - Функции инициализации и завершения
int MPI_Init( int* argc, char*** argv)
Инициализация параллельной части приложения. Все MPI-процедуры могут быть вызваны только после вызова MPI_Init. Возвращает: в случае успешного выполнения - MPI_SUCCESS, иначе - код ошибки.
int MPI_Finalize( void )
MPI_Finalize - завершение параллельной части приложения. Все последующие обращения к любым MPI-процедурам, в том числе к MPI_Init, запрещены.
№142 слайд
![MPI информационные функции](/documents_6/7e00f966782d030ba87c20b3f1185215/img141.jpg)
Содержание слайда: MPI – информационные функции
int MPI_Comm_size(MPI_Comm comm, int* size)
Определение общего числа параллельных процессов в группе comm.
comm - идентификатор группы
OUT size - размер группы
int MPI_Comm_rank(MPI_comm comm, int* rank)
Определение номера процесса в группе comm. Значение, возвращаемое по адресу &rank, лежит в диапазоне от 0 до size_of_group-1.
№143 слайд
![MPI функции обмена](/documents_6/7e00f966782d030ba87c20b3f1185215/img142.jpg)
Содержание слайда: MPI –функции обмена «точка-точка»
int MPI_Send(void* buf, int count, MPI_Datatype datatype, int dest, int msgtag, MPI_Comm comm)
Блокирующая посылка сообщения.
buf - адрес начала буфера посылки сообщения
count - число передаваемых элементов в сообщении
datatype - тип передаваемых элементов
dest - номер процесса-получателя
msgtag - идентификатор сообщения
comm - идентификатор группы
№144 слайд
![MPI функции обмена](/documents_6/7e00f966782d030ba87c20b3f1185215/img143.jpg)
Содержание слайда: MPI –функции обмена «точка-точка»
int MPI_Recv(void* buf, int count, MPI_Datatype datatype, int source, int msgtag, MPI_comm comm, MPI_Status *status)
Прием сообщения.
OUT buf - адрес начала буфера приема сообщения
count - максимальное число элементов в принимаемом сообщении
datatype - тип элементов принимаемого сообщения
source - номер процесса-отправителя
msgtag - идентификатор принимаемого сообщения
comm - идентификатор группы
status - параметры принятого сообщения
№145 слайд
![MPI аргументы джокеры функций](/documents_6/7e00f966782d030ba87c20b3f1185215/img144.jpg)
Содержание слайда: MPI – аргументы – «джокеры» функций обмена «точка-точка»
MPI_ANY_SOURCE – заменяет аргумент «номер передающего процесса»; признак того, что подходит сообщение от любого процесса.
MPI_ANY_TAG – заменяет аргумент «идентификатор сообщения»; признак того, что подходит сообщение с любым идентификатором.
№151 слайд
![MPI коллективные функции int](/documents_6/7e00f966782d030ba87c20b3f1185215/img150.jpg)
Содержание слайда: MPI – коллективные функции
int MPI_Barrier( MPI_Comm comm );
Останавливает выполнение вызвавшей ее задачи до тех пор, пока не будет вызвана изо всех остальных задач, подсоединенных к указываемому коммуникатору. Гарантирует, что к выполнению следующей за MPI_Barrier инструкции каждая задача приступит одновременно с остальными.
№152 слайд
![MPI функции коллективного](/documents_6/7e00f966782d030ba87c20b3f1185215/img151.jpg)
Содержание слайда: MPI –функции коллективного обмена
Основные особенности и отличия от коммуникаций типа "точка-точка":
на прием и/или передачу работают все задачи-абоненты указываемого коммуникатора;
коллективная функция выполняет одновременно и прием, и передачу; она имеет большое количество параметров, часть которых нужна для приема, а часть для передачи; в разных задачах та или иная часть игнорируется;
как правило, значения параметров (за исключением адресов буферов) должны быть идентичными во всех задачах;
№153 слайд
![MPI функции коллективного](/documents_6/7e00f966782d030ba87c20b3f1185215/img152.jpg)
Содержание слайда: MPI –функции коллективного обмена
int MPI_Bcast(void *buf, int count, MPI_Datatype datatype, int source, MPI_Comm comm)
Рассылка сообщения от процесса source всем процессам, включая рассылающий процесс.
buf - адрес начала буфера посылки сообщения
count - число передаваемых элементов в сообщении
datatype - тип передаваемых элементов
source - номер рассылающего процесса
comm - идентификатор группы
№154 слайд
![MPI функции коллективного](/documents_6/7e00f966782d030ba87c20b3f1185215/img153.jpg)
Содержание слайда: MPI –функции коллективного обмена
MPI_Gather ("совок") собирает в приемный буфер задачи root передающие буфера остальных задач.
MPI_Scatter ("разбрызгиватель") : части передающего буфера из задачи root распределяются по приемным буферам всех задач.
MPI_Allgather аналогична MPI_Gather, но прием осуществляется не в одной задаче, а во ВСЕХ: каждая имеет специфическое содержимое в передающем буфере, и все получают одинаковое содержимое в буфере приемном.
MPI_Alltoall : каждый процесс нарезает передающий буфер на куски и рассылает куски остальным процессам.
№157 слайд
![Параллельные ВС класса МКМД](/documents_6/7e00f966782d030ba87c20b3f1185215/img156.jpg)
Содержание слайда: Параллельные ВС класса МКМД
Кластеры
Архитектура. Набор элементов высокой степени готовности, рабочих станций или ПК общего назначения, объединяемых при помощи сетевых технологий и используемых в качестве массивно-параллельного компьютера.
Коммуникационная среда. Стандартные сетевые технологий (Fast/Gigabit Ethernet, Myrinet) на базе шинной архитектуры или коммутатора.
№159 слайд
![Параллельные ВС класса МКМД](/documents_6/7e00f966782d030ba87c20b3f1185215/img158.jpg)
Содержание слайда: Параллельные ВС класса МКМД
Кластеры
Операционная система - стандартные ОС - Linux/FreeBSD, вместе со средствами поддержки параллельного программирования и распределения нагрузки.
Модель программирования - с использованием передачи сообщений (PVM, MPI).
Основная проблема - большие накладные расходы на взаимодействие параллельных процессов между собой, что сильно сужает потенциальный класс решаемых задач.
№160 слайд
![Кластеры высокой надежности в](/documents_6/7e00f966782d030ba87c20b3f1185215/img159.jpg)
Содержание слайда: Кластеры высокой надежности
в случае сбоя ПО на одном из узлов приложение продолжает функционировать или автоматически перезапускается на других узлах кластера;
выход из строя одного из узлов (или нескольких) не приведет к краху всей кластерной системы;
профилактические и ремонтные работы, реконфигурацию или смену версий программного обеспечения можно осуществлять в узлах кластера поочередно, не прерывая работы других узлов.
№163 слайд
![Высокопроизводительные](/documents_6/7e00f966782d030ba87c20b3f1185215/img162.jpg)
Содержание слайда: Высокопроизводительные кластеры
Высокопроизводительный кластер -
параллельная вычислительная система с распределенной памятью;
построенная из компонент общего назначения;
с единой точкой доступа;
однородными вычислительными узлами;
специализированной сетью, обеспечивающей эффективный обмен данными.
№168 слайд
![Кластеры - Системное ПО](/documents_6/7e00f966782d030ba87c20b3f1185215/img167.jpg)
Содержание слайда: Кластеры - Системное ПО
Windows Compute Cluster Server 2003
Упрощенная настройка параметров безопасности и проверки подлинности за счет использования существующих экземпляров Active Directory.
Управление обновлениями для узлов с помощью Microsoft Systems Management Server (SMS).
Управление системой и заданиями с помощью Microsoft Operations Manager (MOM).
Использование оснасток из состава консоли управления Майкрософт (MMC).
CCS совместим с ведущими приложениями в каждой из целевых групп. Это позволяет развертывать серийные приложения, пользуясь разнообразными вариантами поддержки.
№169 слайд
![Кластеры - Системное ПО](/documents_6/7e00f966782d030ba87c20b3f1185215/img168.jpg)
Содержание слайда: Кластеры - Системное ПО
Solaris (Sun Microsystems)
Коммерческая верся UNIX.
поддержка до 1 млн. одновременно работающих процессов;
до 128 процессоров в одной системе и до 848 процессоров в кластере;
до 576 Гбайт физической оперативной памяти;
поддержка файловых систем размером до 252 Тбайт;
наличие средств управления конфигурациями и изменениями;
встроенная совместимость с Linux.
№170 слайд
![Кластеры - Системное ПО HP-UX](/documents_6/7e00f966782d030ba87c20b3f1185215/img169.jpg)
Содержание слайда: Кластеры - Системное ПО
HP-UX (Hewlett-Packard)
Потомок AT&T System V.
поддерживает до 256 процессоров;
поддерживает кластеры размером до 128 узлов;
подключение и отключение дополнительных процессоров, замену аппаратного обеспечения, динамическую настройку и обновление операционной системы без перезагрузки;
резервное копирование в режиме on-line и дефрагментацию дисков без выключения системы.
№173 слайд
![Кластеры на основе локальной](/documents_6/7e00f966782d030ba87c20b3f1185215/img172.jpg)
Содержание слайда: Кластеры на основе
локальной (корпоративной) сети
При объединении в кластер компьютеров разной мощности или разной архитектуры, говорят о гетерогенных (неоднородных) кластерах.
Узлы кластера могут одновременно использоваться в качестве пользовательских рабочих станций (кластер WOB)
№174 слайд
![Кластеры на основе локальной](/documents_6/7e00f966782d030ba87c20b3f1185215/img173.jpg)
Содержание слайда: Кластеры на основе
локальной (корпоративной) сети
Операционная система - стандартные ОС - вместе со средствами поддержки параллельного программирования и распределения нагрузки.
Модель программирования - с использованием передачи сообщений (PVM, MPI).
Основная проблема - большие накладные расходы на взаимодействие параллельных процессов между собой, что сильно сужает потенциальный класс решаемых задач.
Скачать все slide презентации Параллельные вычислительные системы одним архивом:
Похожие презентации
-
Архитектура параллельных вычислительных систем
-
Архитектура параллельных вычислительных систем. Часть 2. Классификация ПВС
-
Архитектура параллельных вычислительных систем. Часть 1. История и проблематика. Основы параллельного программирования
-
Организация ЭВМ и систем. Параллельные системы. Многомашинные и многопроцессорные вычислительные системы. (Лекция 9)
-
Вычислительные системы
-
Вычислительные системы в системах управления. Микроконтроллеры
-
Система команд. Аппаратные средства вычислительной техники. (Лекция 6)
-
Оценка производительности вычислительных систем
-
Условия параллельной работы трансформаторов и генераторов. Синхронизация генераторов с энергосистемой
-
Общие сведения о системах автоматики, телемеханики, связи, вычислительной и космической технике