МегаПредмет

ПОЗНАВАТЕЛЬНОЕ

Сила воли ведет к действию, а позитивные действия формируют позитивное отношение


Как определить диапазон голоса - ваш вокал


Игровые автоматы с быстрым выводом


Как цель узнает о ваших желаниях прежде, чем вы начнете действовать. Как компании прогнозируют привычки и манипулируют ими


Целительная привычка


Как самому избавиться от обидчивости


Противоречивые взгляды на качества, присущие мужчинам


Тренинг уверенности в себе


Вкуснейший "Салат из свеклы с чесноком"


Натюрморт и его изобразительные возможности


Применение, как принимать мумие? Мумие для волос, лица, при переломах, при кровотечении и т.д.


Как научиться брать на себя ответственность


Зачем нужны границы в отношениях с детьми?


Световозвращающие элементы на детской одежде


Как победить свой возраст? Восемь уникальных способов, которые помогут достичь долголетия


Как слышать голос Бога


Классификация ожирения по ИМТ (ВОЗ)


Глава 3. Завет мужчины с женщиной


Оси и плоскости тела человека


Оси и плоскости тела человека - Тело человека состоит из определенных топографических частей и участков, в которых расположены органы, мышцы, сосуды, нервы и т.д.


Отёска стен и прирубка косяков Отёска стен и прирубка косяков - Когда на доме не достаёт окон и дверей, красивое высокое крыльцо ещё только в воображении, приходится подниматься с улицы в дом по трапу.


Дифференциальные уравнения второго порядка (модель рынка с прогнозируемыми ценами) Дифференциальные уравнения второго порядка (модель рынка с прогнозируемыми ценами) - В простых моделях рынка спрос и предложение обычно полагают зависящими только от текущей цены на товар.

Отечественные массово-параллельные ВС МВС-100x





Примером отечественных MPP-систем могут служить многопроцессорные вычислительные системы МВС-100 и МВС-1000(МВС-100x). Обе системы имеют схожую архитектуру и состоят из двух главных частей – вычислителя и управляющей ЭВМ (рис. 5.29).

Вычислитель представляет собой совокупность двухпроцессорных вычислительных модулей. Один из процессоров модуля выполняет вычислительные функции и называется вычислительным процессором (ВП). На другой процессор возложены функции информационного обмена, поэтому онназывается связным (СП). Процессоры ВМ имеют как общую разделяемую, так и свою собственную оперативную память.

Каждый СП имеет несколько линков. Посредством линков вычислительные модули объединяются в сеть. Все модули вычислителя имеют в системе уникальный физический номер от 0 до N. Один из линков нулевого модуля соединен со специальным адаптером (адаптером линка), вставленным в управляющую ЭВМ, чем обеспечивается связь последней с вычислителем. Нулевой модуль вычислителя называется поэтому корневым.

Рассмотрим состав и характеристики многопроцессорных вычислительных систем МВС-100и МВС-1000.

Многопроцессорная вычислительная система МВС-100 была разработана НИИ «Квант» и рядом институтов РАН в 1994 году. Проектом предусматривалось достижение в максимальной конфигурации разрабатываемой вычислительной системы производительности до 100 млрд. операций с плавающей точкой в секунду (100 GFLOPS).

За почти десятилетие эксплуатации получен обширный практический опыт использования супер-ЭВМ МВС-100 для решения сложных научно-прикладных задач. На испытаниях и в реальной эксплуатации система МВС-100 показала высокую эффективность и хорошую надежность при относительно невысокой стоимости.

В качестве вычислительного процессора во всех моделях семейства МВС-100 использовался 64-разрядный микропроцессор фирмы IntelA80860XR (i860) 40 Мгц, а в качестве связного - транспьютерфирмы InmosT805 25Мгц. Каждый вычислительный модуль содержал до 16 Мбайт разделяемой памяти, доступной как транспьютеру, так и i860, и до 4 Мбайт локальной памяти транспьютера, доступной только транспьютеру. Каждый транспьютер имел по четыре линка скоростью до 20 Мбит/с.

Рис. 5.29. Архитектура многопроцессорных систем МВС‑100 и МВС‑1000

Объединенные друг с другом вычислительные модули представляли собой решающее поле. Кроме решающего поля в состав супер-ЭВМ МВС-100 могло входить до 8 управляющих рабочих станций, объединенных в локальную сеть, платы сопряжения управляющих рабочих станций с решающим полем, а также рабочие станции, подключавшиеся либо непосредственно к одному из ВМ решающего поля, либо к локальной сети управляющих ЭВМ. Эти последние рабочие станции использовались для подготовки исходных данных для счета на МВС-100 и для представления результатов.

Вычислитель МВС-100 делился на секции по несколько ВМ, каждая из которых имела собственную линию аппаратного сброса.

Как уже было сказано, вычислительные модули соединялись друг с другом посредством транспьютерных линков. При этом в основу построения принятой архитектуры МВС‑100 была положена оригинальная модульная структура, позволяющая совместить достоинства двух известных топологических схем – «решетки» и «гиперкуба» (рис. 5.30).



Несмотря на то, что на вычислительном процессоре отсутствовала операционная система, МВС-100 обладала широким набором инструментальных программных средств. Как основное средство информационного обмена следует отметить операционную среду Router, обеспечивавшую информационные обмены через транспьютерную сеть. Операционная среда Router включала в себя одноименную библиотеку передачи сообщений. Данная библиотека относилась к классу низкоуровневых библиотек и предоставляла пользователю набор примитивов для организации информационного обмена между двумя любыми процессорами системы по модели Хоара.

В качестве операционной системы управляющей ЭВМ использовалась Unix-подобная ОС Helios.

Среди средств разработки параллельных программ, имевшихся на вооружении МВС‑100, находились упоминавшиеся языковые средства GNS, Fortran DVM, непроцедурный язык Норма. Имелась система коллективного и удаленного доступа к вычислителю МВС-100. В ИММ УрО РАН была разработана и внедрена в эксплуатацию система планирования прохождения заданий на МВС-100.

Рис. 5.30. Топология МВС-100 для 64-процессорного образца

Идеи, положенные в основу построения МВС-100 в своем развитии нашли воплощение в разработке высокопроизводительной вычислительной системы МВС-1000 (1998 год).

Архитектура МВС-1000 подобна архитектуре МВС‑100 в смысле построения супер-ЭВМ как MPP-системы, состоящей из совокупности связанных между собою двухпроцессорных вычислительных модулей. Структура ВМ МВС-1000 аналогична структуре ВМ МВС-100, только в качестве вычислителя вместо i860 использовался серийный микропроцессор Alpha-21164 300-500 МГц фирмы DEC (позже – Compaq, HP). В качестве связного процессора вместо транспьютеров использовались сигнальные процессоры - либо TMS320C44 фирмы Texas Instruments, либо ADSP21060(Sharc) фирмы Analog Devices. Оба сигнальных процессора имели по несколько (C44 – четыре, Sharc – шесть) высокоскоростных линков. Это позволяло комплексировать вычислительные модули и наращивать производительность системы способом, аналогичным применявшемуся в МВС-100.

Программное обеспечение МВС-1000 сделало значительный шаг вперед по сравнению с МВС-100. Во-первых, на вычислительном процессоре появилась POSIX‑совместимая ОС VxWorks, что значительно облегчило разработку прикладных программ. Также как и в МВС-100 на сети связных процессоров функционировала операционная среда Router, дополненная функциями защиты, обеспечения ввода-вывода и управления вычислительными ресурсами. Кроме этого, МВС-1000 впервые в истории отечественных параллельных ВС была обеспечена коммуникационной библиотекой, полностью реализовывавшей стандарт MPI.

Одной из важнейших вновь разработанных составляющих системного ПО МВС-1000 явилась разработанная в ИПМ им. М.В. Келдыша РАН Система управления прохождением задач (СУПЗ), обеспечившая многопользовательский и многозадачный режим работы системы с применением безопасного удаленного доступа.

 

Кластерные ВС

Кластерная ВС, как и MPP-система, представляет собой совокупность вычислительных модулей (возможно, многопроцессорных), объединенных некоторой коммуникационной средой. Как и в случае MPP, каждый ВМ кластерной ВС имеет собственную оперативную память и управляется своей ОС. Как и MPP, кластерные ВС (или просто кластеры) могут наращиваться до нескольких тысяч процессоров. Отличие массово-параллельных ВС от кластеров состоит в том, что построение последних осуществляется исключительно на базе серийных промышленных комплектующих, в то время как те или иные компоненты MPP представляют собой оригинальные разработки.

В качестве вычислительных модулей в кластерах используются готовые ЭВМ или SMP-система малого размера. В качестве коммуникационной среды – стандартное сетевое оборудование массового и среднесерийного выпуска. За счет применения стандартных промышленных комплектующих кластерные ВС имеют наивысший показатель «производительность/стоимость» среди всех параллельных архитектур.

Предпосылкой для появления во второй половине 90-х годов 20-го века кластерной архитектуры явилась так называемая «вторая суперкомпьютерная революция», связанная, в первую очередь, с двумя достижениями в области аппаратуры крупносерийного выпуска. Повсеместное оснащение персональных компьютеров высокоскоростной шиной PCI с одной стороны, и переход на дешевую, но довольно быструю, причем коммутируемую, сеть Fast Ethernet, с другой, привели к тому, что кластеры по своим коммуникационным возможностям вплотную приблизились к специализированным MPP. При этом среди производителей специализированного коммуникационного оборудования, такого, которое раньше применялось только в составе MPP, стало принято оформлять свои изделия в виде стандартных плат PCI, устанавливаемых в компьютеры общего назначения, а не в виде наборов микросхем, из которых требовалось изготавливать вычислительные модули.

В этих условиях изготовление MPP–систем из специализированных, только для этой цели спроектированных и изготовленных, модулей во многом потеряло смысл. За счет некоторых потерь в плотности компоновки стало возможно изготовить многопроцессорную ВС не из специальных модулей, а из стандартных персональных компьютеров или рабочих станций, и при необходимости оснастить кластер высокопроизводительной, специализированной коммуникационной средой. Разница между MPP и кластером, таким образом, из области аппаратной постепенно сместилась в область организационную.

Технология создания кластерных ВС развивается в рамках концептуально близких направлений: Network of Workstations (NOW, «сеть рабочих станций») и Pile-of-PCs (PopC, «набор ПК»).

Технология NOW ведет начало от разработок Калифорнийского университета Berkeley по созданию вычислительного кластера с одноименным названием. Целью данного проекта являлось объединение ресурсов вычислительной сети, состоящей из рабочих станций, в систему, подобную супер-ЭВМ, с централизованным управлением и быстрыми связями между вычислительными узлами.

При создании кластера использовались стандартные программные и аппаратные средства (стандартные рабочие станции в качестве вычислительных узлов кластера, стандартная операционная система (ОС) Solaris в вычислительных узлах, сетевые АТМ-платы и коммутаторы в локальной сети кластера). Аппаратная конфигурация кластера NOW включала 105 рабочих станций SUN Ultra 170, соединенных сетью Myrinet.

В настоящее время отличительными особенностями технологии NOW являются:

· использование в качестве ВМ высокопроизводительных, возможно многопроцессорных, рабочих станций;

· исполнение всех ВМ в виде так называемых стандартных по размерам blade-модулей («модулей-лезвий»), вставляемых в стандартные стойки («шасси»);

· применение в качестве коммуникационной среды высокопроизводительного сетевого оборудования средней серийности (Myrinet, SCI, InfiniBand и др.);

· возможно использование дорогого лицензированного системного ПО (ОС, трансляторов, коммуникационных библиотек, отладчиков и т.п.).

С появлением на рынке персональных компьютеров с высокопроизводительными микропроцессорами, сравнимых по производительности с рабочими станциями, получило развитие второе направление создания кластерных систем - на базе персональных компьютеров - PopC.

Отличиями концепции PopC являются следующие:

· использование в качестве ВМ массово выпускаемых персональных компьютеров;

· как правило, отсутствие специализированного «стоечного» исполнения, ВМ используются в стандартных корпусах ПК;

· в качестве коммуникационной среды используется массово выпускаемое сетевое оборудование (FastEthernet, GigaEthernet);

· использование исключительно свободно распространяемого ПО.

Первым проектом, в рамках которого были реализованы основные принципы PopC, является Beowulf. Этот проект был открыт в 1994 году под патронажем NASA в интересах географических и космических исследований, проводимых центром GSFC (Goddard Space Flight Center). Работы над проектом Beowulf проводились научным центром CESDIS (Center of Excellence in Space Data and Information Sciences) совместно с компанией Red Hat Software.

Первый кластер (16 компьютеров на базе Intel 80486) в рамках программы Beowulf был создан в 1994 году и получил название Wiglaf. Однако всемирную известность проект приобрел в 1998 г. после громкого успеха 68-компьютерного кластера Avalon, созданного в национальной лаборатории Los Alamos (США). Каждый узел кластера представлял собой рабочую станцию DEC Alpha с процессором Alpha 21164A 533 МГц, оперативной памятью 128 Мбайт, жестким диском 3 Гбайт и адаптером локальной сети Fast Ethernet. В кластере были использованы четыре 36 портовых Fast Ethernet коммутатора, к каждому из которых было добавлено по два модуля Gigabit Ethernet, подключенных к 12 портовому Gigabit Ethernet коммутатору.

Стоимость кластера Avalon составила 152 тысячи долларов. На тестах Linpack система показала производительность 19,7 GFLOPS, что на тот день стало сравнимо с производительностью 64–процессорного SMP-суперкомпьютера SGI Origin 2000 (20.1 GFLOPS), цена которого составляла около двух миллионов долларов. Интересно, что полная сборка и настройка кластера из отдельных рабочих станций была осуществлена всего за 3 дня.

Среди отечественных разработок следует выделить систему МВС-1000М, созданную в НИИ «Квант» по заказу Межведомственного суперкомпьютерного центра РАН в 2001 году. МВС-1000М – первая отечественная система, перешагнувшая терафлопный рубеж пиковой производительности.

Отметим, что хотя кластерные ВС при сравнительно небольшой стоимости и способны достигать высоких показателей пиковой производительности, характеристики стандартного сетевого оборудования и шины PCI все-таки хуже, чем у специализированных MPP-систем и, тем более, чем у NUMA- и SMP-систем. Таким образом, все недостатки MPP-систем, только в несколько большей степени, распространяются и на кластерные ВС.

 





©2015 www.megapredmet.ru Все права принадлежат авторам размещенных материалов.