User:Olya.Spasibo/sandbox

Архитектура суперкомпьютеров

Начиная с 1960 годов подход к изучению архитектуры суперкомпьютеров сильно изменился. Современное внутреннее устройство суперкомпьютера и локальное распараллеливание процессов позволили ранним моделям архитектуры, разработанных Симоном Креем, достичь вычислительного пика того времени. Таким образом, спрос на высокопроизводительные вычисления положил начало развитию параллельных вычислительных систем. Если в 1970 годы суперкомпьютеры использовали несколько процессоров, то в 1990 годы появились кластеры с тысячами процессоров. К 20 веку суперкомпьютеры, поддерживающие распараллеливание процессов и имеющие десятки тысяч процессоров, стали обычным явлением. Суперкомпьютеры 21 века используют свыше 100 000 процессоров (иногда, графических процессоров – GPU), соединенных в единую высокоскоростную( высокопроизводительную) сеть. Спустя десятилетия, основной проблемой для суперкомпьютеров стало управление плотностью выделяемого ими тепла. Огромные объемы тепла, воспроизводимые системой, могут воздействовать на другие компоненты суперкомпьютеров. Существуют различные подходы терморегуляции системы суперкомпьютеров, начиная охлаждением с помощью жидкостей, содержащих соединения флюорита и заканчивая жидкостно-воздушными системами охлаждения и кондиционирования воздуха. Системы, содержащие множество процессоров, применяются в двух направлениях : в грид-вычислениях, где вычислительная мощность огромного числа компьютеров в различных распределенных административных доменах рационально используется всякий раз, когда компьютер не используется другими процессами; и в кластерах, где большинство компьютеров работают примерно в одно и то же время. В таких централизованных, массово-параллельная архитектурах скорость и устойчивость соединений системы играют решающую роль. Современные суперкомпьютеры используют множество подходов, решающих эту задачу, например, реализуя компьютерную сеть Infiniband (иногда сокр. IB) или торическую топологию связи.

Краткая информация (Введение)

С конца 1960-х годов начинается резкий рост производительности и применения суперкомпьютером, а также значительные изменения в архитектуре, лежащей в их основе. Первые суперкомпьютеры строились из небольшого числа сильносвязных между собой процессоров, имеющих доступ к общей памяти. Суперкомпьютеры, разрабатываемые в 21 веке, имеют уже свыше 100 000 процессоров, они объединены в высокоскоростные вычислительные сети. В течение многих десятилетий управление плотностью теплового потока в суперкомпьютерах оставалось главной ключевой задачей. Девиз Симона Крея “избавляйся от тепла” был и остается ключевым в подходе построения архитектур суперкомпьютеров. Например, этот принцип поддерживает суперкомпьютер NCSA National Center for Supercomputing Applications) “Blue Waters”. Интенсивное выделение тепла в системе может иметь и другие последствия, такие как сокращение жизненного цикла других системных компонент и др. Существовали различные способы охлаждения суперкомпьютеров. Так, в суперкомпьютере Cray-2 для этой цели применяется инертная жидкость под названием Fluorinert, в Space X используется гибрид воздушной и жидкостной систем охлаждения, а в Blue Gene/P – воздушную систему  кондиционирования.. Тепло, выделяемое при работе суперкомпьютера Aquasar используются для отопления студенческого общежития. Количество теплоты, вырабатываемое суперкомпьютером, напрямую зависит от типа его процессора. Более мощные процессоры обычно вырабатывают больше тепла, чем менее мощные, даже если в их архитектурах используются схожие полупроводниковые элементы. Первые суперкомпьютеры состояли из быстрых, близко расположенных друг к другу процессоров, реализующих основные преимущества локального параллелизма( например, многопоточность и векторизация). Со временем число процессоров в суперкомпьютере и расстояние между ними стали увеличиваться. Например, при грид-вычислениях кластеры могут быть быть разделены территориально – находиться в разных городах или странах. С увеличением числа процессоров увеличивалась и частота отказов системы. Это стало серьезной проблемой. Если суперкомпьютер использует тысячи процессоров, каждый из которых выходит из строя примерно раз в год, то каждый день в системе будут несколько раз возникать ситуации отказа. Как только начала улучшаться производительность видеокарт, а их стоимость, наоборот, снижаться, в суперкомпьютерах с петафлопс-быстродействием, таких как Tianhe-I и Nebulae, стали применяться вычисления на графических процессорах (GPGPUs). Однако некоторые системы (например, K computer) продолжали использовать традиционный подход к построению архитектуры, такой как SPARC. Долгое время использование GPGPUs в  вычислительных системах широкого спектра задач оставалось предметом для споров. Применение GPGPU оправдано для решения специфических и сложных задач. Для решения повседневных задач использование GPGPU нецелесообразно в связи с трудностями настройки и конфигурирования системы. Графические процессоры продолжают развиваться. В 2012 году в суперкомпьютере «Jaguar» все CPU(центра́льное проце́ссорное устро́йство) были заменены на GPU(графическое проце́ссорное устро́йство). Суперкомпьютеру дали новое название – “Титан”. С увеличением числа взаимосвязанных между собой процессоров суперкомпьютера становились все более важными организация доступа к памяти, разделением прав доступа в файловой системе и доступ к устройствам внешней памяти. Были разработаны системы с распределенной файловой системой – IBM General Parallel File System, BeeGFS, the Parallel Virtual File System, Hadoop и другие. Многие суперкомпьютеры в списке TOP100 суперкомпьютеров имеют файловую систему Lustre, разбатонную компанией Linux.

Первое поколение суперкомпьютеров См. также История суперкомпьютеров(History of supercomputing)