федеральное государственное автономное образовательное учреждение высшего образования
«Самарский национальный исследовательский университет имени академика С.П. Королева»

Материальная база

Списки объектов по подразделениям

Все | НОЦ ГДИ | ОНИЛ-1 | НТЦ КМ | НИИ-219 | ИПИТ-216 | НОЦ-202 | НИЛ-41 | НИИ-201 | НИЛ-57 | НИЛ-98 | НОЦ НТ-94 | НИИ-204 | НИЛ-97 | ОНИЛ-5 | Лаборатория аддитивных технологий | НИЛ-37 | ОНИЛ-4 | НИЛ-35 | НИЛ-39 | НИЛ-43 | НИЛ-53 | НИЛ-55 | Лаборатория коррозии, старения и биоповреждения материалов и сложных технических систем | Лаборатория быстрого прототипирования | МНИЦ-301 | ИКП-214 | НОЦ-218 | НГ КАФ-306 | НГ КАФ-307 | НОЦ ФНОС | ЦКП "Межвузовский медиацентр города Самара" | ЦКП "Научно-образовательный центр лазерных систем и технологий" | ЦКП "Учебно-научный производственный центр "Вибрационная прочность и надежность аэрокосмических изделий"

ЦКП "Межвузовский медиацентр города Самара"

Суперкомпьютер "Сергей Королев"

Суперкомпьютер "Сергей Королев"

Подразделение: ЦКП "Межвузовский медиацентр города Самара"

Производитель: IBM BladeCenter

Место расположения: Корпус 15, ауд. 115

Назначение:
Предназначен на проведение научных исследований и подготовка кадров мирового уровня с использованием научно-образовательных суперкомпьютерных и грид технологий, создание конкурентоспособных образцов новой техники совместно с ведущими предприятиями авиационной, ракетно-космической и автомобилестроительной отраслей региона.

Основные технические характеристики:

  • общее число серверов/процессоров/вычислительных ядер: 179/360/1952;
  • общее число графических процессоров/ядер: 5/4288;
  • общая оперативная память: 5018 ГБ;
  • тип системной сети: QLogic/Voltaire InfiniBand DDR, QDR;
  • тип управляющей вспомогательной сети: Gigabit Ethernet.
Вычислительная часть:
  • 112 вычислительных блейд-серверов BladeCenter HS22:
    • Процессоры: 2х Intel Xeon X5560, 2.80GHz, 8MB Cache;
    • Оперативная память: 12 ГБ;
    • Жесткий диск: 76 ГБ или 146 ГБ SAS 10K 16Mb Cache;
    • Тип системной сети: InfiniBand DDR, QDR;
  • 28 вычислительных блейд-серверов BladeCenter HS23:
    • Процессоры: 2х Intel Xeon E5-2665, 2.40GHz, 20MB Cache;
    • Оперативная память: 32 ГБ;
    • Жесткий диск: 146 ГБ SAS 10K 16Mb Cache;
    • Тип системной сети: InfiniBand QDR;
  • 14 вычислительных блейд-серверов BladeCenter HS23:
    • Процессоры: 2х Intel Xeon E5-2680v2, 2.80GHz, 25MB Cache;
    • Оперативная память: 48 ГБ;
    • Жесткий диск: 300 ГБ SAS 10K 16Mb Cache;
    • Тип системной сети: InfiniBand QDR;
  • 14 блейд-серверов с памятью 24 ГБ на сервер:
    • Процессоры: 2х Intel Xeon X5670, 2.93GHz, 12MB Cache;
    • Оперативная память: 24 ГБ;
    • Жесткий диск: 146 ГБ SAS 10K 16Mb Cache;
    • Тип системной сети: InfiniBand QDR;
  • 8 блейд-серверов с памятью 96 ГБ на сервер:
    • Процессоры: 2х Intel Xeon X5670, 2.93GHz, 12MB Cache;
    • Оперативная память: 96 ГБ;
    • Жесткий диск: 244 ГБ RAID0 из 2-х дисков SAS;
    • Тип системной сети: InfiniBand QDR;
  • 2 блейд-сервера с графическими картами Nvidia Tesla 2070:
    • Процессоры: 2х Intel Xeon X5670, 2.93GHz, 12MB Cache;
    • Оперативная память: 48 ГБ;
    • Тип системной сети: InfiniBand QDR;
    • GPGPU: 2x Nvidia Tesla 2070, 448 CUDA cores, 6Gb GRAM;
  • сервер с памятью 1 ТБ:
    • Процессоры: 4х Intel Xeon E7-4860, 2.26GHz, 10C, 24MB Cache;
    • Оперативная память: 1006 ГБ;
    • Жесткий диск: 2.8 ТБ RAID0 из 3-х дисков SAS;
    • Жесткий диск: 952 ГБ RAID0 из 2-х дисков SSD;
    • Тип системной сети: InfiniBand QDR;
    • GPGPU: 1xNvidia K20c, 2496 CUDA cores, 5GB GRAM
Управляющая часть:
  • 2 IBM x3650M управляющих сервера:
    • Процессоры: 2х Intel Xeon X5560, 2.80GHz, 8MB Cache;
    • Оперативная память: 12 ГБ.
  • 2 IBM x3650M3 сервера для работы файловой системы GPFS:
    • Процессоры: 2х Intel Xeon X5620, 2.40GHz, 12MB Cache;
    • Оперативная память: 12 ГБ.
  • Сетевой интерконнект:
    • QLogic 9080 Infiniband DDR 20Гбит/с;
    • QLogic 12800 Infiniband QDR 40Гбит/с.
  • Операционная система: Red Hat Enterprise Linux 5.11
Производительность кластера, замеренная стандартным тестом Linpack на всем кластере составляет 10,3 ТФлопс (лог файл теста). Суммарная производительность, замеренная на отдельных частях кластера составляет 27,235 ТФлопс.