Пиковая теоретическая производительность — это ложь

Данный термин просто потерял свою актуальность для современных компьютеров и особенно высокопроизводительных систем. Если раньше реальная производительность составляла примерно 90 % от максимальной, то сейчас это значение может падать и до 60–65 %. И, собственно, все об этом знают, но продолжают его использовать…

Максимальная производительность суперкомпьютеров является величиной теоретической, рассчитываемой лишь на основе технических характеристик системы. Однако такие расчёты редко отражают реальное положение вещей, на что и указывает Ден Стенционе (Dan Stanzione), директор Центра передовых вычислений Университета Техаса (TACC).

В качестве примера в своём докладе Ден Стенционе приводит суперкомпьютер Frontera, расположенный как раз в вычислительном центре Техасского университета. Особенностью данного компьютера является то, что для расчётов в нём используются, в частности, новые центральные процессоры Xeon Platinum 8280. Максимальная теоретическая производительность этой системы равна 38,7 петафлопс, тогда как тест производительности Linpack (HPL) оценивает производительность в 23,5 петафлопс. Это самый производительный публичный академический суперкомпьютер в мире.

Пиковая, или максимально возможная производительность системы рассчитывается теоретически: перемножаются количество ядер процессора, количество самих процессоров, ширина вектора, число операций FMA за такт и тактовая частота. Однако полученное значение не будет справедливо для разных задач и инструкций.

Например, при использовании инструкций AVX-512 процессоры Intel работают с более низкими тактовыми частотами из-за повышения температуры. Если базовая частота тех же Xeon Platinum 8280 составляет 2,7 ГГц, то при работе с AVX-512 она опускается, согласно данным TACC, в среднем до 1,8 ГГц. С такой частотой пиковая производительность Frontera составляет уже  25,8 петафлопс, что намного ближе к результату, полученному в Linpack.

Основная проблема при оценке производительности в настоящее время как раз и заключается в том, что тактовая частота динамически регулируется в зависимости от энергопотребления и температурных показателей процессора. Частота меняется непрерывно, и поэтому в каждый момент времени пиковая производительность будет разной.

Также стоит отметить, что есть способы повысить производительность. Например, использовать более эффективное охлаждение — в Frontera с помощью СЖО CoolIT удалось добиться устоявшейся частоты 2,0 ГГц при расчётах с AVX-512. И конечно, всё ещё зависит от программного обеспечения: одни приложения способны использовать ресурсы процессора более эффективно, нежели другие.

Да и тот же LINPACK уже давно критикуют за необъективность, так как он не учитывает другие важные факторы — эффективность работы с памятью и шинами, например. В качестве альтернативы разработан более современный бенчмарк HPCG.

Также эксперт отметил, что путаница с пиковой производительности присуща всем современным процессорам, так как все они динамически меняют частоты. Например, по словам AMD, у её новых процессоров EPYC Rome при работе с инструкциями AVX2 частота не опускается ниже базовой. Однако boost-частоты могут быть ниже обычных значений. Дополнительную путаницу в расчёты может внести и настраиваемый уровень TDP. 

В общем, для каждого конкретного случая производительность будет разной, и сравнивать их сейчас напрямую довольно трудно. Впрочем, вычисления всё равно становятся «дешевле» — когда-то «горячие» инструкции со временем становятся такими же обыденными и «холодными». 


Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Этот сайт использует Akismet для борьбы со спамом. Узнайте как обрабатываются ваши данные комментариев.