Баннер
Баннер
Архив номеров (тексты)

Иногда обсуждение ситуации в HPC-отрасли вызывает странные ассоциации. Мне, например, представился вдруг поселок на Крайнем Севере. Добраться до него можно двумя способами:

1. Олень.

2. Вертолет.

Если мы говорим о нашем, земном, то есть кремнии, то разговор обычно не покидает пределов тем многоядерных процессоров, ускорителей и неуклонного увядания закона Мура. Олени – неторопливые, надежные.

Если мы говорим об альтернативах, будущем, в разговор стремительно врываются квантовые компьютеры, занимая собой обычно все пространство беседы. Это вертолеты. Летают быстро, но когда еще будут?

Не видно на горизонте ни автобуса, ни снегохода, ни парохода, ни даже подводы, впряженной во владимирского тяжеловоза.

На протяжении множества лет основной технологией производства изделий было удаление «лишнего» материала. Технология была актуальной до тех пор, пока изделия производились из недорогих материалов, а экономика стран не была выраженно рыночной. Современные технологии определяются актуальными государственными задачами, которые даже для промышленности подчас являются инновационными. Зачастую актуальные задачи государства также связаны с применением новых материалов с характерными свойствами. Такие материалы довольно дороги в цене, а некоторые выпускаются только под ряд конкретных изделий — по этой причине объекты, создаваемые по старой технологии, за счет утилизации материала при резании стоят чрезвычайно дорого или не могут быть созданы в принципе без применения новых подходов.

Эд Туркел – известный человек в компьютерном сообществе. Он проработал в Hewlett-Packard 25 лет. В конце августа он был назначен менеджером группы, отвечающим за развитие бизнеса HPC по всему миру. С ним встретился наш редактор Игорь Лёвшин, чтобы обсудить новые идеи, на разработку которых направляет усилия HP.

Moonshot

Игорь Лёвшин: Какова роль проекта Moonshot в стратегии HP?

Эд Туркел: Moonshot – прежде всего интересная возможность, использующая идеологию «сервер-на-чипе», которая технологически позволяет более тесно интегрировать вычислительные узлы. При этом у такой архитектуры очень хорошие возможности для масштабирования, они позволяют строить недорогие системы с очень высокой плотностью вычислений и низким энергопотреблением. Но что особенно важно, с моей точки зрения, и что в первую очередь интересно для тех, кто строит HPC-системы, – это возможности предлагать решения, оптимизированные под определенные приложения и под специфический характер вычислительной нагрузки. Когда мы представили Moonshot в прошлом году, мы говорили, что это первый в истории Software Defined Server – сервер, в котором архитектура определяется спецификой прикладных программ, которые будут на нем работать. То есть идея не в том, чтобы предложить для общих задач новую архитектуру, а именно заранее разработанную аппаратную платформу под заданные профили нагрузок.

Возьмем для примера экосистему ARM. Мы можем собирать мощные суперкомпьютеры, где ARM в качестве центрального процессора будет управлять графическими процессорами NVIDIA, или управлять сигнальными процессорами, или управлять ПЛИСами. И все эти варианты можно будет очень эффективно использовать для конкретных приложений. Я считаю, что это самая интересная особенность Moonshot. Например, ARM с сигнальными процессорами Texas Instruments, возможно, будет использоваться в приложениях анализа сейсмических данных. Вариант с графическими ускорителями может подойти для виртуальных десктопов, а может заинтересовать анимационные студии, тех, кому нужен рендеринг в больших количествах и на не слишком дорогих системах. Я хочу еще раз пояснить, что другие наши системы можно, безусловно, настроить на конкретные приложения, на определенные профили нагрузки, но настолько гибких возможностей, как у Moonshot, все же нет, потому что они с самого начала проектировались ориентированными на конкретные типы приложений.

И. Л.: И что же, заказчики проявляют интерес к таким системам?

Э. Т.: Конечно. Им нужны системы под решение только их, спе-
цифических задач. Возьмем другую область приложения – финансы. Компании, которые предоставляют финансовые услуги и занимаются инвестициями, обладают мощными компьютерными ресурсами для анализа рисков и построения соответствующих моделей, в основном по методу Монте-Карло. У некоторых работают тысячи серверов, выполняя одно единственное приложение. Если они перейдут на архитектуру с картриджами Moonshot, то смогут выиграть очень сильно. Вообще, там, где много машин используют одно приложение, Moonshot будет самым эффективным решением. И наоборот, ситуация, допустим в каком-то научном HPC-центре. Чего только там не считают! В их случае, наверное, лучше брать не Moonshot, а что-то более универсальное.

И. Л.: Какое место в стратегии HP занимают сейчас Большие Данные?

Э. Т.: Для HP это – важнейшее направление. Но Большие Данные – слишком широкое понятие, чтобы говорить в общем. Есть, скажем, какая-то инфраструктура с Hadoop для анализа Больших Данных. Вполне может случиться, что среда для решения таких задач окажется довольно однородной. То есть данных может быть много и самых разных, но операции над ними похожи. Это всего один случай и, очень может быть, тоже являющийся полем деятельности для Moonshot. А если в каком-нибудь научном центре анализируют большие данные: то астрофизические, то биологические, и в каждом случае используются совсем разные алгоритмы, то, опять же, лучше подумать о чем-то более универсальном. Так что дело скорее не в том, Большие Данные или нет, а в типах задач и вычислительных нагрузок.

В промышленном секторе какая-нибудь фирма может решать задачи структурного анализа, делать ресурсоемкие краш-тесты, моделировать гидродинамические процессы. Системы для этих задач должны быть настроены по-разному. Если они до этого собирали большие системы под какой-то тип задач, то, может, не под все, но под самые ресурсоемкие и типичные задачи вариант с соответствующими картриджами Moonshot тоже имеет смысл рассматривать. А для менее предсказуемых задач и нагрузок можно рассмотреть наши новые системы Apollo, которые прекрасно справятся с любыми задачами HPC самого высокого класса.

И. Л.: В проекте Moonshot есть место для разных процессоров: и Intel, и AMD, и ARM. Какие архитектуры для каких целей подходят лучше всего?

Э. Т.: Разнообразие центральных процессоров нужно буквально для того же, о чем я уже говорил: чтобы подобрать картридж Moonshot для как можно более разнообразных типов задач и нагрузок. Картридж m300 построен на процессорах Intel Atom C2000 Avoton. Его мы ориентировали на приложения Dynamic Web. Для провайдеров хостинга не так важны технологии, как удобство работы со знакомыми приложениями. Atom, например, хорош для хостинга потому, что у него хорошая производительность на командах x86 и в то же время хорошие сетевые возможности. Но дело же не в одних процессорах. Мы подбираем под задачи все: и память, и подходящие SSC, и сетевые контроллеры. Для хостинга –типичный 2-процессорный x86-сервер, типа ProLiant DL360. Хозяева хостинга, скорее всего, использовали бы его для размещения виртуальных машин. Скажем, 10 виртуальных серверов, 10 пользователей с общей сетевой фабрикой. А в m300 мы вместо этого можем дать пользователям по отдельному серверу на то, что в обычном сервере было виртуальной машиной. И к каждому будет подключено собственно соединение 1GB Ethernet – ничего виртуализовывать вообще не нужно! В результате на каждого пользователя придется больше сетевой производительности. И это очень хорошая комбинация для хостинга.

Похожая ситуация – с картриджем m700. Фактически можно раздать каждому пользователю по графическому процессору потому, что это просто, недорого и никакой виртуализации не нужно.

А картридж m700 предназначен для хостинга виртуальных десктопов, поэтому в них – процессор AMD с мощными графическими ядрами. Картриджи m800 снабжены сигнальными процессорами Texas Intstruments, поскольку этот картридж ориентирован прежде всего на телекоммуникационные компании. Так что экзотичность Moonshot не в том, что используются разные процессоры, а в том, что системы на этих картриджах создаются под специфичные задачи заказчика.

Мемристоры
и The Machine

И. Л.: Среди новых технологий, которые должны появиться у HP, наиболее загадочными представляются мемристоры. Какие новости с этого направления?

Э. Т.: О мемристорах мы говорим давно, и эта интересная технология того заслуживает, но до ее реализации еще остается несколько лет. Угадать год не берусь: предсказания – дело неблагодарное. Зато я могу определенно сказать, что в HP Labs, где этим занимаются, не рассматривают мемристоры как технологию саму по себе. Там стремятся представить цельную картину того, какими станут в будущем вычислительные архитектуры. Сейчас мы говорим о концепции The Machine, которая представляет собой как бы универсальный набор из разных видов вычислительных ресурсов: традиционной памяти и мемристоров; различных видов систем хранения – от твердотельной до лент; различных типов межсоединений, включая оптические. И в этой концепции не менее важен такой принцип: для того чтобы быстро обрабатывать огромные массивы данных, необходимо не доставлять данные к вычислительным устройствам, а обеспечивать вычисления там, где находятся необходимые для них данные. В этом контексте мемристоры играют очень важную роль, как, впрочем, и оптические соединения, без которых невозможно достичь нужной скорости доступа к данным и малого энергопотребления. Разумеется, речь идет о будущих очень больших системах.

И. Л.: Когда вы говорите об оптических соединениях, вы имеете в виду коммуникации между узлами?

Э. Т.: Нет, не только. И дело не только в том, что фотон быстрее электрона. Мы не сможем радикально понизить энергопотребление, если все данные будут перемещаться только электрически даже на уровне тракта «процессор-память». Скоро оптика появится уже на кремнии. Новые архитектуры – это хорошо. Но когда речь идет о новых архитектурах на базе традиционных технологий, можно хотя бы ожидать, что при физической реализации устройства плохих сюрпризов не будет. Не рискованно ли вкладываться в принципиально новые, не опробованные как следует технологии?

Мемристоры – не единственная новая технология для памяти нового поколения.

И еще неизвестно, какая технология победит на рынке. Я думаю, что какое-то время на рынке не будет мейнстримной технологии, а будут происходить попытки использовать самые разные технологии, которые будут существовать параллельно, пока не произойдет естественного отбора.

Мы станем свидетелями появления очень многих новинок. Поэтому прежде всего важно понять, какую роль память будет играть в принципе в вычислительных архитектурах будущего, и, например, ответить на вопросы, что станется с иерархией кэшей, сохранится ли она вообще, насколько тесной будет интеграция процессора и памяти, – и на множество других, не менее интересных.

Игорь Лёвшин встретился с заместителем директора по науке ФГУП «НИИ «Квант» Виктором Владимировичем Корнеевым.

 

Игорь Лёвшин: Не начать ли наш разговор о параллелизме с почти забытого слова «транспьютер»? Ведь они сыграли заметную роль не только в мировой, но и в отечественной вычислительной технике. Как минимум в машинах серии МВС, разработанных «Квантом».

Виктор Корнеев: Конечно. Транспьютеры — английское изделие, их производила фирма Inmos. Американцы их не приняли и до сих пор не упоминают. А ведь на их базе были созданы первые промышленные установки, в которых параллельно работали более 2 тысяч процессоров. Если посмотреть список самых производительных компьютеров в 1980-е годы, то там очевидно некоторое топтание на месте, как раз в то время, которое приходится на разработки машин с векторно-конвейерной архитектурой с небольшим числом процессоров. Видно, что роста производительности почти нет. Когда появились на рынке транспьютеры, включился фактор массового параллелизма, и отметки производительности вернулись на магистральную линию.

И. Л.: А почему в Америке их не принимали?

В. К.: Потому что они не были американскими. Они появились примерно в то время, когда росла популярность Intel 80286. При этом какое-то время транспьютеры оставались самыми быстрыми 32-разрядными процессорами. Их даже использовали тогда в ПК, но законы массового производства их вытеснили. Только во времена Intel 486-я линейка транспьютеров была побеждена по производительности линией Intel. Окончательная победа Intel над транспьютерами — это заслуга Intel 860.

Я продолжаю думать, что в индустрии HPC именно сейчас уже творятся удивительные вещи. Опять потихоньку, не на телеэкранах, не на первых полосах онлайновых изданий. Не сравнить, во всяком случае, с такими звездами-перфомансами, как «Геном» или «3D-принтер».

Большие Данные и Высокопроизводительные Вычисления держались как-то больше порознь – разные издания, разные конференции. Хотя, казалось бы, как же так? Как же обрабатывать петафлопсы данных без суперкомпьютера приличествующей таким цифрам мощности?

И что же, петабайты памяти мощнейших суперкомпьютеров – неужели в них хранятся не Большие, а маленькие данные?

Все имеет объяснение. У одних в разговоре через слово InfiniBand, у других – Hadoop. Или другое: дело в Больших Друзьях. Аналогия из далекой области: жили поэты, писали похожие, в общем, стихи. Но входили в разные, не слишком дружественные между собой компании, в результате в историю культуры они попали под совсем разными «-измами». Лучшие друзья производителей суперкомпьютеров – государственные фонды. Большие Данные частенько кормятся с руки Большого Бизнеса: большим есть что анализировать и оптимизировать. Чья рука щедрее?

Редактор журнала «Суперкомпьютеры» Игорь Лёвшин встретился с Аркадием Борковским, директором 

по технологиям лаборатории Яндекса
в Кремниевой долине.

Игорь Лёвшин: Яндекс, как я понял еще из моего посещения Яндекса три года назад, отнюдь не сводится к понятию «поисковой» компании. Но что бы ни делал Яндекс, наверняка речь идет о Big Data — Больших Данных?

Аркадий Борковский: Поиск у нас по-прежнему главная часть бизнеса. А Big Data — наше «сырье». Когда-то сырьем были лес или пушнина, теперь — данные. Мы это сырье перерабатываем в знания, полезные для людей, и в деньги для себя.

Индексирование веба, как и с самого начала, —  основа всех наших технологий.
С этого все началось и на этом все отрабатывалось. Нам приходится иметь дело с бесконечным количеством страниц. Не огромным, а именно бесконечным: каждое обращение к серверу по одному и тому же адресу может выдавать каждый раз новую страницу. Мы не можем охватить бесконечность — нам нужно выбрать лучшую, конечную часть. В день собираем миллиарды страниц. Но обрабатывать много — этого одного теперь уже недостаточно: мы умеем обрабатывать огромные объемы данных относительно дешево. А это значит, что надо обрабатывать их эффективно.

В умении обращаться с большими данными можно выделить несколько уровней — аппаратная инфраструктура, вычислительная платформа, алгоритмы, машинное обучение. Базовый — это просто техническое умение как-то справляться с петабайтами данных. Строя уже 20 лет те самые индексы, мы приобрели громадный, уникальный опыт в этой области.

Дальше надо с этими данными сделать что-то полезное. Необходимы интеллектуальные алгоритмы. Вообще говоря, поисковая машина — это самый что ни на есть искусственный интеллект (ИИ). Ведь что такое интеллект? Обычно это понятие у людей ассоциируется с вербальными возможностями: человек оценивает интеллект собеседника по адекватности ответов на его вопросы. При этом адекватность ответов определяется способностью интерпретировать и агрегировать информацию, полученную от других людей — из разговоров, книг, школы, родителей. Поисковая машина старается делать именно это — адекватно отвечать на самые разнообразные вопросы, агрегируя информацию, полученную от других людей — страниц веба, запросов, кликов на результаты.

Наш журнал представляет победителей конкурса «GPU: серьезные ускорители для больших задач». Выбор журнала – два проекта: «Моделирование течения разреженного газа методом ПСМ на ГПУ», авторы – А. В. Кашковский, А. А. Шершнёв, П. В. Ващенков, и «GPU для решения СЛАУ: ускорение инженерных расчетов», авторы – Б. И. Краснопольский, А. В. Медведев.

Статью о первом проекте мы и публикуем в этом номере. Статью о втором проекте вы сможете прочитать в следующем. При спуске с орбиты возвращаемые космические аппараты (КА) должны уменьшить свою скорость с орбитальной (7.5–8 км/с) до посадочной (практически нулевой). Для этого используется аэродинамическое сопротивление, которое пропорционально квадрату скорости. На высотах 60–100 км, когда скорость КА еще достаточно велика, а плотность атмосферы уже существенно увеличилась, торможение наиболее интенсивно, а КА подвержен наибольшему аэродинамическому и тепловому воздействиям и максимальным перегрузкам. Обеспечить высокую экономическую эффективность и безопасность эксплуатации разрабатываемых КА невозможно без скрупулезного учета всех воздействий на конструкцию и выбора оптимальной траектории движения, которая снизила бы эти воздействия. В наземных условиях чрезвычайно тяжело смоделировать космические скорости в практически вакуумных условиях. Полетный эксперимент, осуществляемый исследовательскими спускаемыми аппаратами (на рисунке экспериментальные КА, в разработке которых нам довелось участвовать), достаточно дорогой, так как необходимо создать и запустить такой аппарат.

Редакция журнала «Суперкомпьютеры» беседует с доктором физико-математических наук, профессором Александром Николаевичем Томилиным. Это разговор об истории отечественной электронной отрасли, о том что было и о том, что нужно сделать.

В 56-м году я поступил на работу в Институт точной механики и вычислительной техники, где к тому времени был назначен директором Лебедев. (Сергей Алексеевич Лебедев — основоположник вычислительной техники в СССР, директор ИТМ и ВТ, академик АН СССР и АН УССР, Герой Социалистического Труда. Лауреат Сталинской премии третьей степени, Ленинской премии и Государственной премии СССР. Прим. ред.) До этого он руководил Первой лабораторией Института, а сам Институт возглавлялся академиком Михаилом Алексеевичем Лаврентьевым. Лаврентьева называли «академик-прима». Уже в 29 лет он стал доктором наук и вообще сделал блестящую научную и административнуюкарьеру. К тому моменту, когда я пришел на работу в Институт еще свежа была история, которая сейчас воспринимается как анекдот или детектив. Случилось это незадолго до смерти Сталина. Комитет госбезопасности по инициативе Берии планировал перевод лучших инженеров Института в организацию, подведомственную комитету госбезопасности с аналогичными целями создания вычислительной техники, но уже под задачи, которые решал Комитет. Когда у Лаврентьева появилась такая информация, он приказал всем воим сотрудникам с вечера спрятаться в Институте и позвонил Сталину. Сталин сказал: «приезжайте утром». Утром Лаврентьев поехал в Кремль привез оттуда бумагу, на которой было написано: «в распоряжение академии наук» и тем самым спас Институт от потери ведущих разработчиков.

Он стремился создать математическую модель всего сущего на свете, уподобившись Творцу.

Разнообразие научных направлений, которыми занимался и которые активно развивал за свою относительно короткую жизнь математик Алексей Андреевич Ляпунов (1911–1973) в определенной степени проистекает из многообразия научных, культурных и педагогических поприщ, на которых добились впечатляющих результатов его многочисленные родственники. 

Среди них – врач Виктор Васильевич Ляпунов (1817–1856), профессор астрономии Казанского университета, ученик Лобачевского Михаил Васильевич Ляпунов (1820–1868), два известных химика-органика Зайцевы – член-корреспондент Петербургской академии наук Александр Михайлович (1841–1910) и профессор Михаил Михайлович (1845–1904), физиолог Иван Михайлович Сеченов (1829–1905), математик и механик, академик Александр Михайлович Ляпунов (1857–1918), композитор Сергей Михайлович Ляпунов (1859–1924), филолог-славист, академик Борис Михайлович Ляпунов (1862–1943), математик, механик и кораблестроитель, академик Алексей Николаевич Крылов (1864–1945), физиолог и физикохимик Виктор Анри (1872–1940), революционерка Вера Николаевна Фигнер (1852–1942).

Отец Алексея Андреевича, Андрей Николаевич, получил блестящее физико-математическое образование в Московском и Гейдельбергском университетах. Однако расстроившиеся дела его отца – инженера-путейца – вынудили сына окончить курс Института путей сообщения и заняться отцовскими подрядами на строительство железных дорог.

Беседа выпускающего редактора Игоря Лёвшина с Джеком Донгаррой о тенденциях и реалиях

Игорь Лёвшин: Какие последние новости из мира Linpack?

Джек Донгарра: Бенчмарк Linpack – основной критерий при составлении списков TOP500. Какие-то изменения происходят с ним постоянно по той причине, что архитектура систем, которые оцениваются, постоянно меняется. Точнее, основной принцип тестирования, основной алгоритм обычно остается нетронутым, а вот то, как реализуется LU-разложения и частичный выбор главного элемента  – это модифицируется вместе с архитектурой.

И. Л.: Расскажите о проблеме генератора случайных чисел. Что за история приключилась?

Дж. Д.: Бенчмарк HPL (High Performance Linpack) – это решение системы линейных уравнений с плотной матрицей с использованием арифметических 64-битных операций с плавающей точкой. При этом используется метод исключения Гаусса с частичным выбором главного элемента. В базовых правилах тестирования говорится, что при этом должен использоваться матричный генератор на основе генератора псевдослучайных чисел.

В мае 2007 г. один крупный производитель HPC-систем проводил 24-часовой тест HPL. Программа выдала ошибку:

Разворачивающаяся во всем мире битва за повышение энергоэффективности завораживает. Строители ЦОД и суперкомпьютеров заявляют о новых и новых победах в области снижения коэффициента PUE (эффективность использования энергии, отношение полной мощности, потребляемой ЦОД, к мощности IT-оборудования ЦОД, меньше – лучше) и мегафлопс/ватт.

Очень часто главной целью такого повышения эффективности называют снижение эксплуатационных расходов и снижение вреда экологии.

Для начала посмотрим, какой ценой достигается снижение эксплуатационных расходов, есть ли оно на самом деле и стоит ли за ним гнаться.

Основная цель строительства суперкомпьютера – получение максимальной вычислительной мощности (либо максимальной эффективности решения вычислительной задачи) за отведенный бюджет.

Срок жизни суперкомпьютера сурово ограничен. Три года. Если очень повезет – пять. Через десять лет этот суперкомпьютер будет проигрывать игровым приставкам, через двадцать – микроволновкам и будильникам. Это означает, что любые «энергоэффективные» технологии должны окупиться максимум за 3 года эксплуатации.

В такой ситуации необходимость обеспечивать суперкомпьютеру охлаждение и качественное энергоснабжение – это, с точки зрения владельца, зло: каждый рубль, потраченный на охлаждение или энергоснабжение компьютера, – это рубль, не потраченный на дополнительный мегафлопс.

Генерация действительно случайных чисел играет очень важную роль в самых разных приложениях – в криптографии, в области численного моделирования, в игровой индустрии и других областях. В последние пятьдесят лет, в связи с расширением области применения компьютеров и быстрым развитием электронных сетей связи, число таких приложений постоянно растет. Высокое качество генерации случайных чисел играет жизненно важную роль.  Это обстоятельство подчеркивает известный афоризм Роберта Р. Кавью из ORNL: «Генерация случайных чисел слишком важна, чтобы оставлять ее на волю случая». 

К сожалению, этот факт зачастую упускается из виду. Здесь можно привести пример алгоритма RANDU, десятилетиями использовавшегося на мейнфреймах, но оказавшегося впоследствии очень плохим, что вызвало сомнения в достоверности результатов многих исследований, использовавших этот алгоритм.

Остановимся кратко на основных приложениях. Сначала рассмотрим криптографию.

Первая
Предыдущая
1
Страница 1 из 12

Новости

Календарь материалов

« Февраля 2017 »
Пн Вт Ср Чт Пт Сб Вс
    1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28