Баннер
Баннер
Статьи

Первая половинка слова «суперкомпьютеры» ассоциируется больше с рядами стоек в академическом или университетском ВЦ. Вряд ли с вычислительными центрами предприятий.

Предприятия, конечно, бывают разные. Не будем сейчас говорить о нефтегазовых гигантах, о Google или Facebook. Предприятия, которые заняты производством того, что мы можем пощупать руками или даже намылить им голову, тоже используют HPC, да еще в каких масштабах. Известный пример – Procter & Gamble. Моделирование своих изделий, расчеты химических свойств потенциальных и актуальных товаров они выполняют, арендуя время чуть ли не во всех крупнейших национальных лабораториях США. Но это не значит, что «у себя дома» P&G не держит мощных машин. Известно, во всяком случае, о системе Cray/Appro с более чем пятью тысячами ядер. Но это только открытые данные, которыми P&G делится с прессой. По оценкам экспертов, уровень вычислений P&G не выглядит бледно на фоне нефтегазовых гигантов, обсчитывающих сейсмические данные, или на фоне весьма скрытных финансовых компаний, о которых чаще всего говорят, когда речь заходит об HPC в коммерческих компаниях. Надо учитывать, что компания P&G отличается открытостью. Более скрытные участники рынка считают тоже не на калькуляторах.

Но что уж говорить о P&G, когда и средним и небольшим предприятиям теперь сплошь и рядом приходится осваивать если не «супер», то уж точно высокопроизводительные вычисления – HPC. Многие из их проблем связаны не с масштабом, а с другим подходом, которого требует HPC. Чтобы не сказать «с другим мышлением».

Надо помнить, что на мировом рынке компании-гиганты отнюдь не все разработки выполняют у себя. Инженерные и другие специфические расчеты часто заказывают небольшим фирмам, специализирующимся в узкой области. В мире большинство разработок выполняют средние и небольшие фирмы. Таким фирмам не просто пройти через такие революционные изменения, как переход к параллельным вычислениям от рабочих станций.

 

Рынок торопит

Но деваться, похоже, некуда. Моделирование всего, что можно смоделировать, становится общепринятой тенденцией развития бизнеса компаний, работающих на самых разных рынках.  Дело не только в том, что моделирование в исконном смысле – кораблики в бассейнах – постепенно уходит в прошлое, как ватманы и кульманы. Рынок торопит. Опоздал с новой моделью, тебя опередили – пеняй на себя, на недостаточные вычислительные мощности в твоем распоряжении. Или на нерасторопных инженеров и сотрудников IT-отдела, не справляющихся с новым оборудованием и новыми задачами.

Для предприятия среднего размера параллельные вычисления – экзотика. Разворачивая параллельную систему даже не таких уж больших масштабов, приходится сталкиваться с проблемами, с которыми просто не сталкивались раньше. На предприятии могли успешно применяться мощные рабочие станции, но объемы вычислений позволяли обходиться небольшим количеством параллельных потоков вычислений. Теперь модели усложнились, стали более детальными и точными, увеличились объемы данных, и приходится осознать: нужно не просто закупать новое, более мощное оборудование. Необходимо перейти на новый уровень, мыслить другими категориями, оперировать другими критериями стоимости и результативности. И, конечно, нужны специалисты именно по параллельным вычислениям. Да еще и представляющие себе предметную область.

Естественно, производители оборудования неравнодушны к проблемам своих старых и новых, потенциальных клиентов. Простота – ключевое слово многих маркетинговых компаний. Ради того, чтобы пробить дорогу к своим заказчикам, некоторые компании даже идут на то, чтобы существенно поменять саму компанию, ее бизнес-модели, приоритеты.


Начиная с себя

До 2013 года NVIDIA, прославившаяся графическими ускорителями, никогда не пробовала себя на рынке готовых, самостоятельных устройств. И вдруг появляется GRID VCA – «программно-аппаратный комплекс визуальных вычислений», так переводят на русский язык короткое VCA (Visual Computing Appliance). Это сервер с GPU, на котором происходит вся обработка заданий, на клиентскую сторону отсылаются лишь результаты – хорошего качества графика. У пользователя при этом может быть обычный или планшетный компьютер.

Когда говорят о NVIDIA, сразу вспоминают о компьютерных играх, и GRID, конечно, сразу поселился в вычислительных центрах онлайновых провайдеров игр. Но в то же самое время компания объявила и об инженерных пакетах, установленных на этих устройствах «под ключ», – Autodesk, Dassault Systemes и им подобных. На первых же демонстрациях главу NVIDIA Дженсона Хуанга поддержал вице-президент компании SolidWorks, принадлежащей Dassault Systemes. VCA по-прежнему не мейнстрим NVIDIA, но такой старт говорит о многом.

Союзница NVIDIA по альянсу OpenPOWER Foundation, IBM в некотором смысле тоже изменила самой себе, желая обольстить заказчиков. Измена эта на другом уровне, не сразу понятном постороннему. Речь идет о порядке байтов: big-endian против little-endian – то есть от старшего к младшему и наоборот. Термин, кстати, восходит к «Путешествиям Гулливера» Джонатана Свифта, к войне тупоконечников – тех, кто разбивает яйца с тупого конца, – с остроконечниками. Архитектура X86 – «остроконечная», то есть little-endian, в регистрах и в ячейках памяти сначала идут младшие байты.

IBM недавно уступила весь свой бизнес с «остроконечными» процессорами X86 китайской компании Lenovo. Мейнфреймы и коммерческие серверы IBM оставались традиционно «тупоконечными», как и, скажем, UNIX-серверы архитектуры SPARC.

Процессор IBM Power 8 вышел удачным. Кроме всего прочего он способен поддерживать 8 потоков на 1 процессорное ядро. И он стал первым в серии Power, способным исполнять и «тупоконечные», и «остроконечные» инструкции. Разумеется, это шаг навстречу клиентам, привыкшим использовать архитектуру X86. Кроме того, если у клиента уже были «остроконечные» системы, то процессы обмена данными с ними новых систем на Power 8 упрощается. А новые параллельные технологии и вообще современные тенденции развития IT могут потребовать существенно больших потоков данных, кочующих с одного вычислительного ресурса на другой.


Перед прыжком

Hewlett-Packard, которой принадлежит рекорд по числу систем в списке TOP500 (179 против следующей за ней IBM с их 153 системами), недавно разделила свой бизнес на две части. Та половина HP, внутри которой остались технологии и бизнес HPC, называется Hewlett-Packard Enterprise. Поэтому естественно ожидать, что HP будет уделять предприятиям немало внимания.

Еще во времена, когда у HP были свои процессоры серии PA-RISC, у нее был свой хорошо очерченный кусок рынка инженерных машин – рабочих станций под собственную версию UNIX – HP-UX. Этот рынок она делила с конкурентами – с SUN, например, у которой были свои UNIX-станции. Уже лет пять прошло, как исчезла компания SUN, уже лет десять назад забрали с завода последний RISC-процессор HP, но словосочетание «мощная рабочая станция», пусть уже архитектуры X86, много значит для инженера. И вот оказывается, что слово «кластер» звучит куда более современно. И кластер, как это ни прозаично звучит, может состоять из не столь дорогих, часто вполне заурядных по конфигурации узлов.

Одна из трудностей, с которыми могут столкнуться в организации, решившейся на использование HPC, может стать даже собственно конфигурирование HPC-кластера. Оно, конечно, не сводится к подбору процессоров и объема памяти. Да и выбор архитектуры кластера отнюдь не всегда очевиден. Полагаться ли на возможности универсальных процессоров? Сделать ставку на графические ускорители? GPU могут повысить производительность в десятки раз, но даже в NVIDIA открыто говорят, что GPU дает выигрыш отнюдь не на всех задачах. Надо понимать, что позволит ускорить код приложения, и если позволит, то как сконфигурировать кластер, чтобы эффективно задействовать возможности ускорителей.  

Но кроме этого необходимо будет разобраться с тем, как будут загружаться задачи, как работает планировщик. В традиционной вычислительной среде эти проблемы могли оставаться в тени. И, разумеется, надо подумать о сети: выбрать ее тип и конфигурацию не менее важно, чем определиться с вычислительными ресурсами кластера. Еще одно: если до этого в компании работали в среде Windows, то предстоит, скорее всего, освоить Linux. Мир кластеров это де-факто мир Linux, хотя исключения, разумеется, на рынке присутствуют.

От производителей железа зависит, насколько хорошо их техника будет приспособлена к конкретным задачам, сконфигурирована под характерные профили вычислительных нагрузок. Производители ПО в свою очередь предлагают reference architectures – эталонные архитектуры, лучше всего подходящие для тех задач, которые призваны решать их программные пакеты.


Инициатива помощников 

Летом этого года HP представила сообществу HPC два типа мощных серверов: Apollo 8000 с весьма оригинальной системой водяного охлаждения и Apollo 6000 с воздушным охлаждением. Первые нацелены в большей степени на большие престижные проекты в университетах и больших вычислительных центрах. Вторые ориентированы скорее в сторону бизнес-клиентов. Они более привычны, хотя их архитектура и компоновка основных блоков, позволяющая достичь высокой вычислительной плотности, не вполне традиционна. С них проще начинать построение параллельных систем. Недавно, в менее торжественной обстановке, под девизом «мост от корпоративной системы к высокопроизводительной архитектуре» HP начала продвижение машин Apollo 2000. Они пришли на смену семейству SL и адресованы как раз среднему и малому бизнесу. Вычислительная плотность в них велика (вдвое выше типичного традиционного узла 1U), при этом они уже имеют вполне привычный вид, узлы располагаются в стандартных стойках. Но переход с отдельных рабочих станций на кластеры – процесс в любом случае не рутинный.

Для того чтобы сделать такой переход безболезненным, HP работает с производителями основных инженерных пакетов – среди которых, конечно, ANSYS и SIMULIA. Результатом становятся эталонные архитектуры для типичных реальных задач Solution Reference Architectures (SRA). Производительность RSA оптимизируется и измеряется в собственных лабораториях HP и в лабораториях разработчиков-партнеров. HP определяет и список VAR, и партнеров-интеграторов, которые установят и настроят соответствующие кластеры.

Если бы клиенты работали как раньше, а не ориентировались на новую инициативу, взаимодействие происходило бы так: фирма-заказчик общалась бы параллельно и с производителем программного пакета, и с производителем оборудования. Их компетенции не всегда пересекаются. В варианте, который теперь предлагает HP, заказчик заведомо имеет дело со специалистами, которые знают и особенности железа, и особенности работы пакетов и знают, как добиться их оптимального взаимодействия. Понятно, что речь идет не только об установке и первоначальной настройке, но и о поддержке в течение всего жизненного цикла.

«Интегратор берет на себя все сложности» – таков лозунг участников инициативы. Клиент должен приступить к работе над своими инженерными проектами сразу, не задумываясь о разнице, как если бы он занялся моделированием на традиционной рабочей станции, а не на кластере с сотнями узлов.

Работа начинается с осмотра помещения, где будет установлен кластер, с оценки существующей инфраструктуры, с определения набора пакетов, на которых будут работать инженеры. Для определения нужной конфигурации приходится достаточно глубоко вникать в предметную область заказчика: нужно знать и типы моделей, которые будут обсчитываться, и математическую часть: какие решатели будут использоваться – профили могут отличаться сильно. После этого надо определить, какая конфигурация способна сочетаться с этими, иногда трудно сочетающимися требованиями к оборудованию. Бывает, что задача вообще невыполнима: некоторые модели и приложения настолько плохо поддаются масштабному распараллеливанию, что двигаться в этом направлении просто не имеет смысла. Инвестиции не будут работать. Но на другом полюсе – излишняя экономия, когда недостаточно мощный кластер просто не даст получить те преимущества, которые могли бы дать параллельные вычисления на более мощном и оптимально сбалансированном оборудовании. Интегратор должен уберечь клиента от обоих видов разочарования.

Над этим стоит поработать: переход к параллельным вычислениям вещь, в общем, неизбежная. Поддастся клиент очарованию HPC или разочарованно махнет рукой – исход один: вычисления будущего будут параллельными. 

Иногда обсуждение ситуации в HPC-отрасли вызывает странные ассоциации. Мне, например, представился вдруг поселок на Крайнем Севере. Добраться до него можно двумя способами:

1. Олень.

2. Вертолет.

Если мы говорим о нашем, земном, то есть кремнии, то разговор обычно не покидает пределов тем многоядерных процессоров, ускорителей и неуклонного увядания закона Мура. Олени – неторопливые, надежные.

Если мы говорим об альтернативах, будущем, в разговор стремительно врываются квантовые компьютеры, занимая собой обычно все пространство беседы. Это вертолеты. Летают быстро, но когда еще будут?

Не видно на горизонте ни автобуса, ни снегохода, ни парохода, ни даже подводы, впряженной во владимирского тяжеловоза.

На протяжении множества лет основной технологией производства изделий было удаление «лишнего» материала. Технология была актуальной до тех пор, пока изделия производились из недорогих материалов, а экономика стран не была выраженно рыночной. Современные технологии определяются актуальными государственными задачами, которые даже для промышленности подчас являются инновационными. Зачастую актуальные задачи государства также связаны с применением новых материалов с характерными свойствами. Такие материалы довольно дороги в цене, а некоторые выпускаются только под ряд конкретных изделий — по этой причине объекты, создаваемые по старой технологии, за счет утилизации материала при резании стоят чрезвычайно дорого или не могут быть созданы в принципе без применения новых подходов.

Эд Туркел – известный человек в компьютерном сообществе. Он проработал в Hewlett-Packard 25 лет. В конце августа он был назначен менеджером группы, отвечающим за развитие бизнеса HPC по всему миру. С ним встретился наш редактор Игорь Лёвшин, чтобы обсудить новые идеи, на разработку которых направляет усилия HP.

Moonshot

Игорь Лёвшин: Какова роль проекта Moonshot в стратегии HP?

Эд Туркел: Moonshot – прежде всего интересная возможность, использующая идеологию «сервер-на-чипе», которая технологически позволяет более тесно интегрировать вычислительные узлы. При этом у такой архитектуры очень хорошие возможности для масштабирования, они позволяют строить недорогие системы с очень высокой плотностью вычислений и низким энергопотреблением. Но что особенно важно, с моей точки зрения, и что в первую очередь интересно для тех, кто строит HPC-системы, – это возможности предлагать решения, оптимизированные под определенные приложения и под специфический характер вычислительной нагрузки. Когда мы представили Moonshot в прошлом году, мы говорили, что это первый в истории Software Defined Server – сервер, в котором архитектура определяется спецификой прикладных программ, которые будут на нем работать. То есть идея не в том, чтобы предложить для общих задач новую архитектуру, а именно заранее разработанную аппаратную платформу под заданные профили нагрузок.

Возьмем для примера экосистему ARM. Мы можем собирать мощные суперкомпьютеры, где ARM в качестве центрального процессора будет управлять графическими процессорами NVIDIA, или управлять сигнальными процессорами, или управлять ПЛИСами. И все эти варианты можно будет очень эффективно использовать для конкретных приложений. Я считаю, что это самая интересная особенность Moonshot. Например, ARM с сигнальными процессорами Texas Instruments, возможно, будет использоваться в приложениях анализа сейсмических данных. Вариант с графическими ускорителями может подойти для виртуальных десктопов, а может заинтересовать анимационные студии, тех, кому нужен рендеринг в больших количествах и на не слишком дорогих системах. Я хочу еще раз пояснить, что другие наши системы можно, безусловно, настроить на конкретные приложения, на определенные профили нагрузки, но настолько гибких возможностей, как у Moonshot, все же нет, потому что они с самого начала проектировались ориентированными на конкретные типы приложений.

И. Л.: И что же, заказчики проявляют интерес к таким системам?

Э. Т.: Конечно. Им нужны системы под решение только их, спе-
цифических задач. Возьмем другую область приложения – финансы. Компании, которые предоставляют финансовые услуги и занимаются инвестициями, обладают мощными компьютерными ресурсами для анализа рисков и построения соответствующих моделей, в основном по методу Монте-Карло. У некоторых работают тысячи серверов, выполняя одно единственное приложение. Если они перейдут на архитектуру с картриджами Moonshot, то смогут выиграть очень сильно. Вообще, там, где много машин используют одно приложение, Moonshot будет самым эффективным решением. И наоборот, ситуация, допустим в каком-то научном HPC-центре. Чего только там не считают! В их случае, наверное, лучше брать не Moonshot, а что-то более универсальное.

И. Л.: Какое место в стратегии HP занимают сейчас Большие Данные?

Э. Т.: Для HP это – важнейшее направление. Но Большие Данные – слишком широкое понятие, чтобы говорить в общем. Есть, скажем, какая-то инфраструктура с Hadoop для анализа Больших Данных. Вполне может случиться, что среда для решения таких задач окажется довольно однородной. То есть данных может быть много и самых разных, но операции над ними похожи. Это всего один случай и, очень может быть, тоже являющийся полем деятельности для Moonshot. А если в каком-нибудь научном центре анализируют большие данные: то астрофизические, то биологические, и в каждом случае используются совсем разные алгоритмы, то, опять же, лучше подумать о чем-то более универсальном. Так что дело скорее не в том, Большие Данные или нет, а в типах задач и вычислительных нагрузок.

В промышленном секторе какая-нибудь фирма может решать задачи структурного анализа, делать ресурсоемкие краш-тесты, моделировать гидродинамические процессы. Системы для этих задач должны быть настроены по-разному. Если они до этого собирали большие системы под какой-то тип задач, то, может, не под все, но под самые ресурсоемкие и типичные задачи вариант с соответствующими картриджами Moonshot тоже имеет смысл рассматривать. А для менее предсказуемых задач и нагрузок можно рассмотреть наши новые системы Apollo, которые прекрасно справятся с любыми задачами HPC самого высокого класса.

И. Л.: В проекте Moonshot есть место для разных процессоров: и Intel, и AMD, и ARM. Какие архитектуры для каких целей подходят лучше всего?

Э. Т.: Разнообразие центральных процессоров нужно буквально для того же, о чем я уже говорил: чтобы подобрать картридж Moonshot для как можно более разнообразных типов задач и нагрузок. Картридж m300 построен на процессорах Intel Atom C2000 Avoton. Его мы ориентировали на приложения Dynamic Web. Для провайдеров хостинга не так важны технологии, как удобство работы со знакомыми приложениями. Atom, например, хорош для хостинга потому, что у него хорошая производительность на командах x86 и в то же время хорошие сетевые возможности. Но дело же не в одних процессорах. Мы подбираем под задачи все: и память, и подходящие SSC, и сетевые контроллеры. Для хостинга –типичный 2-процессорный x86-сервер, типа ProLiant DL360. Хозяева хостинга, скорее всего, использовали бы его для размещения виртуальных машин. Скажем, 10 виртуальных серверов, 10 пользователей с общей сетевой фабрикой. А в m300 мы вместо этого можем дать пользователям по отдельному серверу на то, что в обычном сервере было виртуальной машиной. И к каждому будет подключено собственно соединение 1GB Ethernet – ничего виртуализовывать вообще не нужно! В результате на каждого пользователя придется больше сетевой производительности. И это очень хорошая комбинация для хостинга.

Похожая ситуация – с картриджем m700. Фактически можно раздать каждому пользователю по графическому процессору потому, что это просто, недорого и никакой виртуализации не нужно.

А картридж m700 предназначен для хостинга виртуальных десктопов, поэтому в них – процессор AMD с мощными графическими ядрами. Картриджи m800 снабжены сигнальными процессорами Texas Intstruments, поскольку этот картридж ориентирован прежде всего на телекоммуникационные компании. Так что экзотичность Moonshot не в том, что используются разные процессоры, а в том, что системы на этих картриджах создаются под специфичные задачи заказчика.

Мемристоры
и The Machine

И. Л.: Среди новых технологий, которые должны появиться у HP, наиболее загадочными представляются мемристоры. Какие новости с этого направления?

Э. Т.: О мемристорах мы говорим давно, и эта интересная технология того заслуживает, но до ее реализации еще остается несколько лет. Угадать год не берусь: предсказания – дело неблагодарное. Зато я могу определенно сказать, что в HP Labs, где этим занимаются, не рассматривают мемристоры как технологию саму по себе. Там стремятся представить цельную картину того, какими станут в будущем вычислительные архитектуры. Сейчас мы говорим о концепции The Machine, которая представляет собой как бы универсальный набор из разных видов вычислительных ресурсов: традиционной памяти и мемристоров; различных видов систем хранения – от твердотельной до лент; различных типов межсоединений, включая оптические. И в этой концепции не менее важен такой принцип: для того чтобы быстро обрабатывать огромные массивы данных, необходимо не доставлять данные к вычислительным устройствам, а обеспечивать вычисления там, где находятся необходимые для них данные. В этом контексте мемристоры играют очень важную роль, как, впрочем, и оптические соединения, без которых невозможно достичь нужной скорости доступа к данным и малого энергопотребления. Разумеется, речь идет о будущих очень больших системах.

И. Л.: Когда вы говорите об оптических соединениях, вы имеете в виду коммуникации между узлами?

Э. Т.: Нет, не только. И дело не только в том, что фотон быстрее электрона. Мы не сможем радикально понизить энергопотребление, если все данные будут перемещаться только электрически даже на уровне тракта «процессор-память». Скоро оптика появится уже на кремнии. Новые архитектуры – это хорошо. Но когда речь идет о новых архитектурах на базе традиционных технологий, можно хотя бы ожидать, что при физической реализации устройства плохих сюрпризов не будет. Не рискованно ли вкладываться в принципиально новые, не опробованные как следует технологии?

Мемристоры – не единственная новая технология для памяти нового поколения.

И еще неизвестно, какая технология победит на рынке. Я думаю, что какое-то время на рынке не будет мейнстримной технологии, а будут происходить попытки использовать самые разные технологии, которые будут существовать параллельно, пока не произойдет естественного отбора.

Мы станем свидетелями появления очень многих новинок. Поэтому прежде всего важно понять, какую роль память будет играть в принципе в вычислительных архитектурах будущего, и, например, ответить на вопросы, что станется с иерархией кэшей, сохранится ли она вообще, насколько тесной будет интеграция процессора и памяти, – и на множество других, не менее интересных.

Игорь Лёвшин встретился с заместителем директора по науке ФГУП «НИИ «Квант» Виктором Владимировичем Корнеевым.

 

Игорь Лёвшин: Не начать ли наш разговор о параллелизме с почти забытого слова «транспьютер»? Ведь они сыграли заметную роль не только в мировой, но и в отечественной вычислительной технике. Как минимум в машинах серии МВС, разработанных «Квантом».

Виктор Корнеев: Конечно. Транспьютеры — английское изделие, их производила фирма Inmos. Американцы их не приняли и до сих пор не упоминают. А ведь на их базе были созданы первые промышленные установки, в которых параллельно работали более 2 тысяч процессоров. Если посмотреть список самых производительных компьютеров в 1980-е годы, то там очевидно некоторое топтание на месте, как раз в то время, которое приходится на разработки машин с векторно-конвейерной архитектурой с небольшим числом процессоров. Видно, что роста производительности почти нет. Когда появились на рынке транспьютеры, включился фактор массового параллелизма, и отметки производительности вернулись на магистральную линию.

И. Л.: А почему в Америке их не принимали?

В. К.: Потому что они не были американскими. Они появились примерно в то время, когда росла популярность Intel 80286. При этом какое-то время транспьютеры оставались самыми быстрыми 32-разрядными процессорами. Их даже использовали тогда в ПК, но законы массового производства их вытеснили. Только во времена Intel 486-я линейка транспьютеров была побеждена по производительности линией Intel. Окончательная победа Intel над транспьютерами — это заслуга Intel 860.

Я продолжаю думать, что в индустрии HPC именно сейчас уже творятся удивительные вещи. Опять потихоньку, не на телеэкранах, не на первых полосах онлайновых изданий. Не сравнить, во всяком случае, с такими звездами-перфомансами, как «Геном» или «3D-принтер».

Большие Данные и Высокопроизводительные Вычисления держались как-то больше порознь – разные издания, разные конференции. Хотя, казалось бы, как же так? Как же обрабатывать петафлопсы данных без суперкомпьютера приличествующей таким цифрам мощности?

И что же, петабайты памяти мощнейших суперкомпьютеров – неужели в них хранятся не Большие, а маленькие данные?

Все имеет объяснение. У одних в разговоре через слово InfiniBand, у других – Hadoop. Или другое: дело в Больших Друзьях. Аналогия из далекой области: жили поэты, писали похожие, в общем, стихи. Но входили в разные, не слишком дружественные между собой компании, в результате в историю культуры они попали под совсем разными «-измами». Лучшие друзья производителей суперкомпьютеров – государственные фонды. Большие Данные частенько кормятся с руки Большого Бизнеса: большим есть что анализировать и оптимизировать. Чья рука щедрее?

Редактор журнала «Суперкомпьютеры» Игорь Лёвшин встретился с Аркадием Борковским, директором 

по технологиям лаборатории Яндекса
в Кремниевой долине.

Игорь Лёвшин: Яндекс, как я понял еще из моего посещения Яндекса три года назад, отнюдь не сводится к понятию «поисковой» компании. Но что бы ни делал Яндекс, наверняка речь идет о Big Data — Больших Данных?

Аркадий Борковский: Поиск у нас по-прежнему главная часть бизнеса. А Big Data — наше «сырье». Когда-то сырьем были лес или пушнина, теперь — данные. Мы это сырье перерабатываем в знания, полезные для людей, и в деньги для себя.

Индексирование веба, как и с самого начала, —  основа всех наших технологий.
С этого все началось и на этом все отрабатывалось. Нам приходится иметь дело с бесконечным количеством страниц. Не огромным, а именно бесконечным: каждое обращение к серверу по одному и тому же адресу может выдавать каждый раз новую страницу. Мы не можем охватить бесконечность — нам нужно выбрать лучшую, конечную часть. В день собираем миллиарды страниц. Но обрабатывать много — этого одного теперь уже недостаточно: мы умеем обрабатывать огромные объемы данных относительно дешево. А это значит, что надо обрабатывать их эффективно.

В умении обращаться с большими данными можно выделить несколько уровней — аппаратная инфраструктура, вычислительная платформа, алгоритмы, машинное обучение. Базовый — это просто техническое умение как-то справляться с петабайтами данных. Строя уже 20 лет те самые индексы, мы приобрели громадный, уникальный опыт в этой области.

Дальше надо с этими данными сделать что-то полезное. Необходимы интеллектуальные алгоритмы. Вообще говоря, поисковая машина — это самый что ни на есть искусственный интеллект (ИИ). Ведь что такое интеллект? Обычно это понятие у людей ассоциируется с вербальными возможностями: человек оценивает интеллект собеседника по адекватности ответов на его вопросы. При этом адекватность ответов определяется способностью интерпретировать и агрегировать информацию, полученную от других людей — из разговоров, книг, школы, родителей. Поисковая машина старается делать именно это — адекватно отвечать на самые разнообразные вопросы, агрегируя информацию, полученную от других людей — страниц веба, запросов, кликов на результаты.

Наш журнал представляет победителей конкурса «GPU: серьезные ускорители для больших задач». Выбор журнала – два проекта: «Моделирование течения разреженного газа методом ПСМ на ГПУ», авторы – А. В. Кашковский, А. А. Шершнёв, П. В. Ващенков, и «GPU для решения СЛАУ: ускорение инженерных расчетов», авторы – Б. И. Краснопольский, А. В. Медведев.

Статью о первом проекте мы и публикуем в этом номере. Статью о втором проекте вы сможете прочитать в следующем. При спуске с орбиты возвращаемые космические аппараты (КА) должны уменьшить свою скорость с орбитальной (7.5–8 км/с) до посадочной (практически нулевой). Для этого используется аэродинамическое сопротивление, которое пропорционально квадрату скорости. На высотах 60–100 км, когда скорость КА еще достаточно велика, а плотность атмосферы уже существенно увеличилась, торможение наиболее интенсивно, а КА подвержен наибольшему аэродинамическому и тепловому воздействиям и максимальным перегрузкам. Обеспечить высокую экономическую эффективность и безопасность эксплуатации разрабатываемых КА невозможно без скрупулезного учета всех воздействий на конструкцию и выбора оптимальной траектории движения, которая снизила бы эти воздействия. В наземных условиях чрезвычайно тяжело смоделировать космические скорости в практически вакуумных условиях. Полетный эксперимент, осуществляемый исследовательскими спускаемыми аппаратами (на рисунке экспериментальные КА, в разработке которых нам довелось участвовать), достаточно дорогой, так как необходимо создать и запустить такой аппарат.

Редакция журнала «Суперкомпьютеры» беседует с доктором физико-математических наук, профессором Александром Николаевичем Томилиным. Это разговор об истории отечественной электронной отрасли, о том что было и о том, что нужно сделать.

В 56-м году я поступил на работу в Институт точной механики и вычислительной техники, где к тому времени был назначен директором Лебедев. (Сергей Алексеевич Лебедев — основоположник вычислительной техники в СССР, директор ИТМ и ВТ, академик АН СССР и АН УССР, Герой Социалистического Труда. Лауреат Сталинской премии третьей степени, Ленинской премии и Государственной премии СССР. Прим. ред.) До этого он руководил Первой лабораторией Института, а сам Институт возглавлялся академиком Михаилом Алексеевичем Лаврентьевым. Лаврентьева называли «академик-прима». Уже в 29 лет он стал доктором наук и вообще сделал блестящую научную и административнуюкарьеру. К тому моменту, когда я пришел на работу в Институт еще свежа была история, которая сейчас воспринимается как анекдот или детектив. Случилось это незадолго до смерти Сталина. Комитет госбезопасности по инициативе Берии планировал перевод лучших инженеров Института в организацию, подведомственную комитету госбезопасности с аналогичными целями создания вычислительной техники, но уже под задачи, которые решал Комитет. Когда у Лаврентьева появилась такая информация, он приказал всем воим сотрудникам с вечера спрятаться в Институте и позвонил Сталину. Сталин сказал: «приезжайте утром». Утром Лаврентьев поехал в Кремль привез оттуда бумагу, на которой было написано: «в распоряжение академии наук» и тем самым спас Институт от потери ведущих разработчиков.

Он стремился создать математическую модель всего сущего на свете, уподобившись Творцу.

Разнообразие научных направлений, которыми занимался и которые активно развивал за свою относительно короткую жизнь математик Алексей Андреевич Ляпунов (1911–1973) в определенной степени проистекает из многообразия научных, культурных и педагогических поприщ, на которых добились впечатляющих результатов его многочисленные родственники. 

Среди них – врач Виктор Васильевич Ляпунов (1817–1856), профессор астрономии Казанского университета, ученик Лобачевского Михаил Васильевич Ляпунов (1820–1868), два известных химика-органика Зайцевы – член-корреспондент Петербургской академии наук Александр Михайлович (1841–1910) и профессор Михаил Михайлович (1845–1904), физиолог Иван Михайлович Сеченов (1829–1905), математик и механик, академик Александр Михайлович Ляпунов (1857–1918), композитор Сергей Михайлович Ляпунов (1859–1924), филолог-славист, академик Борис Михайлович Ляпунов (1862–1943), математик, механик и кораблестроитель, академик Алексей Николаевич Крылов (1864–1945), физиолог и физикохимик Виктор Анри (1872–1940), революционерка Вера Николаевна Фигнер (1852–1942).

Отец Алексея Андреевича, Андрей Николаевич, получил блестящее физико-математическое образование в Московском и Гейдельбергском университетах. Однако расстроившиеся дела его отца – инженера-путейца – вынудили сына окончить курс Института путей сообщения и заняться отцовскими подрядами на строительство железных дорог.

Первая
Предыдущая
1
Страница 1 из 13

Новости

Календарь материалов

« Февраля 2017 »
Пн Вт Ср Чт Пт Сб Вс
    1 2 3 4 5
6 7 8 9 10 11 12
13 14 15 16 17 18 19
20 21 22 23 24 25 26
27 28          
Композитные бассейны по лучшим ценам
fiberpools.ru
Шины в самаре
Подбор шин и дисков. Оптовая и розничная продажа автомобильных шин и дисков
samara.taganka.biz
Частное русское порно видео без регистрации загружай по ссылке