Вселената – откъдето и да я погледнеш, е едно доста голямо място. Всъщност всички ние, втренчени в ежедневните си, чисто човешки, дребни проблеми, често забравяме колко смехотворно малка частица сме ние и нашата скромна планета от големия, необятен Космос.

В същото време още от момента, в който за пръв път в очите на хомо сапиенс е проблеснала искра на интелигентност, той е отправил жаден поглед към звездите и е започнал да си задава въпроси за тях. Какво са те? Колко далеч се намират? От какво са изградени? Как така висят незакрепени в небето и не падат?

В зората на цивилизацията отговорите на тези въпроси са били лесни – все още просто устроеният мозък на далечните ни прадеди не е бил склонен да осмисли и възприеме по-сложните реалности на астрофизиката. С времето обаче и с натрупването на съвкупното човешко познание нещата започнали да изглеждат все по-сложни и по-сложни. Появили се понятия за трудно обясними явления и феномени като черни дупки, тъмна материя, тахиони и други елементарни частици и всичко това постепенно рисувало една картина на Космоса, по-сложна, отколкото някой някога си е представял.

 

 

Във времето на Галилей и Коперник за подбора, обработката и сортирането на тази информация учените, разбира се, разчитали основно на себе си и на своя ум. Това е и една от причините тогава новите открития за същността на Космоса и начина, по който работи Вселената, да се случвали бавно и да се възприемали трудно. В зората на ХХ век обаче и особено в края на 70-те му години едно ново човешко изобретение променило правилата на играта в сферата на космическите изследвания.

Появата и масовото разпространение на така наречените електронни изчислителни машини (или по-просто казано компютри) дало в ръцете на астрофизици и астрономи мощен нов инструмент за обработка на огромното количество данни, с които ни залива Вселената. Радиосигнали от дълбокия Космос, телеметрични данни за планетарните орбити, измервания за цикличното движение на небесните тела – всички тези сложни, огромни по обем изчисления вече не било нужно да се извършват „на ръка”.

Така операции, които само допреди 50 години отнемали месеци, се извършвали за часове. В крайна сметка развитието на високите технологии и сериозният напредък в изследването на Космоса и Вселената изобщо са неразривно свързани. В този кратък материал ще се опитаме да намерим отговор на въпроса, как и колко точно.

Скромните труженици във висока орбита...

След подобен увод вероятно очаквате да започнем нашия разказ с примери за ултрамощна технология, за процесори с по 8 - 12 ядра, за суперкомпютри, изградени от огромни масиви от работни станции, използващи Opteron или Xeon чипове от последна генерация. Нищо подобно! Ще започнем с нещо далеч по-просто. С един чип, за който днешното смартфон поколение вероятно дори не е чувало – за добрия стар Intel 80486, или както си го знаехме през 90-те години на миналия век – 486-ица.

Хората, които днес са свикнали да имат процесори с две и дори с четири ядра в мобилните си телефони, едва ли си спомнят времената, в които повишение на тактовата честота с 8 MHz беше голяма работа, а за да си позволиш още 1 МВ оперативна памет, трябваше да спестяваш поне 1 година, тъй като тя струваше разорителните 200 долара.
Подобни технологични „чудеса” може да изглеждат смешни от гледна точка на нашето съвремие, но именно едно такова „чудо” все още управлява един от най-удивителните инструменти за наблюдение и изследване на Космоса – телескопа Хъбъл.

 

Всъщност фактите са такива

Болшинството подобни уреди днес оперират с жалки по съвременните стандарти процесорни мощности. Компютрите на борда на Международната космическа станция например използват 386 процесора (при това в комплект с 387 математически копроцесора), които днес, честно казано, могат да се намерят най-вече и основно в историческите музеи.

Хъбъл от друга страна, който все още е един от основните източници на някои от най-смайващите космически открития на нашето време, макар да използва 486 чип, всъщност се сдоби с него вследствие на трети планов ъпгрейд на бордовият си компютър. Когато беше изстрелян в околоземна орбита, той разчиташе на уникална компютърна система, разработена от Rockwell International. Нейното име е DF-224, а устройството й e меко казано, нестандартно. Така например тя беше изградена от 2-битови сегменти, които, съчетани в комплект от 8 части, съставляваха класически 16-битов компютър. DF-224 освен това не разполагаше с класически чипове памет, изработени от силиций, а използваше различен механизъм за съхранение на оперативна информация. На финала логиката на „централния й процесор” дори не беше масовата в момента CMOS (Complementary metal–oxide–semiconductor), a PMOS (P-type metal-oxide-semiconductor) – много ранен неин предшественик, който освен всичко друго консумира чудовищно количество енергия и в началото на мисията е създавала доста проблеми с охлаждането на Хъбъл.

 

 

Всъщност, ако се замислите, и сами ще стигнете до извода, че наличието на подобни доста архаични компютърни технологии в различните космически апарати е плод на здрава логика. От една страна, изчисленията, с които са натоварени те, са от критично значение, но не са чак толкова тежки и обемисти. На практика бордовият компютър на Хъбъл не извършва по-различни операции от кой да е друг бордови компютър – неговите задачи са свързани със следене на данните от серия датчици – за температура, скорост, височина и предаването им към наземните контролни системи. След това той трябва да приеме командите, изпратени от наземния екип, и да ги осъществи. Така на практика бордовият компютър на един космически съд като Хъбъл изпълнява повече ролята на терминал, а мнозинството комплексни изчисления се извършват от контролните системи на Земята.

Точно затова при избора на чипове учените, екипиращи инструмент като Хъбъл, се ръководят от съвсем различни съображения от тези, които имаме ние, например когато избираме процесор за новото си домашно РС.

Така например за тях е важно съответният чип да бъде устойчив на радиация и радиационни лъчения, на които той ще бъде изложен при работата си в открития Космос. Именно това е една от основните причини за избор на Intel 486 – оказало се, че това е един от най-радиационно устойчивите чипове, налични по времето, когато е бил планиран последният обслужващ полет до Хъбъл.

... и могъщите им наземни колеги


Това, че дори и сега високо над нас обикалят десетки стационарни спътници и други космически съдове, екипирани с технология, която е на най-малко 10 години (цяла ера в света на микропроцесорите), не означава, че всички учени, занимаващи се с космически изследвания, използват подобни архаични инструменти за работата си. Точно обратното!

 

 

Eдин от най-впечатляващите съвременни примерни в това отношение е супер-компютърът Хидра, намиращ се обсерваторията Джордел Банк към Университета Манчестър. С негова помощ (и с помощта на мощен радиотелескоп) астрономите изследват очарователно странното поведение на пулсарите. Става дума за един от най-загадъчните вселенски феномени – неутронни звезди, които излъчват снопове електромагнитна радиация с точността на атомен часовник. Всъщност те са толкова нечовешки точни, че „изостават” с не повече от секунда на няколко милиона години – нещо, на което Casio могат само да завиждат.


Хидра е създаден специално за наблюдение поведението на пулсарите и за да е „в крак” с космическата им прецизност, тя разполага, меко казано, с впечатляваща изчислителна мощ. Изграден е от 180 възела, всеки базиран на двупроцесорна дънна платка. Върху нея са инсталирани чифт четириядрени Xeon суперпроцесора с тактова честота 2.66 MHz и 4 GB оперативна памет.
Впечатляващо нали? Не и според доктор Антъни Холоуей, завеждащ компютърния отдел в Университета Манчестър – неотдавна той е подал заявка за "скромен ъпгрейд", който ще увеличи обема на паметта за всеки възел до 8 GB.

Хидра, разбира се, се използва за много задачи, но основното й предназначение е да записва с висока точност интервалите между пулсациите на наблюдаваните от учените неутронни звезди. За целта записът следва да бъде с изключително високо качество и много ниско съотношение на „сигнал – шум”.
Според учените особено интересни са данните, получени от два пулсара, обикалящи един около друг. Тази изключително рядка космическа комбинация всъщност дава възможност да бъдат изследвани ефектите на относителността.
Холоуей описва подобен експеримент, проведен в земни условия, при който се засича времето по два синхронно работещи атомни часовника. Единият от тях се намира на планетата, а другият на самолет, летящ около Земята. В крайна сметка отмереното време се различава, тъй като единият от часовниците се движи с относителна скорост спрямо другия. Разбира се, това е едно доста скромно изследване на прословутата Теория на относителността на Айнщайн, но когато то се провежда в космически мащаб (с двойка пулсари), нещата започват да изглеждат наистина интересни.

По принцип радиоастрономическите изследвания са сред най-ресурсоемките в тази сфера. Именно по тази причина всеки голям радиотелескоп на планетата е свързан с поне един суперкомпютър от ранга на Хидра. Повечето от тях са основани на така наречената Blue Gene технология (същата, на която е базиран прословутият Deep Blue на IBM), но за някои по-специфични масиви от данни те се оказват недостатъчно ефективни.

Един такъв пример откриваме в сферата на така наречените Epoch of Reionization изследвания (свързани с проучване на обстоятелствата около и след Големия взрив, вследствие на който е възникнала Вселената).
Самата материя е доста сложна, но в основата става дума за обследване на Космоса за наличието на специални „джобове” от йонизиран водород, останали след експлозията с вселенски пропорции. Тъй като неутралният водород (който запълва 99% от космическото пространство) излъчва специфична спектрална емисия, а йонизираният водород не, посредством анализ на данните, получени от наблюдения с радиотелескоп, е възможно да се регистрират подобни „мехурчета”, останали след Големия взрив.

Проблемът е, че задачата, свързана с намирането на точно тези данни, е аналогична на търсенето на много малка игла в огромна купчина сено. Според учените става дума за обработка на пакети от данни с обем от 1.5 пентабайта (около 1500 терабайта). На суперкомпютър с изчислителен капацитет от 100 TFLOPS пресяването на информация с подобен обмен би отнела грубо около 140 дни!

Използването на масиви от графични процесори вместо по-традиционните Blue Gene базирани суперкомпютри може да ускори неколкократно обработката на данни в някои области от космическите изследвания.

Един млад учен на име Панос Ламброполус смята, че е открил по-бърз начин за решаването на този проблем. Той предлага вместо класически Blue Gene суперкомпютри за целта да се използват изчислителни масиви, базирани на... графични процесори. По-конкретно става дума за 80 компютърни възела, всеки от които включва по две Nvidia Tesla карти (професионални графични ускорители). Благодарение на по-специфичната архитектура на видеопроцесорите Ламброполус е успял да постигне увеличение от 5 до 12 пъти спрямо традиционните суперкомпютърни системи. Ученият е убеден, че благодарение на мощните съвременни графични чипове много от сложните астрономически задачи могат да получат сериозен тласък и да бъдат решавани доста по-бързо.

Тагове: