Kontynuując cykl dotyczący modularnych centrów danych i modularnych serwerowni przedstawiam propozycję firmy Rittal o nazwie RiMatrix S. Tak się szczęśliwie złożyło, że firma ta zorganizowała w ostatnim czasie roadshow po Polsce z przykładową wersją kontenera i miałem okazję zobaczyć produkt od środka. Wydarzenia miało miejsce w czerwcu 2014 roku. Poniżej przedstawiam krótkie streszczenie omawianego rozwiązania.

RiMatrix S to zestaw szaf serwerowych, sieciowych, systemu zasilania, chłodzenia itp. zdefiniowany przez producenta i określony katalogowymi parametrami tworzący jako całość modularne data center, które na życzenie klienta może zostać zainstalowana w jednej z trzech opcji.

  1. Wersja kontenerowa - posadowienie na zewnątrz budynku.
  2. Wersja wewnętrzna podstawowa - instalacja systemu w jednym z pomieszczeń budynku.
  3. Wersja wewnętrzna w bezpiecznym pomieszczeniu IT Security Room wewnątrz budynku.

System oraz opcje instalacji przedstawiam na poniżej zamieszczonych obrazkach zaczerpniętych ze strony producenta oraz z materiałów udostępnionych mi przez firmę Rittal.

Dwa pierwsze obrazki przedstawiają podstawowy moduł systemu, który może być skalowany poprzez dostawianie kolejnych modułów w miarę potrzeb.

System RiMatrix S bez obudowy
System RiMatrix S bez obudowy (opcja single 6).

 

System RiMatrix S - widok szkieletu (opcja single 6)
System RiMatrix S - widok szkieletu (opcja single 6).

 

RiMatrix S - opcja double (podwójny zestaw szaf serwerowych i systemów wspomagających (zasilanie, chłodzenie itp.)
RiMatrix S - opcja double (podwójny zestaw szaf serwerowych i systemów wspomagających (zasilanie, chłodzenie itp.)

 

RiMatrix S wersja instalowana w budynku
RiMatrix S - wersja instalowana w budynku

 

RiMatrix S it security room
RiMatrix S - wersja instalowana w bezpiecznym pomieszczeniu IT security room.

I poniżej zdjęcia przedstawiające wersję kontenerową, które zostały zrobione podczas wspomnianego roadshow we Wrocławiu.

RiMatrix S w kontenerze
RiMatrix S w kontenerze

 

RiMatrix S w kontenerze - widok od boku.
RiMatrix S w kontenerze - widok od boku.

 

RiMatrix S w kontenerze - widok z autorem wpisu
RiMatrix S w kontenerze - widok z autorem wpisu

System zapewnia obsługę maksymalnej moc 1o kW na jedną szafę serwerową. Jako główne zalety producent wymienia:

  • Niższe koszty inwestycji.
  • Gwarantowany wskaźnik PUE = 1.1.
  • Znacznie uproszczona i skrócona faza projektowania.
  • Niższe koszty serwisowania.
  • Krótki termin dostawy z produkcji seryjnej.
  • Pełna dokumentacja, testy systemu, certyfikowane moduły TÜV Rheinland wg PN-EN 50600-1; VDE 0801-600-1:2012-01.

Należy pamiętać, że konieczne jest - niezależnie od wersji - zapewnienia miejsca dla jednostek zewnętrznych systemu klimatyzacji oraz ewentualnego systemu zasilania rezerwowanego.

Co do kosztów i czasu realizacji,  jak zawsze zależy do czego porównać...

Tym razem prezentuję krótki, aczkolwiek treściwy materiał. Mianowicie Europejska Organizacja Badań Jądrowych (CERN) za pomocą systemu Google Street View udostępniła możliwość wirtualnego zwiedzania swojej serwerowni, w taki sam sposób jak ulice, które można podglądać na mapach Google.

CERN_Computer_room_2
Przykładowy fragment widoku serwerowni CERN.

W omawianej serwerowni CERN utrzymuje komputery o dużej mocy obliczeniowej, która jest przeznaczona dla potrzeb naukowych. Sama budowa pomieszczenia nie cechuje się jakimiś nadzwyczajnymi rozwiązaniami i jest raczej standardowa, jednak możliwość zdalnego "wejścia" do niej jest interesująca.

Pracownicy Organizacji dodatkowo (być może dla zachęty tych, którym widok samej serwerowni nie sprawia większej satysfakcji) rozmieścili wewnątrz serwerowni 20 ludzików LEGO. Można spróbować je znaleźć. Mi się nie udało, ale zapewne dlatego, że nie poświęciłem na to odpowiednio dużo czasu. Wolałem oglądać infrastrukturę :)

Tak więc poniżej zamieszczam link bezpośrednio kierujący do systemu Google Street View i serwerowni Europejskiej Organizacji Badań Jądrowych w Szwajcarii oraz, dla zainteresowanych, na stronę Organizacji.
Wejście do serwerowni CERN.
Strona Europejskiej Organizacji Badań Jądrowych

Kontynuujące tematykę modularnego centrum danych (wpis dotyczący propozycji Microsoft) przedstawiam tym razem propozycję firmy Hawlett-Packard o nazwie HP Performance Optimized Datacenter (POD).

Jeden moduł tego typu jest w stanie pomieścić 44 szafy o wysokości 50U i nośności 1,5 t. Średnie obciążenie cieplne każdej z szaf może się wahać w granicach 30 kW. Zapewnia wydajność około 1,2 MW mocy IT i zajmuje tylko 90 m2. [1]

hpod2Symulacja komputerowa jednego modułu. [2]

hpod4Symulacja procesu rozbudowy, krok 1. [2]

hpod5Symulacja procesu budowy, krok 2. [2]

hpod6Symulacja procesu budowy, krok 3. [2]

hpod7Symulacja procesu budowy, krok 4. [2]

hpod1Symulacja przepływu powietrza. [3]

Poniżej przedstawiam zdjęcia wykonane podczas rzeczywistej dostway modułu centrum danych HP POD 240a. Zdjęcia zaczerpnąłem ze strony Uniwersytetu w Michigan, który zaopatrzył się w takie rozwiązanie w celach badawczo-naukowych.

hpod10Jedna z częsiu modułu w transporcie. [4]

hpod11Rozładunek dźwigiem do ciężkich zadań. [4]

hpod12Widok tyłu szaf serwerowych w module. [4]

hpod13Montaż górnej części modułu. [4]

hpod14Kompletny moduł centrum danych. [4]

hpod15Widok wnętrza modułu - strefa chłodu. przód szaf serwerowych. [4]

Ecopod-HotAisle-470Widok wnętrza modułu - strefa ciepła pomiędzy tyłami szaf serwerowych. [5]

 

Źródło

[1]. HP Performance Optimized Datacenter (POD) 240a QuickSpec;
http://h18004.www1.hp.com/products/servers/solutions/datacentersolutions/pod240a/index.html
[2]. http://www.youtube.com/watch?v=7pzQ_V4BaS4
[3]. http://www.youtube.com/results?search_query=Rethink+Your+Data+Center-HP+POD+240a+&sm=3
[4]. https://sites.google.com/a/umich.edu/university-of-michigan-modular-data-center-mdc/home/documents
[5]. http://www.datacenterknowledge.com/archives/2011/06/07/hp-unveils-updated-ecopod-modular-design/

 

 

Modularne centrum danych jest to centrum danych składające się z pewnej liczby niezależnych i kompletnych modułów (np. kontenerów) - będących de facto w takim układzie serwerowniami, które wystarczy podłączyć do infrastruktury centrum danych (zasilanie, sieć komputerowa, źródło chłodu - opcjonalnie) w celu zwiększenia mocy obliczeniowej obiektu bez konieczności wykonywania prac budowlanych a nawet instalacyjnych.

W tradycyjnym modelu data center jest obiektem budowanym do docelowej, zaplanowanej wielkości i pojemności z kompletną infrastrukturą fizyczną zapewniającą odpowiednie warunki środowiskowe oraz bezpieczne i niezawodne zasilanie serwerowni. Z czasem szafy serwerowe zapełniane są odpowiednią ilością urządzeń IT. Jednak w momencie wypełnienia serwerowni, jedyną możliwością zwiększenia pojemności centrum danych będzie zaprojektowanie i wykonanie prac budowlanych mających na celu zwiększenie rozmiarów obiektu. Taka inwestycja trwa stosunkowo długo (nawet kilka lat), wymaga zaangażowania firm wykonawczych i może wiązać się z przestojami istniejącego systemu.

W przypadku modularnego centrum danych w obiekcie planuje się odpowiednio dużą przestrzeń (hala lub utwardzony teren) na moduły, które w miarę potrzeb są dostarczane w formie kompletnego, fabrycznego systemu (serwerownia wraz z instalacjami i urządzeniami IT).

Poniżej przedstawiam różne przykłady różnie zaprojektowanych i wykonanych modułów centrów danych, które są własnością firmy Microsoft.

Najpierw zdjęcia symulacji komputerowej.

msdcm9Na początek zaplanowano centrum danych składające się z dwóch modułów. [1]

msdcm10Z czasem dodano kolejne dwa, co bezpośrednio wynikało z bieżącego zapotrzebowania.
Czas realizacji - 2 miesiące od zamówienia. [1]

msdcm11Obiekt stale się rozrastał, co nie było związane z wykonywaniem prac budowlanych. Dla zwiększenia efektywności chłodzenia zastosowano ograniczenie strefy i wyrzut ciepłego powietrza ponad wysokością modułów. [1]

I zdjęcia realnych przykładów.

msdcm12Transport modułu. [2]

msdcm8Realne zdjęcie przykładowego modułu zewnętrznego wraz z przyłączami. [3]

msdcm6Obrazek pokazujący przepływ powietrza przez moduł. [4]

Pokazane powyżej moduły są w pełni chłodzone powietrzem zewnętrznym z zastosowaniem systemu ewaporacyjnego. Zgodnie z zaleceniami Microsoft, takie rozwiązanie można stosować w regionach gdzie temperatura zewnętrzna nie spada poniżej 10°C i nie wzrasta powyżej 32°C, przy czym dzienne wahanie temperatur nie może przekroczyć 10°C. [5] Także rozwiązanie nie nadaje się do zastosowania w Polsce i większości Europy.

W częściach Świata, gdzie trudno o takie warunki można po prostu moduły instalować w zamkniętej hali, gdzie stworzymy takie warunki. Mniej więcej taki model przedstawiają poniższe obrazki.

msdcm1Przykład hali centrum danych z modułami serwerowni. [1]

msdcm4Wnętrze jednego z przedstawianych modułów. [1]

msdcm2Widok przyłączy źródła chłodu. [1]

msdcm3Przykład hali centrum danych z bardziej skomplikowanymi - kilkuczęściowymi - modułami serwerowni wykorzystującymi chłodzenie powietrzem otoczenia (hali). [1]

msdcm7Widok szaf serwerowych i serwerów umieszczonych w module kilkuczęściowym, od którego odsunięto korytarz obsługi i filtrowania powietrza. [1]

msdcm5 UPSDla przykładu również moduł zasilania centrum danych. Ta sama idea, tylko inna zawartość. [1]

Źródło

[1]. Microsoft GFS Datacenter Tour

[2]. Microsoft’s ITPAC – A Perfect Fit for Off-the-Grid Computing Capacity
[3]. EXECUTIVE STRATEGY BRIEF Modular Data Centers
[4]. Microsoft ITPAC http://www.youtube.com/watch?v=S3jd3qrhh8U

[5]. Server Design for Microsoft’s Cloud Infrastructure

Udało mi się natrafić na bardzo fajny filmik przedstawiający nagranie wnętrza centrum danych Google'a zlokalizowanego w Północnej Karolinie. Prezenter CBS twierdzi, że to pierwszy przypadek wpuszczenia do wnętrza kamer.

Materiał bardzo fajnie (chociaż pobieżnie i krótko) pokazuje poszczególne części data center. Na przykład pokaźne pomieszczenie sieciowe ("networking room") - część w której odbywa się cały proces przełączania pomiędzy serwerami oraz siecią internet.

Wielka serwerownia ("zapierająca dech w piersiach" prezenterki) hostująca 55 200 serwerów wykonanych według myśli inżynierów Google'a, czyli na bazie elementów, z których produkuje się komputery PC. (Warto tuja wyjaśnić, że podejście jest zbieżne z tym zaproponowanym przez Facebooka i opisane w dokumentacji "Open Compute Project". Pamiętajmy jednak, że Google jako pierwszy na taką skalę zaczął stosować serwery zbudowane z komponentów klasy PC. Nie był jednak tak dobroduszny i nie udostępnił ich specyfikacji.). Widać na nagraniu jak łatwa jest wymiana elementów lub całego serwera, bez żadnego wpływu na działanie systemów.

Film poświęca sporo uwagi kwestii energooszczędności obiektu i sposobom w jaki została zwiększona. Na przykład mowa jest o podniesieniu temperatury wewnątrz serwerowni z 68 do 80 stopni F (z 20 na około 27 stopni C). Dodatkowo zamiast tradycyjnego systemu klimatyzacji zastosowano ewaporacyjny system chłodzenia. Dzięki tym i innym innowacjom wskaźnik PUE dla tego centrum danych wynosi (jak widać na nagraniu) 1,100.

Dodatkowo prezenterka zapowiada, że w planach Google'a jest udostępnienie zdjęć i nagrań z wszystkich 12 centrów danych jakie obecnie posiada gigant z Doliny Krzemowej.

1

12 lipca 2013 roku Facebook uruchomił oficjalnie swoje najnowsze data center o powierzchni 27 tysięcy m2. Jest to już drugie centrum danych po tym zlokalizowanym w Prineville w stanie Oregon (USA) zrealizowane zgodnie z ideą otwartego standardu budowy ośrodków obliczeniowych tzw. "Open Compute Project" (OPC) zainicjowanego i rozwijanego właśnie przez Facebooka. Tym razem jednak jest to pierwsze data center właściciela największego portalu społecznościowego na świecie poza Stanami Zjednoczonymi i znajduje się w szwedzkiej miejscowości Lulea położonej na wysokości geograficznej gdzie w przeważającym czasie panuje chłodna  atmosfera.

Obiekt ten jest przykładem całkowicie nowoczesnego, łamiącego wiele standardów i ograniczających zaleceń podejścia do projektowania, budowy i wyposażenia centrów danych. Cechuje się niezwykle wysoką wydajnością energetyczną (PUE) między innymi dzięki wykorzystaniu zewnętrznego powietrza do chłodzenia oraz energii elektrycznej pochodzącej w 100% z lokalnych źródeł odnawialnych.  Moim zdaniem jest to dzieło sztuki inżynierii data center i jestem pełen podziwu dla innowacyjności inżynierów Facebooka.

Poniższy obrazek przedstawia widok z góry na obiekt.

Widok z góry na centrum danych zlokalizowanego w Lulei
Widok z góry na centrum danych zlokalizowanego w Lulei

 

Lokalizacja taka została wybrana celowo tak aby jak najwięcej dni w roku serwery hostowane w serwerowni zlokalizowanej w tym centrum danych były chłodzone zewnętrznym powietrzem bez konieczności zużywania dużej ilości prądu - jak w klasycznym sposobie chłodzenia za pomocą jednostek klimatyzacji precyzyjnej. Zgodnie z założeniami Open Compute Project zewnętrzne powietrze jest bezpośrednio zasysane przez ogromne wentylatory do wnętrza budynku gdzie przechodząc przez ścianę filtrów jest oczyszczane z wszelkich nieczystości oraz odpowiednio nawilżane za pomocą systemu zraszającego. Nadmiar wilgoci również jest odbierany przez filtry a następnie tłoczony do serwerowni, gdzie zasysane jest przez serwery. Ogrzane powietrze po przejściu przez te urządzania jest częściowo wykorzystywane do ogrzewania biur znajdujących się w budynku oraz (w większości) wydmuchiwane na zewnątrz. W przypadku, kiedy temperatura na zewnątrz jest niższa niż zadana temperatura minimalna pracy serwerowni, część ciepłego powietrza jest przekierowana do przestrzeni, gdzie opisany proces się zaczyna.

Najlepiej ilustruje to poniższy schemat zaczerpnięty z dokumentu "Data Center Mechanical Specifications" należącego do zbioru Open Compute Project.

Schemat przepływu powietrza zgodnie z Open Compute Project
Schemat przepływu powietrza

 

I zdjęcia przedstawiające jak opisany system przepływu powietrza został wykonane w najnowszym centrum danych Facebooka.

FB Lulea AF 01

FB Lulea AF 02

FB Lulea AF 03

FB Lulea AF 04

FB Lulea AF 05

FB Lulea AF 06

FB Lulea AF 07

 

W kolejnej części przedstawię i omówię kwestię szaf serwerowych i samych serwerów, które również są wyjątkowe jak codzienne realia standardowych centrów danych.

Źródło:
https://www.facebook.com/luleaDataCenter
http://www.opencompute.org/projects/data-center-design/