Open Compute Project (dosłownie "otwarty projekt obliczeniowy) to przedsięwzięcie inżynierów Facebooka mające na celu opracowanie otwartych i ogólnie dostępnych dla wszystkich standardów budowy centrum danych i jego wyposażenia, które przy najniższych kosztach inwestycji zapewnią najwyższą efektywność energetyczną i moc obliczeniową.

Open CloudServer

Grupa inżynierów Facebooka spędziła ostatnie kilka lata nad sprostaniem zadania - w jak rozbudować swoją infrastrukturę obliczeniową w najbardziej efektywny i ekonomiczny sposób. Pracując najpierw na środowisku testowym stworzyła założenia, które udało się wdrożyć w wybudowanym od podstaw, zgodnie z pierwszymi wytycznymi projektu data center w Prineville w stanie Oregon (USA). Oprócz odpowiednio zaprojektowanego budynku i układu pomieszczeń (co miało na celu stworzenie maksymalnie efektywnego sposobu chłodzenia) obiekt został wyposażony w opracowane przez zespół serwery wykonane z komponentów komputerów PC,  zasilacze UPS, szafy rackowe i system bateryjnego podtrzymania zasilania. Grupa zaczęła wszystkie prace nad projektem od zera, dlatego mógła sobie pozwolić na całkowicie indywidualne podejście do każdego aspektu i zaplanowanie wszystkiego od początku, pomijając wszelkie dostępne, opracowane przez wielkie korporacje informatyczne i infrastrukturalne rozwiązania.

W oparciu o wytyczne OCP powstały już dwa centra danych, jedno - jako pierwsze - wspomniany wyżej obiekt w Prineville w  USA oraz drugi w miejscowości Lulea w Szwecji, który to przedstawiłem tutaj. Krótko tylko przypomnę, że obiekt ten wykorzystuje w 100% zewnętrzne powietrze do chłodzenia całej serwerowni. We wspomnianym wpisie skupiłem się jedynie na kwestii budowy data center. OCP jednak obecnie posiada znacznie większy zakres i przedstawia wytyczne:

Poniżej przedstawiam fragment specyfikacji dotyczącej budowy serwera nazwanego Open CloudServer (zdjęcie powyżej).

Przechwytywanie

Efekt stosowania opisanych w projekcie rozwiązań (na przykładnie centrum danych w Prineville) to redukcja kosztów inwestycji o 24%, kosztów utrzymania o 34% i osiągnięcie rekordowo niskiego wskaźnika PUE na poziomie 1,07 w skali roku.

Zapraszam do analizy tego wyniku w udostępnionej przez Facebook aplikacji wizualizującej zależność PUE od temperatury zewnętrznej oraz wilgotności. Poniżej zrzut ekranu i wyniki przedstawiane przez aplikację w momencie pisania tej treści.

facebook pue

Open Compute Project przez kilka lat swojego istnienia mocno się rozwiną i obecnie jest to już zestaw wielu dokumentów i specyfikacji, których samo przeczytanie wymaga poświęcenia dużej ilości czasu. Wszelkie informacje i specyfikacje można znaleźć na stronie projektu www.OpenCompute.org.

Moim celem tutaj było jedynie zasygnalizowanie, że istnieje takie przedsięwzięcie, dotyczy wielu aspektów i jest ogólnie dostępne. Czy ktoś z tego zrobi pożytek to już inna sprawa. Chętnie podejmę się takiego zadania jeśli znajdzie się odpowiednio szalony (w pozytywnym tego słowa znaczeniu) inwestor :) .

PUE - (ang. Power Usage Effectiveness) jest to współczynnik określający proporcje całej energii elektrycznej zużywanej na zasilanie centrum danych do energii elektrycznej zużywanej przez urządzenia IT. Im wartość bliższa 1 tym mniej energii marnowanej jest na potrzeby zapewnienia odpowiednich warunków klimatycznych serwerowni oraz odpowiedniej infrastruktury (zasilanie, chłodzenie itp.).

Współczynnik PUE został opracowany w roku 2007 i opisany przez amerykańską organizację The Green Grid skupiającą użytkowników końcowych, decydentów, producentów rozwiązań technologicznych oraz architektów infrastruktury. Szczegółowo PUE został opisane w dokumencie "PUE: A comprehensive examination of the metric".

Wzór zaczerpnięty dosłownie z dokumentu wygląda następująco:

PUE_centrum danych_data_center

Total Facility Energy - całkowita energia obiektu.
IT Equipment Energy - energia urządzeń IT.

Termin PUE na język polski należy przetłumaczyć dosłownie jako "efektywność zużycia energii". Jak można wyczytać w ww. dokumencie, wskaźnik ten służy do pomiaru efektywności energetycznej infrastruktury centrum danych i jest on narzędziem dla użytkownika końcowego, umożliwiającym zwiększenie efektywności energetycznej działania centrum danych.

Wspomniany dokument zawiera wyczerpującą ilość informacji szczegółowych dotyczących sposobów wykonywania pomiarów, obliczeń, wzorów, metod raportowania itp., dlatego zainteresowanych detalami odsyłam do jego lektury.

W praktyce niższy współczynnik PUE (bliższy 1) oznacza mniejsze wydatki związane z zasilaniem mocy obliczeniowej. Dwa centra danych o tej samej mocy IT i różnych współczynnikach PUE będą miały różne koszty utrzymania, co przełoży się bezpośrednio na cenę usługi docelowej.

Największy wpływ na docelową wartość współczynnika PUE mamy w fazie projektowej, kiedy to możemy odpowiednio zaplanować i dobrać rozwiązanie chłodzenia i zasilania (główne czynniki mające wpływ na wynik). Pozostałe elementy mają mniejsze znaczenie, co nie oznacza, iż nie powinny być odpowiednio przemyślane. Urządzenia bardziej efektywne energetycznie są droższe, jednak oszczędności jakie nam zapewnią w trakcie eksploatacji obiektu zrekompensują większe koszty w niedługim czasie.

Istnieje kilka sposobów na zwiększenie efektywności energetycznej serwerowni już działającej, jednak będą to raczej zmiany symboliczne. Kilka z nich wymieniłem w artykule "W jaki sposób zadbać o optymalną temperaturę w serwerowni i zaoszczędzić".

Najbardziej efektywnie energetycznie centra danych (Google'a czy Facebooka) chwalą się wartością PUE dochodzącą poniżej 1,1. Facebook nawet udostępnia na swoim portalu w formie FanPage'a rzeczywiste, bieżące wyniki min. wartości PEU. Jeśli chodzi o Google, to polecam stronę, gdzie firma opisuje sposób pomiaru efektywności oraz jego wyniki. W obu przypadkach kluczowe znaczenie dla osiągnięcia tak dobrych rezultatów ma zastosowanie chłodzenia ewaporacyjnego i chłodzenia opartego o zasoby naturalne (np. morze lub jezioro). O chłodzaniu jakie wykorzystuje Facebook w swoich centrach danych pisałem w artykule "Najnowsze centrum danych Facebooka zbudowane zgodnie z założeniami Open Compute Project – Część 1", do którego lektury zapraszam.

Podsumowując, współczynnik PUE warto mieć na uwadze już na etapie projektowania centrum danych. Warto zastosować bądź droższe rozwiązania (urządzenia), które zwrócą się i dadzą znaczne oszczędności zużycia energii w perspektywie czasu życia obiektu lub rozwiązania niestandardowe - na wzór Google'a lub Facebooka. Te drugie jednak wymagają znaczącej odwagi zarówno projektantów jak i inwestorów i póki co brak takich obiektów w naszym kraju (przynajmniej mi nic o tym nie wiadomo).

Chłodzenie w centrach danych jest podstawą ich sprawnego funkcjonowania. Wysoka temperatura zwiększa bowiem ryzyko awarii, co wiąże się z ewentualną utratą danych. Obecnie rozwój branży IT jest nierozerwalnie związany z coraz większym wykorzystaniem energii elektrycznej, a wpływ jaki ma na środowisko naturalne, jest jednym z najbardziej komentowanych zagadnień ostatnich lat. Proekologiczne rozwiązania stosowane w serwerowniach i centrach danych, to już nie tylko trend, ale sposób na duże oszczędności i stworzenie obiektu przyjaznego środowisku. Rosnące zużycie energii oraz wzrost jej cen powoduje, że utrzymanie centrów danych drożeje. Zapewnienie optymalnej temperatury w serwerowni ma kluczowe znaczenie dla kosztów utrzymania obiektu. Poniżej przedstawiam kilka podstawowych kroków do zmniejszenia związanych z tym kosztów.

Krok pierwszy - pomiar i analiza zużycia energii elektrycznej

Pierwszym krokiem do zminimalizowania kosztów jest pomiar i ocena zużycia energii, potrzebnej do funkcjonowania całego obiektu. Do oceny efektywności energetycznej centrum danych można posłużyć się wskaźnikiem PUE (z j. ang. Power Usage Effectiveness). Jest to iloraz mocy pobieranej przez wyposażenie zainstalowane w centrum danych, oraz moc potrzebną do funkcjonowania sprzętu IT (serwery, przełączniki, pamięci masowe i inne urządzenia). Współczynnik będzie tym bardziej korzystny, im bliższy będzie wartości 1. Metoda ta pozwala określić ile energii przypada na działanie wyposażenia, a ile na urządzenia IT. By uzyskać rzeczywiste wyniki, warto przeprowadzać to badanie przez cały rok.

Krok drugi - optymalizacja przepływu powietrza

Przykład modularnej zabudowy strefy chłodu wykonanej w istniejącej serwerowni
Przykład modularnej zabudowy strefy chłodu wykonanej w istniejącej serwerowni

Właściwy przepływ powietrza jest konieczny, by utrzymać odpowiednią temperaturę w serwerowni. Wzrastająca wydajność obliczeniowa sprzętu generuje większe ilości gorącego powietrza, które należy w sposób odpowiedni odprowadzać. Jednym z problemów jest powstawanie tzw. gorących punktów (z j. ang. host spot), czyli miejsc, w których kumuluje się duża ilość ciepła. Inną przyczyną, która istotnie wpływa na pracę centrum danych i większy pobór energii elektrycznej, jest mieszanie się gorącego powietrza z chłodnym. Często zdarza się to, kiedy w szafie rack są puste miejsca, przez które ucieka powietrze. Rozwiązaniem może być wówczas zamontowanie w szafach paneli maskujących i oddzielenie fizyczne stref chłodu i ciepła. W charakteryzacji przepływu powietrza w serwerowni (szczególnie na etapie projektowania) pomoże zastosowanie modelowania obiegu  powietrza, do którego wykorzystuje się programy komputerowe typu CFD (z j. ang. Computational Fluid Dynamics).

Krok trzeci - zwiększenie temperatury wewnątrz serwerowni

Sposobem na obniżenie kosztów związanych z eksploatacją serwerowni jest również podwyższenie temperatury w strefach zimnych pomiędzy szafami IT w serwerowni. Serwery mogą bezpiecznie pracować w temperaturze nawet 27 stopni Celcjusza, co potwierdzone jest przez specjalistyczne instytucje i producentów sprzętu.

Krok czwarty -  wykorzystanie energooszczędnego sposobu chłodzenia

Sprzyjające warunki atmosferyczne wykorzystuje się również do schłodzenia serwerowni za pomocą systemów oszczędnego chłodzenia (tzw. free cooling). Dzięki tej metodzie możemy odprowadzić ciepło bez użycia sprężarek chłodniczych, wykorzystując jedynie niską temperaturę na zewnątrz. W naszych warunkach klimatycznych sprawdza się z powodzeniem, bo free cooling może pracować nawet przez kilka miesięcy w ciągu roku. Dzięki temu znacznie wpływa na zmniejszenie poboru prądu.

Wymienione tutaj sposoby optymalizacji chłodzenia serwerowni i idącej za tym redukcji kosztów utrzymania centrum danych nie wyczerpują zagadnienia. Część z nich jest bardzo łatwa i niedroga do wykonania w już istniejącej serwerowni (zwiększenie temperatury w serwerowni, separacja stref chłodu i ciepła, zastosowanie paneli maskujących w szafach serwerowych), natomiast zastosowanie free coolingu wymaga już sporych nakładów finansowych i wykonania prac instalacyjnych.