Ciągłość działania serwerowni, określana przez dostępność lub niezawodność jest jedną z kluczowych cech profesjonalnego centrum danych. Nawet najlepsze zabezpieczenia przed włamaniem, zniszczeniem, zalaniem wodą czy pożarem nie pomogą, jeśli obiekt przestanie działać. Aby uniknąć takich zdarzeń niezbędny jest odpowiedni serwis serwerowni - potwierdzony umową - zapewniający przeglądy okresowe instalacji i urządzeń mające na celu wyeliminowania możliwości wystąpienia awarii. W przypadku kiedy mimo wszystko jednak ona wystąpi, ma zapewnić gwarancję szybkiej naprawy.

@ Work
Spokojnie, wszystko w naszej nowej serwerowni działa jak należy.Leonardo Rizzi / Foter / CC BY-SA

Kiedy już przejdziemy długi proces przygotowywania się do wybudowania centrum danych czy tylko serwerowni, zaakceptujemy najlepszą koncepcję, wybierzemy najlepsze zabezpieczenia i wreszcie uruchomimy wszystko i usłyszymy ten szum urządzeń oraz poczujemy chłód powietrza emocje na pewno będą duże i bardzo pozytywne. Ale co dalej? Wszystko działa, jest zabezpieczone na wiele sposobów, więc można by pomyśleć, że już jest całkowicie bezpiecznie teraz wystarczy czerpać korzyści z nowej infrastruktury. Jednak to nie wszystko. Zakończyliśmy jedynie etap realizacji i rozpoczyna się faza  utrzymania infrastruktury, która będzie trwała do końca funkcjonowania centrum danych.  Duża liczba instalacji i systemów, i wszystko musi działać cały czas. Co będzie, jak nastąpi awaria klimatyzacji i wzrośnie temperatura? Co jeśli padnie system zasilania? Co mam zrobić jeśli np. centrala przeciwpożarowa zgłosi awarię? Jak zabezpieczyć się przed takimi sytuacjami, jak temu przeciwdziałać i jak to naprawiać? Skąd w ogóle wiedzieć czy wszystko działa jak powinno?

Serwis i utrzymanie centrum danych

Etap utrzymania centrum danych trzeba rozpocząć od zapewnienia odpowiedniego serwisu serwerowni gwarantującego bezpieczeństwo jego funkcjonowania, zapobiegającego wystąpieniom awarii, a w razie pojawienia się jej - szybkiej naprawy. Na wszystkie urządzenia i instalacje dostajemy gwarancję  producenta lub wykonawcy na pewien okres. Samo utrzymanie tej gwarancji dla części systemów wymaga przeprowadzania okresowych przeglądów konserwacyjnych, co należy zaznaczyć w odpowiedniej umowie przeglądów serwisowych. Jest to zazwyczaj usługa płatna dodatkowo wliczona lub nie w ofertę, na podstawie której wybudowano centrum danych. Ustalenie takich warunków zapewnia naprawę awarii w czasie standardowej procedury gwarancyjnej czyli np. w dwa tygodnie.  W zależności od stopnia redundancji instalacji serwerowni, w przypadku krytycznej awarii, kiedy nie działa system klimatyzacji i trzeba poczekać na części z fabryki,  taki czas może okazać się zbyt długi.

Odpowiednia umowa

Zabezpieczeniem przed takim scenariuszem jest umowa z firmą świadczącą kompleksowe usługi serwisu serwerowni lub całego centrum danych z odpowiednio dobranymi parametrami SLA (ang. Service Level Agreement) określającymi poziom usług serwisowych. Umowa daje duże poczucie bezpieczeństwa osobie odpowiedzialnej za utrzymanie serwerowni. Dzięki takiej umowie, odpowiednio zdefiniowane usterki  będą naprawiana na przykład w kilka godzin, jeśli jest taka konieczność. Jest to możliwe w tak krótkim czasie, ponieważ usługodawca związany umową nie tylko zapewnia sobie odpowiednie części zamienne i elementy, które mogę ulec awarii, ale również zatrudnia pracowników mogących usunąć szybko uszkodzenia. Oczywiście nie są to wszystkie części, ponieważ trudno sobie wyobrazić, aby doszło do zniszczenia na przykład obudowy szafy klimatyzacyjnej. Wszystko jednak jest przemyślane, aby zapewnić gwarancję naprawy w określonym czasie.

Jeśli jest to konieczne należy zabezpieczyć się w możliwość zgłaszania awarii 24/7/365, a najlepiej przekierowywania zgłoszeń krytycznych systemu monitoringu warunków środowiskowych oraz stanu pracy urządzeń i instalacji do obsługi serwisu. Jeśli tego rodzaju system nie był wykonany na etapie realizacji, należy zainstalować go teraz. Bez odpowiednio szybkiego, automatycznego powiadamiania o zdarzeniach może dojść do sytuacji, że minie trochę czasu zanim ktoś się zorientuje, że coś się zepsuło. Alternatywą dla takiego rozwiązania jest zatrudnienie kilku serwisantów (całodobowe czuwanie, zgodnie z prawem pracy wymaga to kilku osób). Zatrudnienie pracowników wiążę się również z potrzebą ich szkolenia. Osoby te muszą również zająć się realizacją umów z podwykonawcami itp. Niestety takie rozwiązanie jest droższe i mniej bezpieczne (jak wyciągnąć konsekwencje od pracownika w przypadku przestoju systemu?). Z tego też względu mało kto decyduje się na taki krok.

Odpowiednio dobrane parametry SLA

SLA jest sprecyzowaniem oczekiwań właściciela centrum danych wobec firmy świadczącej usługę serwisu serwerowni i utrzymania obiektu. Pomaga on zdefiniować relacje pomiędzy usługodawcą a usługobiorcą oraz przedstawia wszelkie ustalenia dotyczące zakresu i sposobu świadczenia usług takich jak min.:

  • poziom usług (dostępność serwisu, czas zgłoszeń, sposób zgłaszania usterek, scenariusz napraw),
  • zakres usług (określenie systemów objętych serwisem, poziom ich krytyczności),
  • jasne zdefiniowanie pojęć (usterka, awaria, awaria krytyczna itp.) dla każdego serwisowanego systemu,
  • ustalenie czasu reakcji, czasu naprawy lub zastosowania rozwiązania zastępczego,
  • określenie sposobu realizowania usług.

Dobrze przygotowane SLA powinno precyzować 5 kluczowych aspektów

  1. Co zapewnia dostawca usług.
  2. Jak dostawca w praktyce będzie realizował te usługi.
  3. Kto i jak będzie kontrolował zapewnienie usług.
  4. Co się stanie jeśli dostawca nie wywiąże się z zobowiązań.
  5. Jak warunki SLA będą się zmieniały w czasie.
More data, more problems
Jak to nie mamy umowy serwisowej dla naszej serwerowni!? Nie działa cały system! Co ja mam teraz zrobić?✖ Daniel Rehn / Foter / CC BY-NC-SA

Wszystkie warunki SLA powinny być jasne, łatwe do zmierzenia i możliwe do zapewnienia. Dokładne ich sprecyzowanie wymaga czasu i należy go poświęcić tak dużo jak będzie trzeba, aż obie strony umowy nie będą miały żadnych wątpliwości, co do możliwości realizacji zobowiązań oraz ich zasadności. Wszystkie ustalenia muszą dotyczyć istniejącej infrastruktury i nie mogą być dobierane bez jej profesjonalnej analizy np. w oparciu o domysły.

Im bardziej szczegółowe będą zapisy takiej umowy tym łatwiej będzie uniknąć niemiłych sytuacji, które mogą się nieprzewidzianie wydarzyć.  Ponadto taka szczegółowość zapisów umownych pozwoli firmie serwisującej na większe skupienie się na tym, na czym naprawdę zależy właścicielowi serwerowni.

Jasne zdefiniowanie czym są usterka, awaria czy awaria krytyczna powinno być przeprowadzone dla każdego systemu z osobna. Należy jednak na tym etapie kierować się rozsądkiem i nie wymagać tego, co jest niepotrzebne. Każde skrócenie czasu naprawy, reakcji itp. pociąga za sobą odpowiednie koszty, które ostatecznie mogą być duże. Przy odpowiednio zaprojektowanej serwerowni, zawierającej wiele elementów nadmiarowych, należy rozważyć jak najdłuższy bezpieczny czas naprawy awarii. Różnica w kosztach naprawy w 3 dni, a w 2 tygodnie jest ogromna i często niepotrzebna.

Tak naprawdę o kosztach serwisu serwerowni i centrum danych oraz ich utrzymania należy myśleć już na etapie koncepcji i projektu. Odpowiednie zwielokrotnienie urządzeń i instalacji daje duże bezpieczeństwo, a prawdopodobieństwo wystąpienia awarii krytycznej maleje. W pewnej perspektywie czasu taniej jest dodać kolejne urządzenia jako nadmiar, niż zapewnienie szybkiego czasu naprawy przez cały ten okres. W procesie ustalania warunków SLA należy brać pod uwagę ewentualny koszt przestoju systemu dla biznesu. W niektórych branżach straty są tak duże, że zrozumiałe jest postawienie bardzo wygórowanych wymagań.

Przy ustalaniu warunków SLA zaleca się podział instalacji na krytyczne i niekrytyczne. Może nie mieć sensu ponoszenie kosztów utrzymania dodatkowej butli z gazem do systemu gaszenia, tak aby w razie akcji gaśniczej i wyzwolenia środka wymiana była możliwa w parę godzin. Na pewno krytyczne jest np. zasilanie i chłodzenie. Awaria krytyczna pierwszego (brak zasilania) wymaga bezwzględnie bardzo szybkiej reakcji (oczywiście awaria po stronie dostawcy energii wymaga po prostu cierpliwości i kontrolowania pracy agregatu prądotwórczego). Awaria krytyczna chłodzenia (stopniowy wzrost temperatury przy niewystarczającej ilości pracujących jednostek) jest również bardzo poważnym zagrożeniem.

Koszt utrzymania serwerowni czy centrum danych dla wysokich wymagań SLA jest bardzo duży. Jednak prosty bilans ewentualnych strat przestoju w stosunku do kosztów takiego serwisu może pokazać, że nie jest on wcale znaczący.

Weryfikacja bezpieczeństwa

Nawet największe kary za niedotrzymanie warunków umowy nie pokryją strat (być może częściowy koszt, ale nie dobre imię firmy). Niedopilnowanie i wynikający z tego przestój systemu może się źle skończyć dla obu stron. Dlatego lepiej, odsunąć nieco na bok prawne aspekty karne wynikające z umowy (również ważne) i upewnić się, że usługodawca jest w stanie się wywiązać z obietnic.

Serwis, np. systemu klimatyzacji czy systemów zasilania gwarantowanego (UPS-ów) szczególnie w okresie trwania gwarancji musi być prowadzony za pośrednictwem autoryzowanego serwisu. Firma świadcząca kompleksowy serwis centrum danych powinna mieć podpisaną umowę z takim serwisem, jeśli sama nie jest autoryzowana. Rozpoczynając współpracę można poprosić o możliwość wglądu do dokumentów lub nawet uzyskać potwierdzenie spełniania zawartych w umowach warunków przez wskazanego podwykonawcę. Zakres i różnorodność instalacji w centrach danych jest tak duży, że jest trudne (ale możliwe) aby jedna firma tylko i wyłącznie swoimi siłami świadczyła pełen zakres usług. Konieczna jest w tym wypadku duża wiedza na temat wszystkich systemów, organizowania serwisów, przeprowadzania przeglądów i zapobiegania awariom, dlatego też  jest to najskuteczniejsze zapewnienie bezpieczeństwa funkcjonowania centrum danych.

Serwis serwerowni z odpowiednią umową oraz sprecyzowanymi parametrami SLA jest niemalże koniecznością dla każdego poważnego centrum danych. Ustalanie warunków w niej zapisanych powinno być przeprowadzone rozsądnie i zgodnie z realnymi warunkami. Dla nowo projektowanych obiektów można zwiększyć nadmiarowość i niezawodność instalacji jeszcze przed realizacją tak aby zmniejszyć koszty utrzymania. Dla istniejących systemów należy mądrze przeanalizować sprawę i wykonać wspomniany bilans ewentualnych strat. Po ustaleniu warunków i podpisaniu umowy można już odetchnąć z ulgą i bezpiecznie korzystać z uroków i możliwości jakie zapewniają nam serwerownie i centra danych.

Dlaczego projekt serwerowni jest kluczowym etapem całego procesu realizacji centrum danych? Postaram się to wyjaśnić w niniejszym artykule.

W pewnym momencie funkcjonowania firmy okazuje się, że niewielkie pomieszczenie lub biuro, które wcześniej było idealne dla utrzymania kilku serwerów staje się za małe i nie zapewnia podstawowych warunków dla pracy większej ilości sprzętu. W innej firmie- system IT może na tyle się rozrosnąć, że nawet najlepiej wykonana serwerownia po prostu nie ma możliwości fizycznych na przyjęcie kolejnych urządzeń.

Jak się zabrać za podobny problem? Kto powinien się tym zająć? Komu zlecić projekt? Komu wykonanie? Jak ocenić prawidłowość poszczególnych kroków? Jak ogarnąć całość? Jak sprawdzić poprawność działania systemów?

Zgodnie z tym, co napisałem w dziale "Praktyka", można wyróżniamy cztery podstawowe fazy budowy serwerowni lub centrum danych:

1. Przygotowanie do projektowania, na co może się składać wykonanie:

2. Projektowanie, czyli wykonanie:

3. Realizację (budowa).

4. Serwis i utrzymanie.

Na etapie sporządzania projektu serwerowni (projektowani) podejmowane są najważniejsze decyzje, które mają ogromny wpływ na kolejne fazy oraz wszystkie aspekty i całościowy bilans budowy serwerowni lub centrum danych. Działa tutaj zasada kaskadowa i błędy popełnione w pierwszym etapie powielają się i zwiększają problemy oraz koszty w dalszych fazach.

_MG_0181
Projekt powinien przewidzieć wszelkie elementy serwerowni. Zmiany po wybudowaniu są znacznie bardziej kosztowne i trudne.Last.fm / Foter / CC BY-SA

 

Dlaczego projekt jest kluczowy?

W serwerowni znajduje się wiele instalacji różnych branż (m.in. elektryczna, klimatyzacji, systemów bezpieczeństwa, przeciwpożarowa, budowlana), z których do dyspozycji mamy po kilka rozwiązań, proponowanych przez konkurencyjne firmy. Wszystkie - mniej lub bardziej różnią się między sobą pod względem kosztów utrzymania, wydajności, niezawodności, warunków serwisu, sposobu instalacji, skuteczności działania itp.

Dla przykładu - dwa urządzenia, które działają identycznie pobierają różną ilość prądu. Biorąc pod uwagę średni czas życia serwerowni (10-15 lat) oraz mnogość instalacji i systemów daje to ogromne oszczędności albo dodatkowe koszty utrzymania serwerowni, co często przekracza koszt samej realizacji (budowy). W przypadku aspektu wydajnościowego jest podobnie. Urządzenia o zbliżonej cenie mogą przynosić różne efekty. Nie zapominajmy o niezawodności, ponieważ niektóre sprzęty statystycznie częściej ulegają uszkodzeniu od innych. Warunki serwisu określą nam, na jakiej zasadzie odbywa się naprawa. Koszt serwisu wchodzi w koszt utrzymania. Każdy system w serwerowni wymaga serwisowania dla zachowania warunków gwarancji i przede wszystkim sprawności. Kilka przeglądów w roku, razy koszt jednostkowy, razy liczba lat eksploatacji systemu, równa się duży koszt i duże różnice dla różnych rozwiązań.

Wielkim wyzwaniem jest pozornie łatwe do wykonania architektoniczne zaaranżowanie pomieszczenia. Tymczasem błędy projektowe mogą mieć różnego rodzaju poważne konsekwencje - np. niemożność wstawienia kolejnej szafy, UPS-a czy klimatyzatora, podczas gdy przy innym ustawieniu widać, że nie byłoby z tym najmniejszego problemu. Podczas aranżacji, która jest kluczowa, należy wziąć pod uwagę wszystkie instalacje i systemy tak, aby razem pozostawały ze sobą w harmonii.

Wielu architektów projektując np. budynki biurowe, gdzie większość najemców potrzebuje profesjonalnych miejsc na zainstalowanie sprzętu IT, nie bierze pod uwagę wymagań i parametrów niezbędnych do zapewnienia takiej możliwości. W efekcie pomieszczenie nazwane w projekcie architektonicznym budynku „serwerownią” jest zbyt małe i nieprzemyślane pod względem możliwości wykonania w nim niezbędnych instalacji wchodzących w skład serwerowni. W takim wypadku lepiej nazwać to „pomieszczeniem krosowym” lub „punktem dystrybucyjnym sieci LAN”.

Kilka pytań przed…

Zanim przystąpimy do budowy serwerowni powinniśmy postawić sobie dwa kluczowe pytania: „po co nam serwerownia” oraz „jakie parametry ma zapewnić”. Uwzględnienie w projekcie odpowiedzi na te zagadnienia, świadczy o tym, że projektant miał cały czas na uwadze właściwy cel zadania. Jednocześnie dla kogoś, kto będzie realizował na podstawie tych założeń serwerownię, jasna będzie zasadność zaprojektowanych rozwiązań lub też (dzięki swojemu doświadczeniu) będzie mógł przeanalizować wspólnie z projektantem i inwestorem sensowność ich zastosowania.

- Takie analizy powinny być przeprowadzone na początku drogi i jasno określone w dokumentacji projektowej bo już po uruchomieniu serwerowni mogą doprowadzić do niemiłych wniosków i kosztownych modernizacji. Niestety czasami w praktyce brak jest informacji o celach. Projekt sprawia wrażenie jakby był oderwany od realnych potrzeb użytkownika, a cały proces realizacji serwerowni może doprowadzić do niewłaściwego efekt.

W jakim celu planujemy budowę serwerowni lub centrum danych?

Projekt serwerowni powinien zawierać w miarę dokładną informację na temat celu, jakim kieruje się inwestor, Może to być np. proste zorganizowanie sieci lokalnej i pewnej liczby serwerów potrzebnych do codziennej pracy firmy, co na etapie ustalania wytycznych do projektu uznano np. jako system mało krytyczny; w innym przypadku serwerownia będzie centrum obliczeniowym dla nowo powstającego systemu informatycznego, na którym będzie się opierał cały biznes firmy a dostęp do niego musi być zagwarantowany przez cały czas (24/7/365), co na etapie ustaleń zakwalifikowano jako system krytyczny. Różne potrzeby wyznaczają różne podejścia do projektowanej infrastruktury.

Jakie parametry ma zapewnić serwerownia?

Wyjaśnienie tej kwestii wynika z informacji zawartych w odpowiedzi na pytanie ”w jakim celu planujemy budowę serwerowni lub centrum danych” i tak samo musi być dokładnie sprecyzowane w fazie przygotowania do projektowania. Dużą rolą jest tutaj wiedza projektanta lub koordynatora całego procesu budowy serwerowni, ponieważ użytkownik po prostu może nie wiedzieć dokładnie, jak wszystko rozwiązać i tak naprawdę zwrócił się do kogoś, kto ma mu w tym pomóc. Określenie parametrów jest kluczowe dla zapewnienia wysokiej dostępności, niezawodności, bezpieczeństwa, możliwości rozbudowy i wielu innych czynników. Im wyższe wymagania tym większy koszt realizacji inwestycji jednak korzyści dla biznesu są dużo większe. W przypadku systemu mało krytycznego, nie ma sensu inwestować w drogie do zapewnienie parametry, jeśli po prostu nie są one konieczne. Z drugiej strony, dla przypadku systemu krytycznego, nieuwzględnienie takich założeń może mieć różnorodne, negatywne skutki i nie zapewnić spełnienia celu inwestycji.

Fachowiec najważniejszy

Sprzęt serwerowy mocno się zmienia, średnio co 3-4 lata rozsądna jest wymiana na nowszy technologicznie, bardziej wydajny i energooszczędny. Nie oznacza to jednak, że z czasem liczba urządzeń będzie malała, ponieważ zapotrzebowanie na moc obliczeniową stale wzrasta. Wraz z pojawieniem się lepszych sprzętów, zmieniają się także systemy i instalacje serwerowni. Biorąc pod uwagę ich mnogość i liczbę producentów - dysponowanie wiedzą na temat nowoczesnych rozwiązań, czy nowinek technologicznych, wymaga dużego zaangażowania i wielu szkoleń.

Biura projektowe, których głównym celem nie są serwerownie i zajmują się nimi raczej „przy okazji” rzadko kiedy mają możliwość pracować przy zrealizowanym projekcie, nie otrzymują zgłoszeń serwisowych ani informacji zwrotnych od użytkowników na temat poprawności działania zaprojektowanych systemów. Często projekty branżowe nie są ze sobą skoordynowane. W praktyce instalacje mogą być ze sobą niezgrane i wzajemnie się wykluczać.

Firmy, które kompleksowo realizują serwerownie (od projektu po wykonanie i utrzymanie) specjalizują się w tej tematyce i są na bieżąco ze wszystkimi wymaganiami dotyczącymi zagadnień IT. Przydzielają osobę koordynującą całość procesu projektowania i realizacji serwerowni dla utrzymania spójności na każdym etapie. Współpracują również z biurami projektowymi koordynując prace, dając wytyczne dotyczące zastosowanych rozwiązań, analizując ich stosowność dla całego cyklu życia serwerowni. Dużą wagę przywiązują do szkoleń, edukacji i zdobywania informacji na temat najnowszych rozwiązań technologicznych w tematyce. Prowadząc proces budowy serwerowni wyciągają wnioski i poprawiają to, co mogło być wcześniej niewłaściwie dobrane. W okresie serwisowania dostają zgłoszenia i uwagi od użytkowników, dzięki czemu wiedzą, jakie rozwiązania sprawdzają się najlepiej, a jakie nie. Biura projektowe, oderwane od realizacji serwerowni i jej utrzymania, nie mają tego doświadczenia, co sprawia, że konieczność zmian w kolejnych projektach może nie być oczywista. Powierzenie całej inwestycji wyspecjalizowanej firmie już na etapie koncepcji biznesowej jest najbardziej skutecznym podejściem.

Koszt projektu serwerowni to tylko kilka procent wartości realizacji i jeszcze mniej procent całkowitego kosztu posiadania (z j. ang. TCO - Total Cost of Ownership). Projekt ma ogromne i kluczowe znaczenie dla tego wyniku, więc lepiej podejść do sprawy mądrze.

Ochronę przeciwpożarową serwerowni oraz centrów danych realizuje się na dwa sposoby – poprzez wczesną detekcję dymu oraz automatyczne gaszenie pożaru gazowym środkiem gaśniczym (system gaszenia gazem serwerowni), przy czym mogą one istnieć osobno (mniejsza skuteczność) lub stanowić jeden system, zapewniający wysoki poziom bezpieczeństwa i zadziałania. W tym wpisie omawiam systemy gaszenia gazem (SUG). Wspomniałem o nim wcześniej w dziale praktyka.

Butla instalacji SUG ze środkiem gaśniczym w serwerowni
Butla instalacji SUG ze środkiem gaśniczym w serwerowni

Stałe urządzenia gaśnicze oparte o środki gaśnicze HFC227ea (FM®200[1]) lub FK-5-12 (C6F12O, NovecTM1230[2]) składają się z jednej lub wielu butli zawierających środek gaśniczy, zaworów z wyzwalaczami, orurowania oraz dysz. Ilość środka gaśniczego dobierana jest do kubatury pomieszczenia, przy założeniu odpowiedniego bezpiecznego stężenia, określonego przez polskie i europejskie normy. Elementem detekcyjnym oraz sterującym stałe urządzenie gaśnicze jest centrala automatycznego gaszenia, pełniąca również rolę systemu alarmu pożaru (SAP) np. IGNIS 1520M produkcji Polon-Alfa. Centrala posiada dwie linie detekcyjne, do których podłączone są czujki pożarowe, umieszczone we wszystkich strefach serwerowni – pod podłogą technologiczną, nad sufitem podwieszanym oraz przestrzeni głównej pomieszczenia. Linie działają w trybie koincydencji, co oznacza, że wysterowanie uruchomienia procedury gaszenia następuje dopiero w momencie wykrycia dymu poprzez czujki z dwóch różnych linii dozorowych. Zapobiega to wyzwoleniu środka gaśniczego w przypadku fałszywego alarmu.

Wykrycie dymu przez jedną z czujek spowoduje wywołanie alarmu I stopnia i uruchomienie sygnalizacji wizualno-optycznej. W tym momencie użytkownik może podejść do serwerowni i sprawdzić co spowodowało uruchomienie systemu pożarowego. Jeśli dym zostanie wykryty przez przynajmniej dwie czujki, ale pochodzące z różnych linii dozorowych, nastąpi wywołanie alarmu II stopnia i rozpocznie się procedura gaszenia, która poprzedzona będzie sygnalizacją optyczną plafonów znajdujących się nad wejściem i wyjściem z serwerowni, informujących o nakazie opuszczenia pomieszczenia oraz zakazie wchodzenia do jego wnętrza. Po upływie określonego czasu nastąpi wyzwolenie środka gaśniczego i ugaszenie zarzewia pożaru.

Aby zarzewie pożaru zostało skutecznie ugaszone, środek gaśniczy powinien utrzymywać się w pomieszczeniu przez przynajmniej 10 min. (tzw. czas retencji), dlatego też, bardzo ważne jest zapewnienie na etapie wykonywania serwerowni odpowiedniej szczelności pomieszczenia oraz skoordynowanie pozostałych systemów (np. wentylacji, klimatyzacji, zasilania) w celu ich odpowiedniego zadziałania w czasie procedury gaszenia. Szczelność pomieszczenia badana jest przed oddaniem systemu do użytkowania poprzez wykonanie pomiarów (tzw. Door Fan Test), których zadaniem jest potwierdzenie, czy spełniony jest warunek utrzymywania się odpowiedniego ciśnienia przez określony czas w chronionym pomieszczeniu.

Ze względu na znaczny wzrost ciśnienia w czasie wyzwolenia środka gaśniczego, pomieszczenie serwerowni wyposażane jest w klapę odciążającą (dekompresującą), która pozwoli na rozładowanie ciśnienia w pomieszczeniu w momencie wyzwolenia środka gaśniczego. Klapa montowana jest w ścianie zewnętrznej serwerowni i zabezpieczana środkami biernej ochrony przeciwpożarowej.

W serwerowni oraz przed jej wejściem montuje się przyciski, umożliwiające ręczne uruchomienie (START GASZENIA) lub wstrzymanie (STOP GASZENIA) akcji gaśniczej.

W celu określenia wymaganej ilości środka gaśniczego, oraz odpowiedniej ilości i umiejscowienia dysz, orurowania, czujek pożarowych oraz procedur działania podczas wystąpienia pożaru, konieczne jest wykonanie projektu wykonawczego instalacji automatycznego gaszenia (SUG/SAP), zatwierdzonego przez rzeczoznawcę ds. ppoż.

Podsumowując, systemy automatycznego gaszenia, oparte o gazowe środki gaśnicze (systemy gaszenia gazem serwerowni), zapewniają wysoką skuteczność gaszenia, bezpieczeństwo przebywających w pomieszczeniu osób oraz brak jakichkolwiek zanieczyszczeń czy zniszczeń sprzętu IT i samego pomieszczenia, powstających w wyniku działania konwencjonalnych systemów gaśniczych (gaszenie wodą, gaśnicami proszkowymi, itp.).

-------------------------------

[1] FM®200 jest nazwą handlową środka C3HF7 (HFC227ea wg ISO) spółki DuPontTM
[2] NovecTM1230 jest nazwą handlową środka C6F12O  (FK-5-12 wg ASHRAE) spółki 3M

Chłodzenie w centrach danych jest podstawą ich sprawnego funkcjonowania. Wysoka temperatura zwiększa bowiem ryzyko awarii, co wiąże się z ewentualną utratą danych. Obecnie rozwój branży IT jest nierozerwalnie związany z coraz większym wykorzystaniem energii elektrycznej, a wpływ jaki ma na środowisko naturalne, jest jednym z najbardziej komentowanych zagadnień ostatnich lat. Proekologiczne rozwiązania stosowane w serwerowniach i centrach danych, to już nie tylko trend, ale sposób na duże oszczędności i stworzenie obiektu przyjaznego środowisku. Rosnące zużycie energii oraz wzrost jej cen powoduje, że utrzymanie centrów danych drożeje. Zapewnienie optymalnej temperatury w serwerowni ma kluczowe znaczenie dla kosztów utrzymania obiektu. Poniżej przedstawiam kilka podstawowych kroków do zmniejszenia związanych z tym kosztów.

Krok pierwszy - pomiar i analiza zużycia energii elektrycznej

Pierwszym krokiem do zminimalizowania kosztów jest pomiar i ocena zużycia energii, potrzebnej do funkcjonowania całego obiektu. Do oceny efektywności energetycznej centrum danych można posłużyć się wskaźnikiem PUE (z j. ang. Power Usage Effectiveness). Jest to iloraz mocy pobieranej przez wyposażenie zainstalowane w centrum danych, oraz moc potrzebną do funkcjonowania sprzętu IT (serwery, przełączniki, pamięci masowe i inne urządzenia). Współczynnik będzie tym bardziej korzystny, im bliższy będzie wartości 1. Metoda ta pozwala określić ile energii przypada na działanie wyposażenia, a ile na urządzenia IT. By uzyskać rzeczywiste wyniki, warto przeprowadzać to badanie przez cały rok.

Krok drugi - optymalizacja przepływu powietrza

Przykład modularnej zabudowy strefy chłodu wykonanej w istniejącej serwerowni
Przykład modularnej zabudowy strefy chłodu wykonanej w istniejącej serwerowni

Właściwy przepływ powietrza jest konieczny, by utrzymać odpowiednią temperaturę w serwerowni. Wzrastająca wydajność obliczeniowa sprzętu generuje większe ilości gorącego powietrza, które należy w sposób odpowiedni odprowadzać. Jednym z problemów jest powstawanie tzw. gorących punktów (z j. ang. host spot), czyli miejsc, w których kumuluje się duża ilość ciepła. Inną przyczyną, która istotnie wpływa na pracę centrum danych i większy pobór energii elektrycznej, jest mieszanie się gorącego powietrza z chłodnym. Często zdarza się to, kiedy w szafie rack są puste miejsca, przez które ucieka powietrze. Rozwiązaniem może być wówczas zamontowanie w szafach paneli maskujących i oddzielenie fizyczne stref chłodu i ciepła. W charakteryzacji przepływu powietrza w serwerowni (szczególnie na etapie projektowania) pomoże zastosowanie modelowania obiegu  powietrza, do którego wykorzystuje się programy komputerowe typu CFD (z j. ang. Computational Fluid Dynamics).

Krok trzeci - zwiększenie temperatury wewnątrz serwerowni

Sposobem na obniżenie kosztów związanych z eksploatacją serwerowni jest również podwyższenie temperatury w strefach zimnych pomiędzy szafami IT w serwerowni. Serwery mogą bezpiecznie pracować w temperaturze nawet 27 stopni Celcjusza, co potwierdzone jest przez specjalistyczne instytucje i producentów sprzętu.

Krok czwarty -  wykorzystanie energooszczędnego sposobu chłodzenia

Sprzyjające warunki atmosferyczne wykorzystuje się również do schłodzenia serwerowni za pomocą systemów oszczędnego chłodzenia (tzw. free cooling). Dzięki tej metodzie możemy odprowadzić ciepło bez użycia sprężarek chłodniczych, wykorzystując jedynie niską temperaturę na zewnątrz. W naszych warunkach klimatycznych sprawdza się z powodzeniem, bo free cooling może pracować nawet przez kilka miesięcy w ciągu roku. Dzięki temu znacznie wpływa na zmniejszenie poboru prądu.

Wymienione tutaj sposoby optymalizacji chłodzenia serwerowni i idącej za tym redukcji kosztów utrzymania centrum danych nie wyczerpują zagadnienia. Część z nich jest bardzo łatwa i niedroga do wykonania w już istniejącej serwerowni (zwiększenie temperatury w serwerowni, separacja stref chłodu i ciepła, zastosowanie paneli maskujących w szafach serwerowych), natomiast zastosowanie free coolingu wymaga już sporych nakładów finansowych i wykonania prac instalacyjnych.