Tym razem prezentuję filmiki zamieszczone przez firmę SoftLayer przedstawiające ich dwa centra danych oraz proces kablowania szaf serwerowych i montażu w nich serwerów. Materiał ten jest bardzo ciekawy ponieważ pokazuje różne części cdata center z wieloma detalami. Ponadto przybliża on idee podziału centrum danych na tzw. POD-y. Żeby nie wrzucać po prostu linku filmów opatrzyłem je swoim komentarzem wyjaśniającym wiele kwestii.

Pierwszy film - centrum danych znajdujące się w Dallas (USA).

Pod filmem zamieściłem mój komentarz, który może wyjaśnić nieco spraw widocznych na filmie.

Zgodnie z tym, co mówi nasz przewodnik centrum to składa się z 4 POD-ów o łącznej pojemności 18 - 20 tysięcy serwerów (5 tysięcy na jeden POD).

Czym jest POD? Jest to wydzielona część centrum danych oraz jego infrastruktura, która jest niezależna od pozostałej części zarówno pod względem lokalizacji fizycznej (inna lub inne części tego samego budynku) jak i zasobów infrastrukturalnych (zasilanie, chłodzenie, przestrzeń serwerowni itp.). Taki podział pozwala na lepsze zarządzanie procesem stopniowego doposażania serwerowni urządzeniami IT (mocą obliczeniową) czy nawet umożliwia wynajęcie jednej części data center konkretnemu klientowi, który nie chce aby ktokolwiek inny przetwarzał i przechowywał swoje dane w tym samym miejscu i w tej samej infrastrukturze. Niestety nie udało mi się znaleźć rozwinięcia skrótu POD. Chyba, że jest to po prostu wyraz "pod" oznaczający strąk...

Analizując materiał po kolei (czas - komentarz):

0:48 -  widok przez szybę na jeden z POD-ów.
1:08 - omawiany jest system kontroli dostępu (karta zbliżeniowa plus odcisk palca).
1:29 - wejście do serwerowni pierwszego POD-a.
1:31 - informacja o tej samej budowie każdego z POD-ów.

1:56 - widok przodu szafy serwerowej wyposażonej w serwery 1U, 2U i 4U. Zauważyć można, że nie wyposażono szaf w drzwi czołowe.

2:32 - widok tyłu szaf oraz okablowania sieciowego serwerowni (dosyć specyficzne podejście stosowane we wszystkich serwerowniach firmy SoftLayer). Każdy serwer wyposażony jest w 5 aktywnych połączeń sieciowych (5 przyłączonych kabli) - 2 połączenia sieci prywatnej, 2 publicznej i 1 na potrzeby zarządzania serwerem. Dla łatwiejszego zarządzania dla każdej sieci stosowany jest inny kolor kabla. Połączenia o przepustowości 1 Gb (2 x 1 Gb dla podwójnych połączeń). Kable doprowadzone są do switchy zamontowanych w tej samej szafie. Również one są redundantne (1+1).

2:59 - listwy zasilające, każda szafa wyposażona jest w dwa zestawy listew, każdy serwer połączony jest dwoma kablami do dwóch różnych listew zasilanych z dwóch różnych źródeł.

3:27 - "remote power panel" - zdalny panel zasilania lub rozdzielnica zdalna (lokalna?). Każdy panel posiada dwa źródła zasilania. Każda szafa jest zasilana podwójnie z panela znajdującego się w danym rzędzie.

3:44 - widok PDU - punktu dystrybucji energii, do którego podłączone są ww. panele zasilania.

4:08 - chłodzenie - "CRACs units" (Computer Room Air Conditioning units - jednostki klimatyzacji serwerowni, jednostki klimatyzacji precyzyjnej). Zgodnie z wypowiedzią przewodnika jednostki dobrane są nadmiarowo i wyłaczenie którejkolwiek nie stanowi zagrożenia dla systemu. Klimatyzacja nawiewa chłodne powietrze pod podłogę podniesioną. Ciepłe zaciąga górą. Dzięki wyposażeniu jednostek w widoczne rękawy (od góry) powietrze zasysane jest z wyższych partii serwerowni. Dostępne są w Internecie badania (np. Google'a), które wykazują znaczącą korzyść takiego rozwiązania w kontekście kosztów utrzymania odpowiedniej temperatury oraz redukcji części mankamentów wynikających z braku zabudowy stref pomiędzy szafami rack.

4:46 - PoP - Point of Presence - pomieszczenie łączności telekomunikacyjnej centrum danych z siecią Internet- niestety ściśle tajne i niedostępne nawet dla VIP-ów...

4:58 - Staging area - powiedzmy, że magazyn. Widzimy w środku duże ilości nowego sprzętu IT gotowego do zainstalowania zgodnie z zapotrzebowaniem klienta.

6:00 - Network Operation Center (NOC) - dosłownie Centrum Operacyjności Sieciowej (jeśli można tak powiedzieć) lub chyba bardziej poprawnie Centrum Zarządzania Siecią. Z wypowiedzi wynika, że jest to jedyny NOC w Dallas (ze strony www.softlayer.com wynika, że w Dallas firma ma 7 centrów danych). Czyli rozwiązano to w taki sposób, że jedno Centrum Zarządzania Siecią wystarczy dla kilku obiektów data center umiejscowionych w niedalekiej odległości. W NOC-u pracują administratorzy, którzy za pomocą zautomatyzowanych mechanizmów kontrolują i zarządzają siecią, urządzeniami i zdarzeniami jakie mają miejsce. Obsługują też zgłoszenia klientów. Technicy dostępni są 24 godziny na dobę.

6:48 - na zewnątrz, w pobliży agregatów chłodniczych i prądotwórczych. Wszystko nadmiarowo . Dla jednego POD-a chłód gwarantują dwa agregaty pracując naprzemiennie. Zasilanie zabezpieczone jest agregatami prądotwórczymi - po jednym na POD, plus jeden nadmiarowy dostępny dla wszystkich POD-ów. Każdy o mocy 2 MW.

Drugi film - centrum danych zlokalizowane w Amsterdamie.

Infrastruktura tego data center jest bardzo podobna do poprzedniego, dlatego nie będę już męczył zbędnymi treściami. Zapraszam do oglądania.

Trzeci film - kablowanie szaf serwerowych.

Bardzo fajny filmik przedstawiający proces ustawiania szaf rack (a raczej samych ram szaf, bo niby po co drzwi i panele boczne - strata kasy i utrudnienia przy zarządzaniu), montowania switchy (zgodnie z powyższym opisem SoftLayer stosuje 5 sztuk na każdą szafę) oraz żmudny i długi czas montażu okablowania. Na szczęście wszystko w przyśpieszonym tempie i z pozytywną muzyczką.

Czwarty filmik - dostawa i montaż serwerów.

Szafy okablowane, infrastruktura gotowa - można montować serwery. Ale najpierw dostawa i wypakowywanie. Dużo kartonów, spore zamówienie, producent urządzeń pewnie świętował kilka dni po takim dealu :)

Piąty filmik - dalsza część montażu serwerów.

Ten film nie wnosi już nic nowego, ale myślę że będzie ciekawy dla chcących więcej.

Podsumowanie

Firma SoftLayer jest globalnym dostawcą mocy obliczeniowej. Posiada obecnie 13 obiektów data center na świecie. Wszystkie są jednak wykonywane według tych samych wytycznych i własnego standardu. Sprawia to, że każdy z nich od środka wygląda bardzo podobnie, a sama serwerownia nawet identycznie. Na pewno przyśpiesza to proces realizacji kolejnych centrów danych oraz łatwość zarządzania. Miło, że SoftLayer udostępnia materiały wideo pokazujące wnętrze data center, co w mojej opinii (oprócz reklamy) stanowi znaczną wartość edukacyjną, szczególnie dla krajów, które jeszcze raczkują w tej tematyce...

Artykuł ten przedstawia opisowy przykład centrum danych z serwerownią o mocy elektrycznej sprzętu IT równej 180 kW zaplanowanym w istniejącym budynku. Obiekt ma znaczenie krytyczne dla funkcjonowania biznesu jego właściciela, dlatego projekt wymagał zastosowania odpowiednio niezawodnych rozwiązań, które pokrótce tutaj opiszę.

Analizowane centrum danych powstało na potrzeby instytucji, dla której system informatyczny jest warunkiem istnienia i każda chwila przestoju niesie za sobą ogromne straty finansowe, dlatego całość musiała zostać tak zaprojektowana, aby można było wykonywać wszelkie prace związane z rozbudową systemu bez konieczności wyłączania elementów systemu. Ponadto ciągłość działania musiała być zapewniona nawet w przypadku długotrwałej awarii elektrowni energetycznej będącej źródłem prądu.

Data center, w tym przypadku, składa się z kilku pomieszczeń funkcjonalnych: UPS-ownia, pomieszczenie dystrybucji energii, pomieszczenie agregatu prądotwórczego, pomieszczenie techniczne oraz najważniejsze – serce układu – serwerownia. Całość została wykonana w istniejącym budynku, którego część została odpowiednio zaadoptowana. Wymagało to wykonania szeregu prac konstrukcyjno-budowlanych, instalacji przyłączy energetycznych i przystosowania sąsiedniego budynku garażowego na potrzeby wytwarzania zasilania rezerwowanego (agregat prądotwórczy).

Główne parametry omawianego centrum danych:

  • Powierzchnia całego centrum danych: około 200 m2
  • Powierzchnia serwerowni: 110m2
  • Moc elektryczna przeznaczona na sprzęt IT: 180 kW
  • Podział gęstości mocy: 2 strefy
  • Zabudowy chłodnych korytarzy
  • Klimatyzacja rzędowa

Aranżacja pomieszczenia serwerowni i UPS-owni  

Ze względu na posiadane przez Inwestora specyficzne macierze dyskowe pomieszczenie serwerowni wymagało podziału na dwie strefy (zabudowy/układu szaf i klimatyzacji), co było ułatwione przez jego kształt. Powierzchnia całkowita wynosiła 110m2. Główna strefa zbudowana z 24 szaf serwerowych o łącznej mocy 130 kW oraz 9 klimatyzatorów rzędowych w układzie N+2 dostarczających stale około 150 kW chłodu. Szafy i klimatyzatory podzielone zostały na dwa rzędy z zabudowaną strefą chłodu pomiędzy nimi (zabudowa stała, wejście do strefy przez drzwi). Tak samo została zorganizowana druga strefa zbudowana z 10 dużych macierzy dyskowych oraz 4 klimatyzatorów rzędowych. Moc elektryczna dla sprzętu IT tej części to 50kW i moc chłodu to 58kW przy założeniu trzech stale działających klimatyzatorów. Ze względu na niestandardowe wymiary szaf macierzowych wykonano zabudowę modularną (elastyczne pasy, bez dedykowanych drzwi). Dokoła szaf wykonano trasy kablowe dedykowane dla okablowania strukturalnego i połączeń sieciowych pomiędzy urządzeniami instalowanymi w szafach. Poniższy rysunek przedstawia rzut pomieszczenia serwerowni w wersji projektowej.

Rzut serwerowni wchodzącej w skład analizowanego centrum danych (węższe szafy to klimatyzatory rzędowe).
Rzut serwerowni wchodzącej w skład analizowanego centrum danych (węższe szafy to klimatyzatory rzędowe).

 

Pomieszczenie UPS-owni o powierzchni 50m2 ma za zadanie utrzymać odpowiednie warunki dla dwóch równoległych układów zasilaczy UPS w konfiguracji N+1 o stale dostępnej mocy 180kW każdy. Zaplanowano w nim klimatyzację precyzyjną typu InRoom chłodzącą całe pomieszczenie.

Instalacje elektryczne

Instalacje elektryczne centrum danych o znaczeniu krytycznym oraz tej wielkości mocy to już ciekawe zagadnienie inżynieryjne. Ogromna ilość odpowiednio dobranych przewodów, zarówno o małych jak i dużych przekrojach, skonfigurowanych i połączonych w odpowiednich konfiguracjach tworzy interesujący system. Do budynku doprowadzono zasilanie redundantne z dwóch niezależnych źródeł. Docelowo zaplanowano zasilanie wszystkich szaf dwutorowo dla zwiększenia niezawodności oraz umożliwienia ewentualnych prac serwisowych jednego z torów zasilania.

Dla kontroli poziomu obciążenia elektrycznego szaf serwerowych oraz ilości mocy dostępnej dla danego obwodu zastosowano analizatory sieci zasilania każdej szafy rack, całego układu klimatyzacji (jednostki wewnętrzne i jednostki zewnętrzne), obwodów zasilania itp. Rozwiązanie takie zapewniło również możliwość pomiaru realnej wartości mocy używanej w danej chwili lub w pewnym okresie przez np. układ klimatyzacji.

Klimatyzacja pomieszczenia serwerowni i UPS-owni

Dla zapewnienia odpowiednich warunków pracy sprzętu IT zastosowano w serwerowni systemy separacji chłodu i ciepła oraz klimatyzację rzędową jako bardziej wydajne i skuteczne oraz mniej stratne, eliminujące wiele dotychczas występujących problemów w serwerowniach rozwiązanie.

Całość chłodzenia serwerowni oparta została o technologię wody lodowej wraz z opcją freecoolingu, która w naszej strefie klimatycznej daje duże oszczędności kosztów jej zasilania przez sporą część roku. Oszczędność ta, dla okresu o temperaturze zewnętrznej poniżej 1oC, będzie wynosiła nawet 100% dla zastosowanych agregatów.

W pomieszczeniu UPS-owni zastosowano trzy szafy precyzyjne chłodzące całe pomieszczenie z nawiewem chłodu pod podłogę techniczną.

Przy projektowaniu systemu chłodzenia serwerowni stale opierano się na symulacjach komputerowych obiegu powietrza przy użyciu programu typu CFD. Więcej o tym napisałem w odrębnym artykule.

System zasilania gwarantowanego oraz rezerwowanego

W pomieszczeniu UPS-owni zainstalowano dwa układy zasilaczy UPS. Każdy układ zbudowany z 4 x UPS 80 kVA pracujących w układzie N+1. Każdy z układów posiada moc wystarczającą do zasilenia wszystkich szaf serwerowych o pełnej mocy czyli około 180 kW. Każda szafa rack została wyposażona w podwójny układ listew PDU z czego jeden zasilany jest z jednego natomiast drugi z drugiego toru UPS-ów. Założono tutaj, że każdy sprzęt serwerowy instalowany w szafach wyposażony będzie w dwa zasilacze. Ze względu na krótki czas rozruchu agregatu prądotwórczego system klimatyzacji nie wymagał podłączenia do zasilania gwarantowanego, co w przeciwnym wypadku miałoby znaczny wpływ na koszt inwestycji. Zasilaniem rezerwowym jest agregat prądotwórczy, który przejmie zasilanie całego centrum danych w krótkim czasie po zaniku dwóch źródeł zasilania obiektu.

Systemy bezpieczeństwa.

  • KD – Kontrola dostępu

System kontroli dostępu ma za zadanie zabezpieczenie pomieszczeń centrum danych przed dostępem osób nieuprawnionych. Dostęp do określonych pomieszczeń kontrolowany jest przez system czytników linii papilarnych, kart zbliżeniowych i kodu PIN. Autoryzacja przebiega dwustronnie (wejście/wyjście). Wszystkie wejścia i wyjścia personelu do pomieszczeń są zapisywane w pamięci systemu.

  • SSWiN – System sygnalizacji włamania i napadu

System SWiN ma za zadanie sygnalizowania każdego przypadku naruszenia zabezpieczeń pomieszczeń centrum danych. Zastosowanymi elementami odpowiedzialnymi za wykrywanie intruzów są czujki dualne zapewniające analizę warunków otoczenia w pełnym zakresie częstotliwości prędkości ruchu pozwalając na wykrywanie intruzów przy równoczesnej eliminacji czynników środowiskowych i wynikających z nich fałszywych alarmów. Czujki ponadto posiadają funkcję „antymaskingu”, która gwarantuje jej ochronę przed niepożądanym zbliżaniem się do niej i próbami jej maskowania w odległości 0,8 m i bliżej.

  • CCTV – System telewizji przemysłowej

System telewizji przemysłowej oparty został o zestaw odpowiednio rozmieszczonych cyfrowych, megapikselowych kamer dookólnych. Całość obrazu (tylko w przypadku wykrycia ruchu) jest rejestrowana na odpowiednim rejestratorze cyfrowym o dużej pojemności, dzięki czemu archiwizowany obraz zapewnia możliwość odtworzenia zdarzeń sprzed wielu miesięcy. Stały podgląd jak i odtwarzanie zarejestrowanego obrazu dostępne są z dowolnej lokalizacji z dostępem do sieci Internet.

System przeciwpożarowy

Serwerownia została zabezpieczona systemem wykrywania pożaru i gaszenia gazem, natomiast pomieszczenie UPS i techniczne tylko systemem wykrywania pożaru. Całość jest kontrolowana przez jedną zaawansowaną centralę ppoż.

Dodatkowo w pomieszczeniu serwerowni zastosowano system bardzo wczesnej detekcji dymu, który dużo wcześniej potrafi wykryć cząstki dymu niż konwencjonalny system wykrywania pożaru reagujący dopiero w momencie sporego nagromadzenia się dymu. Ma to szczególnie znaczenie w serwerowni, gdzie powietrze jest stale mieszane i nagromadzenie się większej ilości dymu dotyczy całej kubatury pomieszczenia. W standardowym systemie czujki wykrywające rozmieszczone są w kilku miejscach. Tutaj natomiast zainstalowana jest sieć rur ssących, przez które stale przetłaczane jest powietrze dzięki pompce ssącej znajdującej się w centrali.

 Szafy sererowe

Dla kompletności i możliwości wykonania zabudowy zastosowano jednolite szafy RACK producenta, który również oferuje systemy zabudowy korytarzy pomiędzy szafami. Dostarczone szafy posiadają wymiary 42U x 800mm x 1100mm, nośność 1000kg. Ze względu na zamykane wejście do zabudowy oraz bezpieczne wejście do serwerowni tylko dla autoryzowanych pracowników, instalację drzwi do każdej z szaf uznano za zbędną. Zasilanie jest realizowane przez cztery listwy (po dwie na stronę) po 20 slotów, o długości 90cm, zainstalowane pionowo z tyłu szaf.Wszystkie wolne miejsca w szafach, gdzie jeszcze nie zainstalowano sprzętu serwerowego, zostały zaślepione panelami maskującymi w celu wyeliminowania efektu mieszania się chłodu z ciepłem oraz uszczelnienia zabudowy. Zastosowane szafy zostały wyposażone we wzmocnione profile, charakteryzujące się dużą obciążalności. Profile te wyposażone są w dodatkowe 3 pola 19” 1U co dało 6 dodatkowych pól 19” 1U pozwalających na montaż dodatkowych urządzeń lub paneli pionowo po bokach szafy.

Trasy kablowe

Trasy podwieszane nad szafami serwerowymi tworzą bardzo funkcjonalne i praktyczne możliwości prowadzenia okablowania pomiędzy sprzętem serwerowo-sieciowym w serwerowni. W bardzo łatwy sposób umożliwiają rozbudowę okablowania w każdym momencie bez otwierania płyt podłogowych i przeciągania po kawałku kabli. Dodatkowo trasy takie tworzą ciekawie wygląd pomieszczenia.

Monitoring warunków środowiskowych i stanu pracy urządzeń (SMS)

Całe centrum danych składała się z dużej ilości urządzeń, systemów i instalacji. Jest bardzo ważne, aby mieć nad tym wszystkim kontrolę, co najmniej na poziomie informacji o stanie. W środowisku tak rozbudowanym awaria bez odpowiednio wczesnego powiadomienia może zakończyć się niebezpiecznie lub w ogóle zostać wykryta po dłuższym czasie. Dlatego też zainstalowano monitoring warunków środowiskowych i stanu pracy urządzeń (SMS –Security Management System). Do systemu podpięte zostały wszystkie urządzenia, które mogą zgłaszać swój stan. Dodatkowo np. na obwodach zasilania zostały zainstalowane specjalne przekaźniki informujące o stanie zabezpieczenia. Analizatory sieci wysyłają dane również do tego systemu. Wszystkie te informacje (około 310 sygnałów dla analizowanego centrum danych) dostępne są za pośrednictwem zainstalowanego Web serwera przez przeglądarkę internetową, a wybrane, uznane za krytyczne, aby natychmiast informowały o zagrożeniu są wysyłane za pomocą wiadomości SMS.

Podsumowanie

Opisywane centrum danych, a w szczególności serwerownia zostały dokładnie przeanalizowane w fazie projektowej. Dzięki użycie modelowania komputerowego wyeliminowano wszelkie możliwe nieefektywności chłodzenia zanim w ogóle system klimatyzacji został wykonany. Dodatkowo zastosowanie zabudowy chłodnych korytarzy pomiędzy szafami serwerowymi w pomieszczeniu serwerowni oraz wykorzystanie technologii feree coolingu zapewni znaczne zmniejszenie kosztów zasilania systemu. Warto też zauważyć fakt, że dobrze przemyślana organizacja systemów, typu i sposobu prowadzenia tras kablowych, rozmieszczenia szaf itp., to duże ułatwienie w codziennej pracy związanej z instalacją i fizyczną obsługą sprzętu serwerowego itp.

Wpis przedstawia proces adaptacji pomieszczenia biurowego na serwerownię (centrum danych) w budynku biurowym, w którym na etapie projektowania nie przewidziano takiego pomieszczenia. Materiał, który tutaj przedstawiam, oparty jest o autentyczną realizację, przy której uczestniczyłem. Jego celem jest ogólne przedstawienie procesu takiej realizacji, co może ułatwić Inwestorowi podjęcie decyzji dotyczących takiego przedsięwzięcia. Przedstawione prace były konieczne dla tego konkretnego przypadku. W każdym innym będą one nieco różne.

Budowana serwerownia ma 50m2, moc 40kVA. Realizację przeprowadzono w 2009 roku.

1

Stan istniejący przed realizacją. Dotychczasowe pomieszczenie serwerowe (przedstawione na fotografii obok) znajdowało się na 3 piętrze budynku. Nie było ono odpowiednio przygotowane do pełnienia swojej roli. Ilość hostowanego sprzętu przerosła możliwości wykonanych wewnątrz, nieprofesjonalnych instalacji.

1. Potrzeba. W związku z powyżej opisanym mankamentem i wynikającym z niego realnym zagrożeniem dla stabilności pracy sprzętu serwerowego oraz planowaną rozbudową systemu IT zaistniała konieczność wybudowania prawdziwej serwerowni spełniającej konkretne wymagania.

2. Wybór odpowiedniego pomieszczenia. W związku faktem, iż w dotychczasowa serwerownia była również głównym punktem dystrybucyjnym sieci komputerowej skupiono się na pomieszczeniach bezpośrednio sąsiadujących z obecnym. Wybrano pomieszczenie o powierzchni 50m2 (fotografia poniżej).

2

3. Przygotowanie koncepcji. Zaproszone do rozmów firmy miały przedstawić swoją koncepcje rozwiązania problemu oraz przedstawienia szacunku kosztowego dla proponowanego rozwiązania (sprzęt, instalacja itp.).

4. Projektowanie. Po wyborze jednej koncepcji zlecono wykonanie dokumentacji wykonawczej. Projektanci z odpowiednimi uprawnieniami wykonali projekty branżowe zgodnie z wytycznymi Prawa Budowlanego. Po zaakceptowaniu projektów przez Inwestora można było przejść do kolejnego etapu.

5. Uzyskanie pozwolenia na budowę. Na etapie projektowania okazało się, że inwestycje będzie wymagała uzyskania pozwolenia na budowę, ponieważ: a) wybrane pomieszczenie było wcześniej pomieszczeniem biurowym natomiast nowe będzie pomieszczeniem technicznym dlatego też zaistniała potrzeba zmiany sposobu użytkowania tego pomieszczenia b) system gaszenie gazem oznaczał zmianę zabezpieczeń ppoż. części budynku i wymagał uzgodnienia z rzeczoznawcą do spraw ppoż. c) w trakcie ekspertyzy konstrukcyjnej okazało się, że strop pod część urządzeń (klimatyzatory) wymaga konstrukcji wsporczej.  Zgłoszony projekt budowlany po paru tygodniach odleżenia w Urzędzie Miasta dostał pozytywną opinię i można było rozpocząć realizację.

46. Prace budowlane. Prace rozpoczęto od całkowitego opróżnienia pomieszczenia. Zdemontowano wykładziny i ścianę, którą projektant zalecił wymienić na nową z odpowiednią odpornością ogniową. Wyniesiono poza pomieszczenie instalację CO tak aby nie dopuścić do niespodziewanego wycieku wody. Wymieniono drzwi na odpowiednio bezpieczne. Po wykonaniu konstrukcji wsporczej pod klimatyzację całe pomieszczenie doprowadzono do czystego i estetycznego efektu, gdzie na 5koniec tego etapu wykonano podłogę techniczną odpowiednio podniesioną zgodnie z zaleceniami projektanta instalacji klimatyzacji. Po pewnym czasie oczekiwania wymieniono okna na odpowiednio bezpieczne oraz oklejono je specjalną folią ograniczającą przenikanie promieni słonecznych oraz odpowiednimi roletami.

87. Instalacja klimatyzacji. Standardowo system klimatyzacji wymagał wyprowadzenia instalacji poza pomieszczenie serwerowni - przez korytarz i świetlik aż na dach budynku. Szafy klimatyzacji dobrano z nawiewem pod podłogę techniczną, dlatego ustawiono je na specjalnie przygotowanych ramach. Wykonano również wymaganą instalację odprowadzenia skroplin oraz doprowadzenia wody bieżącej do nawilżacza wbudowanego w klimatyzator.

6  7
 

8. Instalacje elektryczne. Instalacje elektryczne nie były za bardzo skomplikowane dla tego obiektu. Doprowadzono wewnętrzną linię zasilania do serwerowni z głównej rozdzielni budynkowej znajdującej się w piwnicy. Do pokonania były 3 kondygnacje, wykorzystano istniejący szacht instalacyjny na klatce schodowej. W pomieszczeniu wykonano rozdzielnię serwerowni oraz rozdzielnię UPS. Z trudem wniesiono i zainstalowano zasilacz awaryjny o mocy 40 kVA. Wykonano zasilanie szaf serwerowych.

9  10  11
 

9. System przeciwpożarowy. System przeciwpożarowy zbudowany został z trzech podsystemów. Pierwszy z nich to standardowa sygnalizacja pożaru kontrolowana przez centralkę alarmową, do której podłączono kilka
konwencjonalnych czujek dymu. Drugi to system gaszenia gazem sterowany przez wspomnianą centralkę, 12zbudowany z butli z gazem oraz systemu rur rozprowadzających środek gaśniczy w odpowiednie miejsca. Trzeci - dla zwiększenia bezpieczeństwa - to bardzo szybki system wykrywania dymu i jego charakterystyczne, czerwone rurki oplatające pomieszczenie.

13

 

 

 

 

 

 

10. Instalacje systemów bezpieczeństwa. Dla zapewnienia większego poziomu bezpieczeństwa zaprojektowano i wykonano systemy kontroli dostępu (zwora elektromagnetyczna kontrolowana przez czytnik lini papilarnych), sygnalizacji włamania i napadu (czujki otwarcia drzwi, rozbicia szkła, ruchu itp.) oraz monitoring wizyjny (dwie kamery wewnątrz pomieszczenia i jedna na zewnątrz). Dla zapewnienia zdalnej kontroli warunków środowiskowych oraz kontroli parametrów pracy zainstalowanych urządzeń i systemów wykonano system BMS z interfejsem WWW oraz powiadomieniami SMS.

14 15 16
 

17

11. Migracja sprzętu serwerowego. Kiedy już wszystko uruchomiono i sprawdzono można było rozpocząć proces migracji sprzętu serwerowego ze starego pomieszczenia. Tradycyjnie już tego typu prace musiały być wykonane w weekend, kiedy to system jest mniej używany. Większość sprzętu była na gwarancji producenta, dlatego sprawa wymagała odpowiedniego zgłoszenia i wykupienia nadzoru gwarancyjnego. Wymontowano sprzęt ze starych szaf, wstawiono nowe do nowej serwerowni i zainstalowano w nich sprzęt. Sporo podłączania kabli i wszystko ruszyło. Kilka testów, wyłączenia zasilania, praca klimatyzatorów itp. Efekt końcowy był na tyle ciekawy, że nikt nie chciał iść do domu mimo późnej godziny sobotniej.

12. Zakończenie realizacji. Dla formalnego zakończenia inwestycji po paru dniach dostarczono dokumentację powykonawczą dokładnie odwzorowującą całość wykonanego zadania. Kilka drobnych zmian ustalonych z projktantami zostało odpowiednio naniesionych. Podpisano protokół zakończenia prac i wystawiono fakturę.


19 18