Data center - budować swoje czy wynajmować? Takie pytanie zadaje sobie wiele firm na różnych etapach swojej działalności. Budowanie firmy to długi proces, który z reguły zaczyna się od małych zasobów i w perspektywie czasu prowadzi do ich znacznego wzrostu. Odpowiedź na to pytanie była łatwiejsza dla organizacji powstających w niedalekiej przeszłości, niż dla tych, które powstawały w czasach kiedy usługi kolokacji jeszcze nie istniały, a o Cloudzie (w rozumieniu zdalnej mocy obliczeniowej) jeszcze nikt nie myślał w taki sposób jak teraz - jeśli w ogóle takie pytanie się pojawiało. Te firmy po prostu nie miały takiej opcji.

Profesjonalne data center jest budynkiem lub jego częścią, która składa się z serwerowni oraz obszarów wspierających funkcjonalność całego obiektu. Obrazowo rzecz ujmując, centrum danych składa się z pomieszczenia serwerowni, w którym utrzymywany jest cały sprzęt serwerowy, z zapewnieniem odpowiednich warunków, oraz z osobnych pomieszczeń technicznych takich jak UPS-ownia, pomieszczenie dystrybucji energii, techniczne, telekomunikacyjne, operacyjne dla obsługi czy dystrybucji chłodu. Ten funkcjonalny podział pomieszczeń ma na celu zwiększenie niezawodności, uproszczenie serwisowania, zapewnienie bezpieczeństwa i wiele innych ułatwień, które są konieczne, aby całość działała bez zarzutu.

centrum-przetwarzania-danych-serwerownia

Budowa takiego centrum danych to duże i kosztowne wyzwanie, często wykraczające poza własne potrzeby i możliwości finansowe. Dlatego duża większość firm, jeśli już decyduje się na własne data center, to wykonuje je w wersji samodzielnej serwerowni, czyli jednego pomieszczenia, w którym zorganizowane są wszystkie elementy infrastruktury krytycznej. Takie rozwiązanie nie dorównuje jednak pod kątem dostępności i niezawodności profesjonalnym obiektom data center, jakimi dysponują polscy i zagraniczni usługodawcy.

Jak pokazuje raport Telko Trendy 2016, zdecydowana większość firm posiada własną serwerownię (86%). Oceniam, że znaczna część z nich to pojedyncze pomieszczenia z mniej lub bardziej profesjonalną infrastrukturą fizyczną, zazwyczaj wykonane w pomieszczeniu dystrybucji sieci lokalnej, ponieważ takie rozwiązanie jest dla nich wystarczające. Tylko nieliczne firmy budują na swoje potrzeby profesjonalne centra danych. Zależy to od wielu czynników, z których głównymi są wymagane poziomy dostępności i niezawodności systemów informatycznych w nich utrzymywanych. Dla jednych firm system informatyczny to usprawnienia działania i chwilowa przerwa nie powoduje wielkich strat, dla innych taka sytuacja ma poważne konsekwencje i po prostu nie może mieć miejsca.

Firmy, które powstawały w czasach, kiedy usługi związane z data center i zdalną mocą obliczeniową lub kolokacją nie były jeszcze dostępne, naturalnie organizowały swoją serwerownię. Wraz ze swoim rozwojem potrzeby rosły, co wiązało się z rozbudową zasobów. Stając w obliczu takiej sytuacji w obecnych czasach, sytuacja wydaje się być znacznie łatwiejsza. Zamiast kolejnej rozbudowy, poświęcania czasu i finansów na inwestycje, mogą one po prostu wynająć przestrzeń fizyczną (Kolokacja) w profesjonalnym centrum danych i skupić się na kluczowych kwestiach swojego biznesu.

Nowe firmy, które potrzebują mocy obliczeniowej, mogą w ogóle nie myśleć o swojej serwerowni i wszystkie systemy informatyczne zainstalować na sprzęcie IT usługodawcy, natomiast w miarę wzrostu zapotrzebowania łatwo zwiększać dostępne zasoby, bez konieczności dokonywania inwestycji infrastrukturalnych i sprzętowych (Chmura obliczeniowa).

Zarówno w pierwszym (Kolokacja) jak i drugim przypadku (Chmura obliczeniowa) systemy utrzymywane są w bezpiecznych centrach danych o wysokiej niezawodności i dostępności. Nie ma wątpliwości, że jest to atrakcyjna oferta dla firm mających tego typu potrzeby. Jak jednak można wyczytać w raporcie Telko Trendy 2016, tylko 28% badanych organizacji posiadających własną serwerownie rozważa skorzystanie z usług data center. Czynników mających na to wpływ jest wiele i związane są one zarówno z kwestiami ekonomicznymi jak i fizycznymi.

Z raportu wynika również, że w jednych miastach mniejszy odsetek badanych firm (np. Warszawa, Kraków) posiada własne serwerowni, a w innych (np. Wrocław) większy. Być może jest to związane z dostępnością usług data center w tych miastach, chociaż dokument mówi o tym, że jedynie co czwarty pytany wskazywał na bliskość geograficzną jako czynnik decydujący o wyborze rozwiązania przechowywania systemów.

Zachęcam do lektury raportu, ponieważ przedstawia on wiele innych danych liczbowych oraz wskazuje na czynniki mające wpływ na decyzje związane z możliwością skorzystania z usług data center.

Najpierw temat telekomunikacji (Internet i telefon) - 25% polskich firm zatrudniających powyżej 50 pracowników posiada łącza internetowe o przepustowościach 100 Mb i więcej. Na tej infrastrukturze dynamicznie rozwija się także telefonia VoIP – wynika z raportu Telko Trendy 2016, przygotowanego przez TNS Polska na zlecenie 3S.

Dostęp do światłowodów ma już 66% firm – o 6% więcej niż w ubiegłym roku. 38% z nich stanowią przedsiębiorstwa zatrudniające powyżej 250 osób. Co trzecia firma deklaruje, że zwiększy przepustowość łączy w ciągu roku, a 11 % zmieni przy tym operatora. Zdecydowanie wyróżnia się tu Kraków, gdzie zmianę dostawcy planuje aż 22% badanych. Lokalny dostawca, czy większy telekom – znaczenie będzie miała jakość usług oraz cena:

telko-trendy-wnioski

Badanie wskazuje na powszechność dostępu do szybkiego łącza światłowodowego. A kto go jeszcze nie ma, za chwilę dostanie od największych telekomów. I to dostanie tanio, bo firmy te inwestują mocno w infrastrukturę i stać je na konkurowanie ceną z każdym. Oznacza to duże problemy dla małych operatorów telekomunikacyjnych, którzy budowali swoją pozycję jako jedyny możliwy dostawca szerokopasmowego Internetu, a cena była ich głównym wyróżnikiem rynkowym. Rynek Telco nieuchronnie ewoluuje z rynku infrastruktury w stronę rynku usług i rozwiązań, a dobre know-how w tym zakresie wymaga czasu, pieniędzy i właściwych ludzi. Dlatego każdego, który wierzy w to, że wystarczy dobudować światłowód do Klienta i potem "jakoś to będzie", czekają niebawem trudne czasy – ocenia Piotr Pawłowski, wiceprezes 3S SA.

Badanie Telko Trendy 2016 pokazało również wzrost zainteresowania telefonią VoiP. Korzysta z niej już 38% badanych przedsiębiorstw – to o 5% więcej niż rok temu. Co więcej, potencjał rozwoju tej usługi kształtuje się na poziomie 14%.  Do 34% wzrósł odsetek firm używających e-faxu, a najpopularniejszą usługą dodatkową jest telekonferencja, której używa 37% .

Raport Telko Trendy 2016 został przeprowadzony na grupie 250 firm z Warszawy, Krakowa, Wrocławia, Aglomeracji Śląskiej oraz regionu podkarpackiego. Badanie dotyczyło firm zatrudniających min. 50 pracowników, korzystających z rozwiązań telekomunikacyjnych i data center. Rozmówcami TNS Polska byli specjaliści i managerowie odpowiedzialni za decyzje zakupowe w IT.

Telko Trendy można pobrać bezpłatnie ze strony http://www.3s.pl/pl/198,telko-trendy-2016.html

Kilka dni temu, w jednym z ważnych polskich centrów danych (kolokacji) doszło eksplozji systemu gaszenia gazem. Z tego, co podaje portal niebezpiecznik.pl oraz z cytowanej na nim wypowiedzi pracownika kolokacji, doszło do nieplanowanego wyzwolenia środka gaśniczego. Z jakiegoś  powodu, w konsekwencji wprowadzenia zbyt dużego ciśnienia gazu do rur, których zadaniem było rozprowadzenie czynnika gaśniczego po wskazanych pomieszczeniach, nastąpiło ich rozerwanie. Nie doszło natomiast do żadnego wybuchu butli.

Czynnik gaśniczy w butlach, omawianego systemu gaszenia gazem, przechowywany jest pod bardzo wysokim ciśnieniem, znacznie przewyższającym wytrzymałość instalacji rurowej. Zadaniem reduktora ciśnienia jest odpowiednie dozowanie ilości uwalnianego środka, aby nie doprowadzić do ich rozerwania. Być może właśnie wada tego elementu doprowadziła kilka pomieszczeń do stanu widocznego na zamieszczonych zdjęciach.

Co najważniejsze z punktu widzenia data center uszkodzeniu uległ częściowo sprzęt IT oraz hostowane na nim usługi. Nikomu nic się nie stało, dzięki temu, że w pomieszczeniach nikogo nie było.

Jak się okazuje, systemy bezpieczeństwa to również dodatkowy czynnik niebezpieczeństwa...

 

awaria systemu gaszenia gazem

 

wybuch systemu gaszenia gazem

 

data center gaszenie gazem awaria

 

eksplozja systemu gaszenia gazem serwerowni

 

serwerownia awaria systemu gaśniczego

Źródło zdjęć: https://niebezpiecznik.pl/post/wybuch-gazu-w-serwerowni-netii/

Nastąpiła również ewakuacja pracowników budynku. Na szczęście staż pożarna nie użyła wody...

straż pożarna data center

Źródło zdjęcia: http://tvnwarszawa.tvn24.pl/informacje,news,ewakuacja-na-ursynowie-awaria-systemu-przeciwpozarowego,206317.html#!prettyPhoto

Każdy, kto zarządza serwerownią lub całym centrum danych wie, że największym kosztem utrzymania jest koszt prądu. Najwięcej prądu - na co nie mamy zbyt dużego wpływu - zużywa sprzęt IT. Drugim w kolejności jest system chłodzenia serwerowni i data center - tutaj mamy już wpływ. Jak to zrobić? Np. zwiększając temperaturę jaka ma być utrzymana wewnątrz pomieszczenia, lub zmieniając konfigurację współpracy całego układu chłodzenia.

Ponieważ w sieci jest dostępny bardzo fajny przykład testów serwerowni udostępniony przez zespół Onet Data Center, to po prostu podaję link i zapraszam do poczytania.

Dodam tylko, że przekładając na pieniądze wyliczone oszczędności prądu (podane artykule w MWh, uśredniając koszt MWh do około 400-500 pln) dają ogromne sumy. I tak dla drugiej fazy testów oszczędność wynosiłaby nawet 40 000 - 50 000 pln rocznie, natomiast dla trzeciej 60 000 - 75 000 pln rocznie.

Myślę, że warto wykonać takie ćwiczenie w swoim centrum danych. Oczywiście musimy mieć na uwadze cały czas (jak zauważa słusznie autor badania) bezpieczeństwo i niezawodność data center.

OpenStack jest otwartym oprogramowaniem umożliwiającym kontrolowanie dużych zasobów obliczeniowych (serwery, storage) i sieciowych znajdujących się w centrum danych i tworzących razem chmurę obliczeniową. Zarządzanie odbywa się za pomocą panelu obsługi (dashboard) lub interfejsu programistycznego aplikacji (OpenStack API). I co najważniejsze - oprogramowanie jest darmowe.

Chmura obliczeniowa zbudowana jest z wielu serwerów, macierzy dyskowych, urządzeń sieciowych itp. Wszystko to znajduje się zazwyczaj w profesjonalnej serwerowni w centrum danych. Tak duża ilość sprzętu obliczeniowego, który ma ze sobą ściśle współpracować, dzielić zasoby i tworzyć jednolitą strukturę clouda jest nie lada wyzwaniem dla administratorów.

Zadaniem chmury jest połączenie i udostępnianie wszystkich dostępnych zasobów obliczeniowych i przydzielanie ich na żądanie dla konkretnych instancji (podsystemów, logicznych fragmentów mocy obliczeniowej - wirtualnych serwerów, macierzy lub ich zbiorów). Idąc od podstaw, budując clouda najpierw jest serwer i przydzielone mu zasoby dyskowe. W tym przypadku wystarczy nam oprogramowanie do wirtualizacji (np. Microsoft Hyper-V, VMwaer vSphere czu Cytrix XenServer)  i możemy przydzielać zasoby według uznania (np. utworzyć na nim 4 wirtualne maszyny, każda z innym systemem operacyjnym i inną funkcjonalnością). Problem zaczyna się komplikować kiedy zamiast jednego będziemy mieli już wiele serwerów, wiele macierzy i kilka urządzeń sieciowych i zechcemy wszystko połączyć w jeden duży zasób obliczeniowy. Jeszcze trudniej będzie, kiedy urządzenia będą pochodziły od różnych producentów i do tego zastosujemy różne rozwiązanie wirtualizacyjne. Może się wtedy okazać, że zarządzanie całością i łączenie w jedną spójną chmurę obliczeniową będzie bardzo trudne.

openstackTutaj właśnie może nam pomóc oprogramowanie OpenStack, którego funkcjonalność pozwala na połączenie wszystkich zasobów obliczeniowych (różnych producentów, różnych technologii) centrum danych w jedną całość (chmurę obliczeniową), którą można w miarę łatwo zarządzać. Oprogramowanie poprzez panel obsługi pozwala na tworzenie w obrębie skonfigurowanego i połączonego zasobu wirtualne maszyny, wykonywać ich kopie czy zarządzać użytkownikami.

Jak można wyczytać na stronie OpenStack.org wiele firm już wdrożyło to rozwiązanie do zarządzania własną chmurą obliczeniową. W Polsce również możemy znaleźć kilka przykładów. Biorąc pod uwagę młody wiek rozwiązania, wygląda to całkiem dobrze i rokuje jeszcze lepiej.

 

 

Open Compute Project (dosłownie "otwarty projekt obliczeniowy) to przedsięwzięcie inżynierów Facebooka mające na celu opracowanie otwartych i ogólnie dostępnych dla wszystkich standardów budowy centrum danych i jego wyposażenia, które przy najniższych kosztach inwestycji zapewnią najwyższą efektywność energetyczną i moc obliczeniową.

Open CloudServer

Grupa inżynierów Facebooka spędziła ostatnie kilka lata nad sprostaniem zadania - w jak rozbudować swoją infrastrukturę obliczeniową w najbardziej efektywny i ekonomiczny sposób. Pracując najpierw na środowisku testowym stworzyła założenia, które udało się wdrożyć w wybudowanym od podstaw, zgodnie z pierwszymi wytycznymi projektu data center w Prineville w stanie Oregon (USA). Oprócz odpowiednio zaprojektowanego budynku i układu pomieszczeń (co miało na celu stworzenie maksymalnie efektywnego sposobu chłodzenia) obiekt został wyposażony w opracowane przez zespół serwery wykonane z komponentów komputerów PC,  zasilacze UPS, szafy rackowe i system bateryjnego podtrzymania zasilania. Grupa zaczęła wszystkie prace nad projektem od zera, dlatego mógła sobie pozwolić na całkowicie indywidualne podejście do każdego aspektu i zaplanowanie wszystkiego od początku, pomijając wszelkie dostępne, opracowane przez wielkie korporacje informatyczne i infrastrukturalne rozwiązania.

W oparciu o wytyczne OCP powstały już dwa centra danych, jedno - jako pierwsze - wspomniany wyżej obiekt w Prineville w  USA oraz drugi w miejscowości Lulea w Szwecji, który to przedstawiłem tutaj. Krótko tylko przypomnę, że obiekt ten wykorzystuje w 100% zewnętrzne powietrze do chłodzenia całej serwerowni. We wspomnianym wpisie skupiłem się jedynie na kwestii budowy data center. OCP jednak obecnie posiada znacznie większy zakres i przedstawia wytyczne:

Poniżej przedstawiam fragment specyfikacji dotyczącej budowy serwera nazwanego Open CloudServer (zdjęcie powyżej).

Przechwytywanie

Efekt stosowania opisanych w projekcie rozwiązań (na przykładnie centrum danych w Prineville) to redukcja kosztów inwestycji o 24%, kosztów utrzymania o 34% i osiągnięcie rekordowo niskiego wskaźnika PUE na poziomie 1,07 w skali roku.

Zapraszam do analizy tego wyniku w udostępnionej przez Facebook aplikacji wizualizującej zależność PUE od temperatury zewnętrznej oraz wilgotności. Poniżej zrzut ekranu i wyniki przedstawiane przez aplikację w momencie pisania tej treści.

facebook pue

Open Compute Project przez kilka lat swojego istnienia mocno się rozwiną i obecnie jest to już zestaw wielu dokumentów i specyfikacji, których samo przeczytanie wymaga poświęcenia dużej ilości czasu. Wszelkie informacje i specyfikacje można znaleźć na stronie projektu www.OpenCompute.org.

Moim celem tutaj było jedynie zasygnalizowanie, że istnieje takie przedsięwzięcie, dotyczy wielu aspektów i jest ogólnie dostępne. Czy ktoś z tego zrobi pożytek to już inna sprawa. Chętnie podejmę się takiego zadania jeśli znajdzie się odpowiednio szalony (w pozytywnym tego słowa znaczeniu) inwestor :) .