INFOTEL

Mimo wielu oczywistych korzyści, zarówno ekonomicznych, jak i technologicznych, płynących z przetwarzania w chmurze, wciąż niewiele przedsiębiorstw decyduje się na jego wdrożenie. Kolejne badania potwierdzają, że dla dyrekcji wyższego szczebla największym problemem jest bezpieczeństwo. Dyrektorzy obawiają się, że przekazanie danych i serwerów firmy do zewnętrznego centrum przetwarzania danych obniży bezpieczeństwo informacji, utrudni dostęp do nich, ich kontrolę, rejestrowanie i audyt.

Ostatnio w kontekście przetwarzania w chmurze mówi się dużo o deperymetryzacji. Termin ten, zaproponowany po raz pierwszy przez stowarzyszenie Jericho Forum, oznacza usunięcie tradycyjnych granic sieci oraz zastosowanie technologii warstwowych na poziomie danych, protokołu i systemów w celu zabezpieczenia aktywów cyfrowych. Być może bardziej trafne byłoby określenie „reperymetryzacja”, ponieważ bezpieczna granica sieci nie znika ani w środowisku zwirtualizowanym, gdzie maszyny wirtualne o różnym poziomie bezpieczeństwa działają pod nadzorem wspólnego hiperwizora, ani w środowisku chmury, którego używa równocześnie wielu użytkowników. Istnieje nadal, ale ma inną naturę. Wdrożenie przetwarzania w chmurze wymaga nie tylko modyfikacji architektury technicznej, ale również zmiany sposobu funkcjonowania całego działu informatycznego. W dużych przedsiębiorstwach, a nawet u integratorów systemów, projekty technologiczne są realizowane przez wyodrębnione zespoły. Każdy z nich po wykonaniu swojego zadania, takiego jak „stworzenie sieci fizycznej”, przekazuje projekt następnemu zespołowi, który np. projektuje serwery lub zabezpieczenia.

Jak więc funkcjonują środowiska chmury i dlaczego brak ściślejszej współpracy między zespołami jest coraz większym problemem? Wirtualizacja centrum przetwarzania danych, infrastruktura wirtualnych komputerów PC (Virtual Desktop Infrastructure – VDI), współużytkowana pamięć masowa oraz rozwiązania I/P/SaaS mogą zmienić architekturę w większym stopniu niż inne innowacje, które pojawiły się w ciągu ostatnich 15 lat. Nie znika żaden z tradycyjnych problemów doty- czących bezpieczeństwa, choć często muszą być one rozwiązywane w nie- standardowy sposób. Pojawiają się natomiast nowe, w tym – wiele na poziomach architektury, które nie mają odpowiedników w środowiskach fizycznych.

Zapory w środowiskach chmury muszą funkcjonować jako zabezpieczenia na poziomie najniższego wspólnego mianownika. Są skonfigurowane pod kątem najmniej bezpiecznego klienta, a nie pod kątem każdej firmy. Kable, przełączniki, przepustowość, platformy wirtualizacji i sieci pamięci masowej SAN muszą być traktowane jako zasoby współużytkowane, a więc niepewne. Wiele aspektów tradycyjnej infrastruktury przestaje mieć znaczenie w przypadku hiperwizora lub abstrakcyjnej warstwy zwirutalizowanej sieci pamięci masowej. W rezultacie technologie i usługi zabezpieczające stają się często wąskim gardłem wstawionym na siłę w infrastrukturę i utrudniające firmie działalność. Taka sytuacja oczywiście wpływa negatywnie na zaufanie potencjalnych klientów.

Wymuszona separacja zespołów technicznych wskazuje na dużo większy problem: o bezpieczeństwie nadal się nie myśli lub przypomina się o nim z opóźnieniem. W maju tego roku technologiczny gigant HP również zaczął przestrzegać przed takim podejściem. – Uważam, że zabezpieczenia powinny być projektowane na samym początku – powiedział Ian Milton, dyrektor działu programów usługowych HP, mówiąc o wdrażaniu sieci typu smart grid. – Niestety, zaczyna się o nich myśleć za późno. Coraz częściej przypominamy sobie o nich dopiero po rozpoczęciu wdrażania projektu.

W tym nowym, wspaniałym świecie nie wystarczy być specjalistą ds. infrastruktury lub bezpieczeństwa informacji. Nie chodzi o zabezpieczenie infrastruktury, ale o zbudowanie bezpiecznej infrastruktury.

Połączenie systemów i danych firmy z systemami i danymi innych firm, konkurentów, a nawet cyberprzestępców (znany jest przypadek ich działalności w środowisku chmury EC2 firmy Amazon) stwarza wiele dodatkowych problemów. Jak mieć pewność, że uśpiona maszyna wirtualna jest wolna od infekcji i nie jest przestarzała, a jej uruchomienie w trybie online nie stanowi ryzyka? Jak bezpiecznie zarządzać ruchem danych między maszynami wirtualnymi? Ruch między maszynami w obrębie tego samego hiperwizora nie przechodzi przez sieć fizyczną, więc tradycyjne techniki i technologie zabezpieczeń nie wykryją żadnych zagrożeń. Jak radzić sobie z nowymi zagrożeniami, takimi jak szkodliwe oprogramowanie, które może wyjść poza maszynę wirtualną i zaatakować system operacyjny hosta? Jakie środki można zastosować przeciwko atakom wewnętrznym? Jak mieć pewność, że nikt inny nie ma dostępu do naszych danych? Jak systematycznie i skutecznie wdrażać poprawki w środowisku, w którym nie można sobie pozwolić nawet na najmniejsze przestoje?

Aby zabezpieczenie było skuteczne w środowisku chmury, musi być łatwe do wdrożenia, skonfigurowania i kontrolowania na poziomie maszyny wirtualnej. Najskuteczniejsze w tym przypadku są zapory oparte na technologii głębokiej inspekcji pakietów (Deep Packet Inspection — DPI) oraz systemy zapobiegania włamaniom na poziomie aplikacji. Jak wynika z raportu X-Force Trend firmy IBM za 2009 r., dla 67 proc. wszystkich luk odkrytych w aplikacjach internetowych w 2009 r. pod koniec roku wciąż nie było udostępnionych przez producenta poprawek. Równocześnie jednym z najczęstszych ataków stała się iniekcja SQL, która w środowisku chmury grozi uszkodzeniem danych na wielką skalę, a w skrajnych przypadkach może nawet spowodować pobranie szkodliwego kodu. Zapory aplikacji internetowych powinny blokować wszelkie zagrożenia, zanim spowodują one uszkodzenie danych lub serwerów.

Poprawki udostępnione w celu eliminacji luk często trudno jest zainstalować w centrach przetwarzania danych, gdzie przestoje są bardzo niepożądane i trudne do zaplanowania. W wielu przypadkach maszyny wirtualne są wdrażane w środowiskach, w których czas dostępny na instalowanie poprawek jest ograniczony do minimum lub nie ma go wcale. W rezultacie maszyny te są narażone na ataki i zagrożenia pochodzące zarówno ze środowiska hosta, jak i spoza niego. Jest bardzo ważne, aby system mógł działać bez luk nawet wtedy, gdy poprawki nie zostały jeszcze zainstalowane. W rozwiązaniu tego problemu pomaga system zapobiegania włamaniom oparty na hoście oraz wirtualne instalowanie poprawek.

Tradycyjne rozwiązania zabezpieczające do środowisk zwirtualizowanych okazują się nieskuteczne na wielu poziomach. Obciążają one system operacyjny hosta, zwłaszcza gdy trzeba regularnie przeprowadzać zaplanowane skanowanie. Zwykle nie rozpoznają infrastruktur wirtualnych, więc mogą znacznie obniżyć wydajność, skanując równocześnie cały system. Ponadto w większości przypadków rozwiązania zabezpieczające do maszyn wirtualnych nie mogą skanować ani aktualizować maszyn uśpionych. Oznacza to, że gdy maszyny są przełączane w tryb online, ich pliki z wzorcami wirusów mogą już być przestarzałe, co zwiększa ryzyko ataków. Tegoroczne odkrycie luki w zabezpieczeniach systemu VMware, która umożliwiła szkodliwemu oprogramowaniu na zaatakowanej maszynie wirtualnej wykonanie kodu na hoście, z pewnością stanowi duże wyzwanie dla badaczy szkodliwego oprogramowania! Środowisko zwirtualizowane pozwala jednak rozwiązywać problemy w nieco inny sposób. Tradycyjne oprogramowanie zabezpieczające działa w tym samym kontekście co zagrożenie (na przykład agent zabezpieczenia musi być obecny na tej samej maszynie, która może stać się celem ataku). W świecie fizycznym nie ma innej możliwości. Firma VMware przedstawiła niedawno kilka nowych technologii, które umożliwiają projektowanie zabezpieczeń skuteczniejszych w środowisku wirtualnym niż fizycznym. Korzystając z najnowszej wersji rozwiązania VMWare, można wstawić w urządzenie wirtualne mechanizmy zabezpieczające, które są logicznie ograniczone do chronionych maszyn. W takiej architekturze można dodatkowo zwiększyć bezpieczeństwo, wdrażając np. system zapobiegania włamaniom oparty na hoście oraz oprogramowanie antywirusowe działające w czasie rzeczywistym bez potrzeby instalowania agenta lub oprogramowania na chronionej maszynie. W ten sposób nawet jeśli maszyna zostanie uszkodzona, cyberprzestępcy nie mają do niej dostępu i nie mogą złamać mechanizmów zabezpieczających.

Branża zabezpieczeń powinna ułatwiać użytkownikom wdrażanie bardziej ekonomicznego, elastycznego i ekologicznego przetwarzania w chmurze. Chcemy budować technologie, które można ściśle zintegrować z nowym krajobrazem informatycznym przedsiębiorstw, równie dobrze działające w środowiskach fizycznych i wirtualnych w ramach jednej infrastruktury zarządzania, umożliwiające efektywne wdrażanie reguł zabezpieczeń niezależnie od fizycznej lokalizacji serwera. Jeśli przedsiębiorstwa będą myśleć tylko o obniżaniu kosztów operacyjnych i zwiększaniu prężności, pierwszym negatywnym skutkiem może okazać się zmniejszenie skuteczności zabezpieczeń.

Podsumowując, zabezpieczenie środowisk zwirtualizowanych lub środowisk chmury jest w zasadzie proste, pod warunkiem, że nie poświęca się bezpieczeństwa klientów, pracowników i firmy w imię oszczędności. W środowisku chmury rzadko poznaje się swoich sąsiadów. Przestępcy szukają tam ofiar, a nawet sami się tam wprowadzają. Przenosząc swoje systemy do takiego środowiska, należy zabrać ze sobą własne zabezpieczenia. Nie można zadowalać się oferowaną przez usługodawcę ochroną na poziomie najniższego wspólnego mianownika. Aby przekroczyć granicę bezpieczeństwa sieci, wystarczy karta kredytowa...

Autor jest starszym doradcą ds. bezpieczeństwa w firmie Trend Micro