W ciągu ostatniego miesiąca opublikowaliśmy serię artykułów o nośnikach, które są wykorzystywane do przechowywania danych. Dzisiaj, w ostatniej części cyklu, omówimy zalety i wady chmury, a także wyciągniemy wnioski.
Chmura jako miejsce przechowywania danych
Chmura jest synonimem chmury obliczeniowej, co oznacza, że Internet stanowi furtkę do dostawcy, który oferuje różne produkty i usługi IT jako usługę. Przez ponad dekadę Adobe sprzedawał swoje programy graficzne na płytach DVD lub w formie pliku do pobrania, który użytkownik musiał zakupić i zainstalować na komputerze. Kilka lat temu firma zmieniła sposób sprzedaży swoich narzędzi. Teraz wystarczy zainstalować na urządzeniu niewielkie oprogramowanie, podczas gdy właściwa aplikacja jest hostowana i uruchamiana w centrum danych Adobe. Microsoft również zastosował takie rozwiązanie w przypadku Office 365. Jedną z pierwszych firm, która skorzystała z omawianej koncepcji była firma salesforce.com, która po raz pierwszy zaoferowała swoje w pełni internetowe oprogramowanie (CRM) w 1999 roku.
Z przechowywania danych w chmurze mogą korzystać zarówno przedsiębiorstwa, jak i użytkownicy domowi. Dane są przechowywane, zarządzane, archiwizowane zdalnie i udostępniane użytkownikom za pośrednictwem Internetu. Zazwyczaj dostawcy usług chmurowych pobierają od użytkowników opłaty miesięczne (jeżeli miejsce, które oferują za darmo, jest niewystarczające). Mimo że koszt jednego gigabajta drastycznie spadł w ciągu kilku ostatnich lat, wielu usługodawców nalicza dodatkowe koszty związane z kosztami operacyjnymi.
Korzystanie z chmury do przechowywania danych może być bardzo korzystne dla firm i użytkowników indywidualnych. Jednak warto zauważyć, że ta metoda nie jest dobrym pomysłem w przypadku magazynowania ogromnych ilości danych.
Problemy z wykorzystaniem chmury do długookresowej archiwizacji
Głównym problemem jest przesłanie wszystkich danych w obie strony za pośrednictwem Internetu (mowa o całych archiwach danych). W większości przypadków łącze wciąż jest zbyt wolne, a operacja może zająć bardzo dużo czasu (dni, tygodnie, a nawet miesiące). Dlatego też więksi dostawcy oferują inne rozwiązania, które mają służyć sprawnemu transferowi archiwów do centrum danych. Korzystają z ogromnych serwerów mobilnych, szybkich przełączników sieciowych i kabli do kopiowania danych na swoje serwery na miejscu. Po ich przeniesieniu transportują urządzenie do centrum danych i ponownie kopiują na tamtejsze systemy. Często jednak taka możliwość jest wykorzystywana w celu przekazania danych do datacenter, ale nie w celu ich ponownego odzyskania. Usunięcie zarchiwizowanych danych jest i będzie za kilka lat kosztownym i czasochłonnym zadaniem.
Innym wyzwaniem może być także wyciek danych. Nawet jeżeli dostawcy są wiarygodni w zakresie bezpieczeństwa, to należy pamiętać, że centra danych są zarządzane przez ludzi – a ludzie popełniają błędy. Więc nawet, gdy oferują oni umowy gwarantujące pełne bezpieczeństwo, zawsze może pojawić się pewien wyjątek od reguły.
To samo dotyczy możliwości dostępu do usługi. Dostawcy oferują dostępność na poziomie 99,8%, jednak nie oznacza to, że uzyskanie dostępu do swoich danych będzie możliwe cały czas. Jak w każdym datacenter, serwery mogą ulec awarii na skutek błędu człowieka, awarii oprogramowania lub sprzętu. Wówczas nie będzie możliwe dotarcie do swoich archiwów przez długi czas. Taka sytuacja miała miejsce w 2015 roku, kiedy klienci Google mieli problem z dostępem do danych w chmurze przez 70 minut. O ile „zwykły” użytkownik może nie mieć z tym problemu, to co się stanie w sytuacji, kiedy przedsiębiorstwo jest prawnie zobowiązane do przeszukania zarchiwizowanych plików np. z powodu trwającego procesu sądowego? Nie wspominając już o wyciekach… W ciągu ostatnich kilku lat w centrach danych doszło do wielu wycieków. Nie są one odporne na ataki cyberprzestępców, a jeżeli taka sytuacja miała miejsce, to może się zdarzyć, że poufne dane firmowe zostaną ujawnione.
Chmura a utrata danych
Pojawia się tutaj jeszcze jeden problem. W przypadku utraty danych, która nastąpiła z winy użytkownika, ich odzyskanie może być prawdziwym wyzwaniem. Jeżeli sam usługodawca nie będzie w stanie odzyskać plików, może skontaktować się z firmą zajmującą się profesjonalnym odzyskiwaniem danych. Jednak takie serwery przeważnie przechowują również pliki innych klientów. I w tym przypadku wielu dostawców usług chmurowych może nie pozwolić na pracę specjalistów ds. odzyskiwania danych, gdyż są zobowiązani do zachowania bezpieczeństwa danych innych klientów. W rezultacie odzyskanie plików może nie być możliwe, podczas gdy z technicznego punktu widzenia nie ma ku temu przeszkód.
Magazyny chmurowe to nowa metoda przechowywania danych. Nie ma gwarancji, że dostawca usługi będzie działać na rynku za 10, 20 lub więcej lat. Zdarzały się już przypadki, w których klienci byli zmuszeni do wykasowania swoich danych w bardzo krótkim czasie z powodu zmian w polityce dostawców. Co zrobić, jeżeli usługodawca zbankrutuje? Wciąż istnieje wiele scenariuszy, które są całkiem realne i stanowią zagrożenie dla długotrwałego archiwizowania danych w chmurze.
Wnioski – który nośnik wybrać?
Każdy nośnik ma swoje wady i zalety. Niektóre magazyny danych są tańsze od innych, ale mają krótką żywotność. Inne z kolei są drogie, ale mogą zapewnić dostęp do archiwów przez dłuższy czas.
Naszym faworytem w kwestii długoterminowego przechowywania danych jest taśma. Ma najdłuższą żywotność spośród wszystkich innych opisanych przez nas nośników, nadaje się do użytku przez co najmniej 30 lat. Pozostałe mogą natomiast działać przez 5-10 lat, a nawet krócej i nie są wystarczająco niezawodne. Co więcej, napędy taśmowe stały się znacznie szybsze, mimo że wciąż zapisują dane w sposób liniowy, a ich pojemność na przestrzeni lat zdecydowanie wzrosła. Wraz z wprowadzeniem technologii LTFS (Linear Tape File System) dla LTO 5 i nowszych, taśmy mogą być używane jako zewnętrzny dysk twardy, co jeszcze bardziej ułatwia przechowywanie i dostęp do plików.
Mądrze jest jednak planować z wyprzedzeniem, kiedy do archiwizacji użyjemy taśm. Po pierwsze, trzeba je regularnie sprawdzać pod kątem działania. Po drugie, napędy powinny być czyszczone dość często, aby zapobiec mechanicznemu zużyciu. I mimo że taśmy mogą być przechowywane przez długi czas, to należy rozważyć migrację starszych formatów do nowszej wersji LTO po około 5-6 latach. Dzięki temu można mieć pewność, że dostęp do archiwów będzie możliwy po wielu latach.