Każda większa firma działa dziś na systemach informatycznych. W banku są to systemy transakcyjne i historia operacji klientów, w sklepie internetowym zamówienia i stany magazynowe, w fabryce – dane z produkcji, a w szpitalu – dokumentacja medyczna. Wszystkie te informacje muszą być gdzieś przechowywane, szybko dostępne i przede wszystkim bezpieczne. Tym właśnie zajmuje się pamięć masowa klasy korporacyjnej, czyli specjalne systemy dyskowe, które działają bez przerwy, często przez lata, i obsługują miliony operacji na sekundę.
Problem w tym, że ilość danych rośnie lawinowo, a wraz z nią rośnie liczba zagrożeń i kosztów utrzymania infrastruktury. Systemy trzeba konfigurować, monitorować, zabezpieczać i optymalizować. W wielu firmach całe zespoły ludzi zajmują się tylko tym, żeby „dyski działały”. Dlatego producenci sprzętu próbują wbudować w tę infrastrukturę sztuczną inteligencję, która przejmie część obowiązków: sama wykryje problemy, zasugeruje zmiany, a czasem nawet je wprowadzi.
IBM prezentuje nową generację systemów pamięci masowej
IBM pokazał nową generację systemów pamięci masowej FlashSystem, które mają być zarządzane wspólnie z agentową sztuczną inteligencją. W dużym skrócie: to nie jest już tylko „pudełko z dyskami”, które przechowuje dane, ale system, który sam obserwuje, co się dzieje, reaguje na problemy i podpowiada, co zrobić dalej.
Według producenta taka architektura może ograniczyć ręczną pracę administratorów nawet o 90%. Brzmi ambitnie, ale trend jest bardzo wyraźny. Danych przybywa w tempie wykładniczym, ataki ransomware są codziennością, a zespoły IT nie rosną w takim tempie, jak liczba systemów i obowiązków.
Nowe portfolio obejmuje trzy modele: FlashSystem 5600, 7600 i 9600. Każdy celuje w inny segment – od średnich firm i oddziałów po duże przedsiębiorstwa i systemy krytyczne jak bankowość centralna czy platformy ERP. Różnią się skalą i wydajnością, ale mają wspólny fundament: sztuczną inteligencję wbudowaną w samą pamięć masową.
Najmocniejszy model, FlashSystem 9600, ma obsługiwać najbardziej wymagające środowiska i według IBM może obniżyć koszty operacyjne nawet o ponad połowę, głównie dzięki konsolidacji zasobów i automatycznemu zarządzaniu. Z kolei mniejsze modele mają przyciągnąć firmy, które potrzebują rozwiązań klasy korporacyjnej, ale w mniejszej skali i z mniejszymi rachunkami za prąd oraz miejsce w serwerowni.
Czytaj też: Gemini będzie sercem Siri. Google wypycha OpenAI z ekosystemu Apple?
Pamięć masowa, która sama wykrywa cyberataki
Najciekawsze jest jednak to, co dzieje się „pod maską”. Nowy moduł FlashCore piątej generacji ma potrafić wykryć atak ransomware w mniej niż minutę. System analizuje operacje na danych w czasie rzeczywistym i szuka anomalii. Jeśli coś wygląda podejrzanie, generuje alert i może uruchomić procedury odzyskiwania danych.
W praktyce oznacza to, że zamiast dowiadywać się o ataku od pracowników, którzy nagle tracą dostęp do plików, system ma szansę zareagować, zanim szkody będą duże. W biznesie często jest tak, że kilka godzin potrafi zadecydować o tym, co będzie dalej – i tu taki system potrafi zrobić kolosalną różnicę.
Drugim ważnym elementem jest FlashSystem.ai, czyli zestaw usług opartych na sztucznej inteligencji. Ma on działać jak cyfrowy współpracownik administratora. System sam analizuje zachowanie aplikacji, dostosowuje ustawienia, proponuje optymalizacje, a nawet generuje dokumentację potrzebną do audytów i kontroli. To akurat może być dla wielu firm bardziej odczuwalne niż sama wydajność. Przygotowanie dokumentacji zgodności często oznacza tygodnie ręcznego zbierania danych i raportów. Jeśli system zrobi to sam, to oszczędność czasu i nerwów jest bardzo konkretna.
IBM podkreśla też, że nowe systemy pozwalają zaoszczędzić od 30% do 75% przestrzeni w serwerowni w porównaniu z poprzednią generacją. A to przekłada się nie tylko na miejsce, ale i na rachunki za energię oraz chłodzenie.
Czytaj też: Co robi analityk kryptowalut? Co to jest blockchain? Wywiad ze specjalistą od kryptowalut!
Czy to już w pełni autonomiczna pamięć masowa?
Jeśli by spojrzeć na to z perspektywy ogólnej, jak na nową technologię, to po prostu kolejny krok w stronę infrastruktury, która sama o siebie dba. Coraz więcej firm wdraża autonomicznych agentów AI w procesach biznesowych, ale te systemy muszą działać na stabilnej i bezpiecznej podstawie. Jeśli infrastruktura nie nadąża, cała reszta traci sens. Dlatego sztuczna inteligencja zaczyna trafiać nie tylko do aplikacji, ale też do samych fundamentów IT: dysków, sieci i serwerów. Pamięć masowa przestaje być biernym magazynem danych, a zaczyna być aktywnym elementem systemu, który sam analizuje, uczy się i reaguje.
Ale czy to już w pełni autonomiczna infrastruktura? Jeszcze nie. Nadal potrzebni są ludzie, którzy to zaprojektują i nadzorują. Kierunek jednak jest dość oczywisty: mniej ręcznego klikania w ustawieniach i więcej systemów, które same organizują i pilnują swoich zadań. Natomiast dla firm to prosta matematyka. Mniej przestojów, mniej pracy operacyjnej, niższe koszty i większe bezpieczeństwo danych.
Źródło zdjęcia tytułowego: IBM, Materiały Prasowe

