Chmura obliczeniowa stoi u progu wielkiej transformacji, a wydatki firm na usługi chmurowe mają po raz pierwszy przekroczyć bilion dolarów. Te inwestycje przyniosą innowacje, które zrewolucjonizują różne branże na całym świecie. Przyjrzyjmy się głównym trendom na rynku chmury obliczeniowej oraz temu, jak te zmiany mogą wpłynąć na działalność biznesową.

Oszczędność kosztów dzięki FinOps

Chmura obliczeniowa stanowi istotny wydatek operacyjny (OpEx), dlatego kluczowe jest, aby firmy wdrażały praktyki FinOps. Jest to zestaw strategii, metod i działań, które pomagają firmom uzyskać pełny wgląd w wydatki na usługi chmurowe, co pozwala na ich optymalizację, zwiększenie przychodów oraz zdobycie przewagi konkurencyjnej.

Według badania FinOps Foundation z 2022 roku, 37,1% firm zaczęło opanowywać podstawy FinOps, 42,8% było na wczesnym etapie rozwijania praktyk, a 19,5% znajdowało się na etapie wdrażania i stosowania FinOps. Tylko niewielka część respondentów wciąż badała możliwości optymalizacji kosztów w chmurze.

Chociaż FinOps przynosi największe efekty, gdy firmy wprowadzają go we wczesnej fazie, jego zastosowanie przynosi istotne korzyści na niemal każdym etapie przejścia do chmury. Organizacje, które skutecznie realizują praktyki FinOps, mogą obniżyć swoje wydatki na chmurę o 20-30%.

Superkomputery w chmurze

Badania naukowe oraz innowacje przemysłowe wymagają coraz bardziej złożonych obliczeń, które przekraczają możliwości tradycyjnych komputerów. Realizacja tych zadań wymaga superkomputerów wykonujących obliczenia wysokiej wydajności (ang. High Performance Computing (HPC)). Umożliwiają one efektywne przetwarzanie ogromnych zbiorów danych generowanych przez sztuczną inteligencję (AI) i Internet rzeczy (IoT). Superkomputery już teraz przyspieszają rozwój w takich dziedzinach jak genomika, projektowanie leków, prognozowanie klimatu i eksploracja geologiczna.

Tradycyjnie superkomputery wymagały budowy całych centrów danych. Nikt nie przypuszczał, że te niezwykle skomplikowane zadania mogą być realizowane w chmurze. Jednak technologie chmurowe stale się rozwijają i obecnie superkomputery mogą działać w środowiskach chmurowych. To prowadzi do rosnącego zapotrzebowania na usługi HPC w chmurze — dzięki zaawansowanym parametrom technicznym te rozwiązania zapewniają szybkie obliczenia o wysokiej wydajności. Na przykład, najpotężniejszy superkomputer w chmurze AWS może wykonywać 1 biliard obliczeń na sekundę. To 10 razy więcej niż najpotężniejszy superkomputer w tradycyjnym centrum danych.

Według Market Research Future, do 2030 roku wartość rynku HPC w chmurze osiągnie 16 miliardów dolarów.

Jedno z centrów danych Google w Finlandii
Jedno z centrów danych Google w Finlandii

Wielochmurowość

Podejście wielochmurowe do infrastruktury IT jest powszechnie stosowane na całym świecie. Według  Deloitte, 85% firm korzysta z dwóch lub więcej platform chmurowych, a 25% używa co najmniej pięciu. W 2022 roku Pentagon zawarł umowy o wartości 9 miliardów dolarów z AWS, Google Cloud, Microsoft Azure i Oracle na stworzenie zintegrowanego systemu chmurowego do prowadzenia operacji bojowych, znanego jako Joint Warfighting Cloud Capability (JWCC). To kolejny dowód na to, że wielochmurowość ma przed sobą ogromne perspektywy.

Zgodnie z tym podejściem przedsiębiorstwa korzystają z chmur różnych dostawców do realizacji różnych zadań biznesowych. To pozwala im zyskać szereg korzyści: elastyczność, zmniejszenie ryzyka uzależnienia od jednego dostawcy usług chmurowych oraz możliwość wyboru usług dopasowanych do specyficznych wymagań.

Zielone technologie i zero waste

Oczywiście, ten trend ma większe znaczenie w krajach, które nie muszą zmagać się z zagrożeniem ze strony sąsiadów grożących użyciem broni atomowej. Niemniej jednak, warto o nim wspomnieć.

Obecnie inżynierowie z całego świata starają się projektować bardziej ekologiczne centra danych, oparte na odnawialnych źródłach energii, dzięki czemu minimalizują negatywny wpływ na środowisko. Na przykład jedno z centrów danych Google w Finlandii powstało na terenie dawnej fabryki papieru i do jego chłodzenia wykorzystywana jest energia prądów morskich.

Zmniejszenie liczby centrów danych dzięki przeniesieniu infrastruktury do chmury pomaga ograniczyć emisję dwutlenku węgla oraz zużycie energii elektrycznej. Według różnych szacunków, firmy w ten sposób będą korzystać z 77% mniej serwerów i zużywać o 84% mniej energii, co pozwoli na redukcję emisji CO2 o 88%.

Chmura brzegowa

Infrastruktura IT staje się fizycznie bliższa użytkownikowi. Firmy tworzą brzegowe centra danych bezpośrednio na swoich obiektach, na przykład w fabrykach, i wykorzystują obliczenia peryferyjne. Oznacza to, że przetwarzanie danych odbywa się możliwie najbliżej ich źródła, co poprawia analizę danych i podejmowanie decyzji w czasie rzeczywistym.

Chmura brzegowa zapewnia szybsze przetwarzanie danych, większą wydajność systemów, uproszczoną infrastrukturę IT oraz zwiększoną niezawodność i bezpieczeństwo.

Trend ten jest szczególnie istotny w kontekście rozwoju Internetu rzeczy oraz pojawienia się technologii 5G i 6G. Jest to logiczne, biorąc pod uwagę wzrost liczby podłączonych urządzeń, które będą generować duże ilości danych, co zwiększy obciążenie tradycyjnych infrastruktur chmurowych.

Firma Gartner przewiduje, że do 2025 roku 75% danych firmowych będzie generowanych i przetwarzanych na obrzeżach sieci, poza tradycyjnymi centrami danych lub platformami chmurowymi.

Układy AI

Systemy sztucznej inteligencji stają się coraz bardziej złożone i wymagają większej mocy obliczeniowej. Dlatego zaczyna się rozwijać rynek układów zastępujących obecnie używane procesory graficzne (GPU) do przetwarzania zadań AI. Układy te są w stanie wykonywać więcej operacji w krótszym czasie przy mniejszym zużyciu energii, co sprawia, że doskonale nadają się do realizacji ultrazłożonych zadań sztucznej inteligencji w czasie rzeczywistym.

Giganci technologiczni już tworzą własne układy AI do różnych potrzeb. Na przykład Nvidia planuje zainwestować 6,9 miliarda dolarów w rozwój superukładu, który będzie w stanie zastąpić całe centrum danych z konwencjonalnymi GPU. Z kolei firma Cerebras opracowała jednokrystaliczny układ AI z 850 000 rdzeni, który jest największym na świecie układem pod względem powierzchni zaprojektowanym do głębokiego uczenia.

Nowy komputer kwantowy Google’a, który ma 70 kubitów
Nowy komputer kwantowy Google’a, który ma 70 kubitów

Obliczenia kwantowe

Według danych portalu Statista, globalny rynek obliczeń kwantowych wzrośnie z 0,5 miliarda dolarów w 2022 roku do 9 miliardów dolarów do 2027 roku. Chociaż ta technologia jest jeszcze w fazie rozwoju, kwantowe komputery już istnieją, ale wykonują ograniczoną liczbę zadań. Mimo ich ogromnej prędkości, są głównie wykorzystywane w technologii wojskowej. Hakerzy starają się wszelkimi dostępnymi metodami złamać szyfry, aby dotrzeć do tajnych informacji, podczas gdy specjaliści ds. cyberbezpieczeństwa intensywnie pracują nad ich skutecznym szyfrowaniem. Jeśli dane nie są właściwie zaszyfrowane, komputer kwantowy będzie w stanie odkryć klucz w ciągu kilku sekund. Dlatego hakerzy próbują wykorzystać komputery kwantowe do łamania wszelkich kodów, a specjaliści ds. cyberbezpieczeństwa starają się zaszyfrować dane przy ich pomocy, gdyż dane zaszyfrowane przez komputer kwantowy nie mogą być rozszyfrowane w ten sam sposób.

NATO już testuje zabezpieczenia przed cyberatakami oparte na obliczeniach kwantowych. Naukowcy przewidują, że superkomputery znajdą sposoby na łamanie popularnych metod szyfrowania danych.

To jedynie krótki przegląd trendów chmurowych, które będą napędzać postęp naukowy i technologiczny w najbliższej przyszłości.