Pandemia znacznie zwiększyła ilość przesyłanych danych

117

Sztuczna inteligencja (SI) to jedna z fundamentalnych technologii w procesie cyfrowej transformacji, dla której motorem są dane. Według dotychczasowych szacunków IDC globalna baza danych miała zwiększyć się z 45 w ubiegłym roku do 175 zetabajtów w 2025 roku, przy czym prawie 30 proc. z nich będzie musiało być przetwarzanych w czasie rzeczywistym. Nowsze prognozy pokazują jednak, że tylko w tym roku na całym świecie zostanie przetworzonych 59 ZB danych. Do tego wzrostu przyczyniła się pandemia COVID-19.

Sztuczna inteligencja będzie wymagała znacznych zasobów obliczeniowych. Kiedy technologia stanie się bardziej złożona, a koszty ogólne będą lawinowo rosnąć, znalezienie opłacalnych środowisk do prowadzenia intensywnych procesów będzie zarówno wymogiem, jak i przewagą konkurencyjną. Firmy będą musiały się dostosować i być elastyczne, zwłaszcza w zakresie infrastruktury. Technologie chmurowe – w szczególności hybrydowe – są i będą podstawą sztucznej inteligencji, ponieważ potrzebuje ona znacznych ilości danych – mówi agencji Newseria Biznes Jakub Grzywacz, Infrastructure Solution Architect w Goldenore.

IDC prognozuje, że wydatki firm na systemy SI będą znacząco przyspieszać, bo organizacje coraz szerzej wdrażają je w ramach swojej cyfrowej transformacji, aby utrzymać konkurencyjność w realiach cyfrowej gospodarki. W ciągu najbliższych czterech lat globalne wydatki na SI mają się podwoić z obecnych 50,1 mld dol. do ponad 110 mld dol. w 2024 roku przy średniorocznej stopie wzrostu na poziomie ponad 20 proc. Rozwiązania SI wymagają jednak odpowiedniej architektury.

– Korzystając z infrastruktury, która została zaprojektowana z myślą o obsłudze właśnie takich systemów, mamy pewność, że maksymalizujemy korzyści z pracy SI i informacji zawartych w naszych danych. Zastosowanie dedykowanych rozwiązań jest bardziej efektywne niż rozwiązań do ogólnych przeznaczeń. Dedykowana platforma dostarczy wyniki szybciej, co z kolei pozwala na szybsze reagowanie i podejmowanie decyzji – wskazuje Jakub Grzywacz.

W tej chwili firmy, które potrzebują bardzo dużych mocy obliczeniowych w celu przetwarzania danych w chmurze czy obsługi systemów SI, dość powszechnie korzystają z rozwiązań opartych na serwerach w architekturze x86 (stosowanej także w domowych komputerach). Część organizacji zaczyna od nich odchodzić, bo przestają być wystarczające, a ich skalowanie wymaga np. fizycznej rozbudowy centrów danych, co pociąga też za sobą większe koszty zasilania czy chłodzenia.

Co więcej, wraz ze wzrostem ilości danych serwery będą musiały dostosowywać się do rosnących potrzeb. Dlatego też z rozwiązaniami opartymi na x86 coraz skuteczniej konkurują na rynku serwery IBM Power Systems (oparte na procesorach POWER9 i autorskiej architekturze amerykańskiego producenta), zaprojektowane do przetwarzania ogromnych ilości danych i przystosowane do działania w chmurze. Ich skalowanie nie wymaga rozbudowy centrum danych dzięki zaawansowanej wirtualizacji sprzętu.

– Prawie każda firma lub organizacja wykorzystuje wirtualizację. Procesory Power zostały zaprojektowane z myślą o niej, a samo zastosowanie wirtualizacji skutkuje około 2-proc. narzutem na wydajność. Architektura x86 posiłkuje się rozwiązaniami firm trzecich i nie uzyskuje tak dobrych wyników – mówi ekspert z Goldenore. – Trzeba też pamiętać, że nie wszystkie procesory sprawdzają się np. przy obciążeniach związanych ze sztuczną inteligencją. W procesorach IBM Power mamy wykorzystaną akcelerację GPU za pomocą technologii NVIDIA NVLink 2.0 dla połączenia zarówno pomiędzy procesorami logicznymi i graficznymi, jak i graficznymi między sobą. U konkurencji akceleracja dotyczy wyłącznie procesorów graficznych.

Jak podaje IBM, po migracji i konsolidacji obciążeń na Power Systems zajęta powierzchnia serwerowni może zmniejszyć się o 85 proc., a zastosowanie tej technologii dodatkowo ogranicza koszty zużycia energii elektrycznej nawet do 80 proc. Obsługa platformy wymaga mniej pracy od administratorów, dzięki czemu mogą poświęcać więcej czasu na inne, innowacyjne projekty. Duża skalowalność powoduje też, że firma nie będzie mieć problemów z zaspokojeniem swoich rosnących potrzeb na moce obliczeniowe, związanych z nowymi projektami czy po prostu rozwojem przedsiębiorstwa.

Co istotne, w porównaniu z jednostkami klasy x86 serwery IBM Power Systems zapewniają dwukrotnie większą wydajność na każdy rdzeń procesora i pięciokrotnie szybszą przepustowość danych. – Power Systems zostały zaprojektowane dla obciążeń wymagających dużej wydajności, takich jak analiza danych, sztuczna inteligencja czy aplikacje tworzone dla chmury. Natomiast x86 został stworzony dla wielu rynków, m.in. pod rozwiązania serwerowe, komputery PC i laptopy, była nawet próba wejścia na rynek smartfonów – wymienia Jakub Grzywacz.

Dla firm równie istotna jest niezawodność sprzętu, bo wszelkie zakłócenia w realizacji operacji oznaczają straty finansowe, których wysokość może sięgnąć od kilku do nawet kilkuset tysięcy dolarów. 

Więcej na newseria.pl

ZOSTAW ODPOWIEDŹ

Proszę wpisać komentarz!
Please enter your name here