Huawei Cloud na KubeCon EU 2024: Rozwój ery inteligentnych rozwiązań dzięki innowacyjności opartej na otwartym kodzie źródłowym
PARYŻ, 26 marca 2024 r. 26 marca 2024 r. /PRNewswire/ -- Występując na konferencji KubeCon + CloudNativeCon Europe 2024, która odbyła się 21 marca w Paryżu, Dennis Gu, główny architekt Huawei Cloud, zaznaczył w przemówieniu zatytułowanym „Natywna chmura x SI: Rozwój ery inteligentnych rozwiązań dzięki innowacyjności opartej na otwartym kodzie źródłowym", że integracja technologii natywnych dla chmury i sztucznej inteligencji ma decydujące znaczenie dla transformacji branżowych. Huawei Cloud ma zamiar nieustannie wprowadzać innowacje w projektach o otwartym kodzie źródłowym i współpracować z programistami, wprowadzając erę inteligentnych rozwiązań.
Sztuczna inteligencja stanowi ogromne wyzwanie dla natywnego paradygmatu chmury.
Na przestrzeni ostatnich lat technologie chmury natywnej zrewolucjonizowały tradycyjne systemy informatyczne i przyspieszyły cyfryzację w takich obszarach jak Internet czy usługi administracyjne. Technologia natywna w chmurze wprowadziła nowe możliwości, jak choćby natychmiastową sprzedaż i elastyczne operacje, takie jak DevOps, realizowane poprzez zarządzanie mikrousługami. Wspomniane transformacje wywarły znaczący wpływ na życie ludzi, a dynamiczny rozwój i powszechne zastosowanie sztucznej inteligencji, w tym modeli wielkoskalowych, stały się podstawą branżowego nowatorstwa.
Jak wynika z ankiety przeprowadzonej przez Epoch w 2023 r., moc obliczeniowa wymagana do podstawowych modeli rośnie dziesięciokrotnie co 18 miesięcy, czyli pięciokrotnie szybciej niż tempo wzrostu przewidywane przez prawo Moore'a dla ogólnych obliczeń. Wraz z pojawieniem się „nowego prawa Moore'a" związanego ze sztuczną inteligencją i rozpowszechnieniem modeli sztucznej inteligencji na dużą skalę powstają wyzwania dla technologii natywnych w chmurze. W swoim wystąpieniu Dennis Gu przedstawił następujące zasadnicze kwestie:
- Niskie średnie wykorzystanie GPU/NPU zwiększa koszty szkolenia i analizowania SI.
- Powtarzające się awarie dużych klastrów treningowych modeli zmniejszają wydajność procesu uczenia.
- Skomplikowane konfiguracje modeli na dużą skalę stawiają wysokie wymagania w zakresie rozwoju sztucznej inteligencji.
- Wdrożenie analizy SI na szeroką skalę niesie ze sobą ryzyko nieprzewidywalnych opóźnień w dostępie użytkowników końcowych i wiąże się z potencjalnymi problemami w zakresie prywatności danych.
Innowacje z zakresu SI oferowane przez Huawei Cloud dostarczają deweloperom pomysłów na sprostanie wyzwaniom.
Stale powiększające się modele sztucznej inteligencji wymagają większej mocy obliczeniowej, co stwarza wyzwania dla technologii natywnych dla chmury, ale także stwarza możliwości dla innowacji w branży. Dennis Gu przedstawił historie związane z innowacjami Huawei Cloud w zakresie sztucznej inteligencji, oferując programistom punkt odniesienia do podejmowania wyzwań.
Huawei Cloud wykorzystuje KubeEdge, natywną platformę przetwarzania brzegowego w chmurze, do tworzenia infrastruktury do planowania i zarządzania wieloma robotami. Dzięki jej zastosowaniu użytkownicy mogą używać poleceń w języku naturalnym, aby przekazywać platformie, co ma robić, podczas gdy system będzie koordynował działania licznych robotów na urządzeniach brzegowych w celu realizacji złożonych zadań. Jego architektura składa się z trzech części (chmura, węzeł brzegowy i robot), co pozwala sprostać wyzwaniom takim jak rozumienie języka naturalnego, skuteczne planowanie i zarządzanie robotami oraz kompleksowe zarządzanie dostępem do urządzeń. Wykorzystuje ogromne modele do realizacji poleceń w języku naturalnym i wykonuje przewidywanie ruchu, przydzielanie zadań i planowanie tras. Trzyczęściowa architektura znacznie zwiększa elastyczność platformy robotów, podnosi wydajność zarządzania o 25%, skraca czas potrzebny na wdrożenie systemu o 30% i redukuje zapotrzebowanie na nowe roboty z miesięcy do dni.
W przypadku jednej z czołowych platform udostępniania treści w Chinach, posiadającej ponad 100 milionów aktywnych użytkowników miesięcznie, jej główną usługą są rekomendacje na stronie głównej. Funkcjonalność ta opiera się na modelu z prawie 100 miliardami parametrów. Aby wytrenować ten model, platforma wykorzystuje klaster szkoleniowy z tysiącami węzłów obliczeniowych, w tym setkami komputerów i pracowników dla pojedynczego zadania szkoleniowego. Stąd też istnieje znaczne zapotrzebowanie na usprawnienie planowania topologii, wysoką wydajność i przepustowość. Volcano, projekt o otwartym kodzie źródłowym, zwiększa wsparcie dla obciążeń związanych ze sztuczną inteligencją lub uczeniem maszynowym w Kubernetes i oferuje szereg funkcji zarządzania zadaniami i zaawansowanych zasad planowania. Volcano wykorzystuje algorytmy, takie jak planowanie uwzględniające topologię, upakowanie i planowanie wykorzystujące umowę o poziomie usług (SLA), co skutkuje 20% poprawą ogólnej wydajności szkolenia i znacznym zmniejszeniem złożoności obsługi i utrzymania infrastruktury.
Bezserwerowa sztuczna inteligencja plasuje się w czołówce rozwiązań natywnych dla chmury.
Dla wielu przedsiębiorstw i deweloperów wyzwaniem jest skuteczne i niezawodne uruchamianie aplikacji SI przy jednoczesnej minimalizacji kosztów operacyjnych. Huawei Cloud opracował rozwiązanie tego problemu, identyfikując kluczowe wymagania natywnych platform SI w chmurze i wprowadzając nową, bezserwerową koncepcję o nazwie Serverless AI.
Podczas swojego wystąpienia Dennis Gu zaznaczył, że bezserwerowa SI została zaprojektowana w celu uproszczenia złożonych zadań szkoleniowych i wnioskowania poprzez inteligentne rekomendowanie równoległych strategii, dzięki czemu jest łatwiejsza w użyciu dla programistów. Obejmuje ona również adaptacyjną funkcję automatycznego rozszerzania GPU/NPU, która dynamicznie dostosowuje alokację zasobów w oparciu o zmiany obciążenia w czasie rzeczywistym, zapewniając efektywną realizację zadań. Co więcej, funkcja Serverless AI obejmuje bezawaryjny klaster GPU/NPU, co pozwala deweloperom uwolnić się od obaw, że usterki sprzętowe mogą przerwać działanie usług. Jednak, co najważniejsze, technologia Serverless AI jest kompatybilna z głównymi strukturami SI, umożliwiając łatwą integrację istniejących narzędzi i modeli SI.
Rozwiązanie Serverless AI jest również niezwykle istotne dla dostawców usług w chmurze. Przekłada się ono na różnorodne korzyści, takie jak lepsze wykorzystanie GPU/NPU, bardziej wydajne hybrydowe obciążenia na potrzeby szkoleń, analizy i rozwoju, a także bardziej ekologiczne obliczenia dzięki zwiększonej efektywności energetycznej, co pozwala zaoszczędzić na kosztach energii elektrycznej. Dodatkowo technologia Serverless AI umożliwia współdzielenie GPU/NPU przez licznych dzierżawców w różnych przestrzeniach lub w różnym czasie, poprawiając współczynnik ponownego wykorzystania zasobów. Najważniejszym aspektem bezserwerowej sztucznej inteligencji jest jej zdolność do zapewnienia gwarantowanej jakości usług (QoS) i umów SLA zarówno dla zadań szkoleniowych, jak i wnioskowania, zapewniając stabilną i niezmiennie wysoką jakość usług.
Serverless AI bazuje na elastycznej warstwie planowania zasobów, która jest zbudowana na zwirtualizowanym systemie operacyjnym. Warstwa ta hermetyzuje podstawowe funkcje środowisk aplikacji w warstwie mediacji zasobów aplikacji. Dennis Gu zaprezentował architekturę wzorcową dla Serverless AI. Uważa on, że ten projekt umożliwia automatyczne zarządzanie zasobami SI na masową skalę. Działania te obejmują dokładną analizę wzorców wykorzystania zasobów, współdzielenie zasobów z heterogenicznych pul sprzętowych oraz zapewnienie odporności na awarie podczas zadań szkoleniowych SI poprzez wirtualizację GPU/NPU i migrację obciążenia na żywo. Dodatkowo wielowymiarowe planowanie i adaptacyjne elastyczne skalowanie poprawiają wykorzystanie zasobów.
Podczas spotkania technicznego eksperci z Huawei Cloud zauważyli, że obciążenia związane ze sztuczną inteligencją lub uczeniem maszynowym działające na Kubernetes stopniowo rosną. W rezultacie wiele spółek opracowuje natywne platformy SI w chmurze na wielu klastrach Kubernetes, które są rozproszone w centrach danych i korzystają z różnych typów procesorów graficznych. Karmada i Volcano mogą inteligentnie planować obciążenia GPU w ramach różnych klastrów, ułatwiając transfer błędów oraz zapewniając spójność i wydajność w ramach klastrów i pomiędzy nimi. Potrafią one również zrównoważyć wykorzystanie zasobów w całym systemie oraz jakość usług (QoS) obciążeń o różnych priorytetach, aby sprostać wyzwaniom związanym z zarządzaniem wielkoskalowymi i heterogenicznymi środowiskami GPU.
Karmada umożliwia natychmiastowe i niezawodne automatyczne zarządzanie aplikacjami w środowiskach wielochmurowych i hybrydowych. Coraz większa liczba użytkowników korzysta z Karmady do tworzenia elastycznych i skutecznych rozwiązań w warunkach produkcyjnych. Karmada została oficjalnie zaktualizowana do projektu inkubacyjnego CNCF w 2023 roku, a zaangażowana społeczność z niecierpliwością czeka na dołączenie kolejnych partnerów i deweloperów.
Volcano Gang Scheduling to rozwiązanie dedykowane rozproszonemu szkoleniu SI i scenariuszom big data, które rozwiązuje problem niekończącego się oczekiwania i impasu w rozproszonych zadaniach szkoleniowych. Dzięki topologii zadań i planowaniu uwzględniającemu wejścia/wyjścia, opóźnienie transmisji rozproszonych zadań szkoleniowych jest zminimalizowane, poprawiając wydajność treningową o 31%. Dodatkowo, minResources rozwiązuje problem rywalizacji o zasoby pomiędzy sterownikiem Spark a modułem wykonawczym w przypadku sytuacji o wysokiej współbieżności, optymalizuje stopień równoległości i poprawia wydajność o 39,9%.
Według Dennisa Gu kluczem do poprawy wydajności sztucznej inteligencji jest wszechstronność technologii natywnych dla chmury i innowacyjność heterogenicznych platform obliczeniowych SI. Huawei Cloud jest zaangażowany w rozwój innowacyjnych rozwiązań o otwartym kodzie źródłowym i dąży do współpracy z przedstawicielami sektora, aby zapoczątkować nową erę inteligentnych technologii.
Zdjęcia - https://mma.prnewswire.com/media/2370741/Dennis_Gu_Chief_Architect_Huawei_Cloud.jpg
WANT YOUR COMPANY'S NEWS FEATURED ON PRNEWSWIRE.COM?
Newsrooms &
Influencers
Digital Media
Outlets
Journalists
Opted In
Share this article