Huawei Cloud na veľtrhu KubeCon EU 2024: Štart inteligentnej éry neustálych inovácií s otvoreným zdrojovým kódom
PARÍŽ, 27. marca 2024 /PRNewswire/ -- Na veľtrhu KubeCon + CloudNativeCon Europe 2024, ktorý sa konal 21. marca v Paríži, poukázal Dennis Gu, hlavný architekt spoločnosti Huawei Cloud, vo svojom prejave s názvom „Cloud Native x AI: Štart inteligentnej éry neustálych inovácií s otvoreným zdrojovým kódom", že integrácia natívnych cloudových technológií a umelej inteligencie je rozhodujúca pre riadenie transformácie odvetvia. Huawei Cloud plánuje pokračovať v inováciách projektov s otvoreným zdrojovým kódom (open source) a spolupracovať s vývojármi na vstupe do inteligentnej éry.
Umelá inteligencia (AI) predstavuje kľúčové výzvy pre natívnu paradigmu cloudu.
Natívne cloudové technológie v posledných rokoch priniesli revolúciu do tradičných IT systémov a urýchlili digitálny pokrok v oblastiach, ako je internet a služby riadenia. Natívny cloud priniesol nové možnosti, ako je bleskový predaj a agilné operácie, ako je DevOps, prostredníctvom správy mikroslužieb. Tieto zmeny mali zásadný dopad na životy ľudí, pričom rýchly rast a rozsiahle zavádzanie AI, vrátane veľkých modelov, sa stali jadrom priemyselnej inteligencie.
Podľa prieskumu Epoch z roku 2023 sa výpočet požadovaný pre základné modely zvyšuje 10-násobne každých 18 mesiacov, čo je päťkrát rýchlejšie ako rýchlosť rastu predpovedaná Moorovým zákonom pre všeobecný výpočet. Vznik tohto „nového Moorovho zákona" v dôsledku AI a rozšírenie veľkých modelov AI predstavuje výzvy pre natívne cloudové technológie. Dennis Gu vo svojom prejave načrtol nasledujúce kľúčové body:
- Nízke priemerné využitie GPU/NPU zvyšuje náklady na tréning AI a odvodzovania AI.
- Časté zlyhania tréningových klastrov veľkých modelov znižujú efektivitu tréningu.
- Komplexná konfigurácia veľkých modelov má za následok náročné vysoké požiadavky na vývoj AI.
- Nasadenie rozsiahleho odvodzovania AI so sebou prináša riziko nepredvídateľných oneskorení prístupu koncových používateľov a zahŕňa potenciálne problémy s ochranou údajov.
Inovácia Huawei Cloud AI ponúka vývojárom nápady na riešenie výziev.
Rastúce veľkosti modelov AI si vyžadujú viac výpočtov, čo vytvára výzvy pre natívne cloudové technológie, ale tiež príležitosti pre inovácie v odvetví. Dennis Gu sa podelil o príbehy o inováciách AI spoločnosti Huawei Cloud a ponúkol vývojárom referenčný bod na riešenie výziev.
Huawei Cloud používa KubeEdge, natívnu cloudovú platformu pre edge computing, na vytvorenie platformy na plánovanie a správu viacerých robotov. Vďaka tejto platforme môžu používatelia hovoriť platforme v prirodzenom jazyku, čo má robiť, a systém bude koordinovať viacero robotov na okraji, aby splnili zložité úlohy. Systém je navrhnutý s trojdielnou architektúrou (cloud, okrajový uzol a robot) na riešenie výziev, ako je porozumenie prirodzenému jazyku, efektívne plánovanie a správa viacerých robotov a správa prístupu k robotom viacerých typov. Využíva veľké modely na vykonávanie príkazov v prirodzenom jazyku a predikciu prevádzky, priradenie úloh a plánovanie trasy. Trojdielna architektúra výrazne zvyšuje flexibilitu robotickej platformy, zlepšuje efektivitu riadenia o 25 %, skracuje čas potrebný na nasadenie systému o 30 % a skracuje čas potrebný na nasadenie nových robotov z niekoľkých mesiacov na dni.
Pre istú poprednú platformu na zdieľanie obsahu v Číne, ktorá má viac ako 100 miliónov aktívnych používateľov mesačne, sú primárnou službou odporúčania na domovskej stránke. Túto funkciu poháňa model s takmer 100 miliardami parametrov. Na vyškolenie tohto modelu platforma využíva školiaci klaster s tisíckami výpočtových uzlov, vrátane stoviek ps a pracovníkov pre jedinú školiacu úlohu. Existuje teda veľký dopyt po lepšom plánovaní topológie, vysokom výkone a vysokej priepustnosti. Projekt s otvoreným zdrojovým kódom Volcano zvyšuje podporu pracovných záťaží AI alebo strojového učenia na platforme Kubernetes a ponúka celý rad zásad v oblasti riadenia úloh a pokročilého plánovania. Volcano zahŕňa algoritmy, ako je plánovanie podľa topológie, balenie zásobníkov a plánovanie v súlade s dohodou o úrovni služieb (SLA), čo vedie k 20 % zlepšeniu celkového tréningového výkonu a výraznému zjednodušeniu prevádzky a údržby pre platformu.
Serverless AI v čele vývoja natívneho vývoja.
Mnohé podniky a vývojári čelia výzve efektívnej a spoľahlivej prevádzky aplikácií AI pri minimalizácii prevádzkových nákladov. Huawei Cloud prišla s riešením tohto problému tak, že identifikovala kľúčové požiadavky cloudových natívnych platforiem AI a zaviedla nový koncept nazvaný Serverless AI (umelá inteligencia bez servera).
Dennis Gu vo svojom prejave vysvetlil, že produkt Serverless AI je navrhnutý tak, aby zjednodušil komplexné úlohy tréningu a odvodzovania inteligentným odporúčaním paralelných zásad, čo uľahčuje vývojárom používanie. Zahŕňa tiež funkciu automatického rozšírenia adaptívneho GPU/NPU, ktorá dynamicky upravuje prideľovanie zdrojov na základe zmien pracovného zaťaženia v reálnom čase, čím zabezpečuje efektívne vykonávanie úloh. Okrem toho Serverless AI ponúka bezporuchový klaster GPU/NPU v Serverless AI, takže vývojári sa už nemusia obávať, že by hardvérové poruchy mohli prerušiť služby. Najdôležitejšie je, že Serverless AI je kompatibilná s bežnými rámcami AI, čo umožňuje vývojárom ľahko integrovať svoje existujúce nástroje a modely AI.
Serverless AI je tiež veľmi významným vývojom pre poskytovateľov cloudových služieb. Serverless AI poskytuje viacero výhod, ako je lepšie využitie GPU/NPU, efektívnejšie hybridné pracovné zaťaženie na tréning, odvodzovanie a vývoj, ako aj ekologická výpočtová technika vďaka lepšej energetickej účinnosti, takže šetrí peniaze za elektrinu. Serverless AI navyše umožňuje zdieľanie GPU/NPU medzi viacerými nájomníkmi v rozdielnych priestoroch alebo v rôznom čase, čím sa zlepšuje miera opätovného využitia zdrojov. Najvýznamnejším aspektom Serverless AI je jej schopnosť poskytovať garantovanú kvalitu služieb (QoS) a SLA pre úlohy tréningu aj odvodzovania, čím sa zabezpečí stabilná a kvalitná služba.
Serverless AI využíva flexibilnú vrstvu plánovania zdrojov, ktorá je postavená na virtualizovanom operačnom systéme. Táto vrstva zapuzdruje základné funkcie aplikačných rámcov do vrstvy sprostredkovania aplikačných zdrojov. Dennis Gu predstavil referenčnú architektúru pre Serverless AI. Domnieva sa, že tento dizajn architektúry umožňuje Serverless AI automaticky riadiť rozsiahle zdroje. To zahŕňa presnú analýzu vzorcov využívania zdrojov, zdieľanie zdrojov z heterogénnych hardvérových fondov a zabezpečenie tolerancie porúch počas tréningových úloh AI prostredníctvom virtualizácie GPU/NPU a migrácie zaťaženia naživo. Okrem toho viacrozmerné plánovanie a adaptívne pružné škálovanie zlepšujú využitie zdrojov.
Na vedľajšom fóre technickí experti z Huawei Cloud poznamenali, že pracovné zaťaženie AI alebo strojového učenia bežiace na Kubernetes sa neustále zvyšuje. Preto mnohé spoločnosti budujú natívne cloudové platformy AI na viacerých klastroch Kubernetes, ktoré sa rozprestierajú naprieč dátovými centrami a v rámci rôznorodej škály typov GPU. Karmada a Volcano dokážu inteligentne plánovať pracovné zaťaženie GPU naprieč viacerými klastrami, podporovať prenos porúch a zabezpečovať konzistentnosť a efektívnosť v rámci klastrov a naprieč nimi. Môžu tiež vyvážiť využitie zdrojov v celom systéme a QoS pracovných záťaží s rôznymi prioritami, aby dokázali vyriešiť výzvy riadenia rozsiahlych a heterogénnych prostredí GPU.
Karmada ponúka okamžitú a spoľahlivú automatickú správu aplikácií v scenároch s viacerými cloudmi a hybridnými cloudmi. Stále viac používateľov používa Karmadu na vytváranie adaptabilných a efektívnych riešení vo výrobnom prostredí. Karmada bola oficiálne inovovaná na inkubačný projekt CNCF v roku 2023 a komunita s radosťou uvíta ďalších partnerov a vývojárov.
Volcano Gang Scheduling je riešenie pre distribuovaný tréning AI a scenáre veľkých dát a rieši otázky nekonečného čakania a slepých uličiek v distribuovaných tréningových úlohách. Vďaka topológii úloh a plánovania podľa vstupov/výstupov sa minimalizuje oneskorenie prenosu distribuovaných školiacich úloh, čím sa zlepšuje výkon školenia o 31 %. Okrem toho minResources rieši spory o zdroje medzi ovládačom Spark a spúšťačom v scenároch s vysokou súbežnosťou, optimalizuje stupeň paralelnosti a zlepšuje výkonnosť o 39,9 %.
Dennis Gu je presvedčený, že kľúčom k zlepšeniu produktivity umelej inteligencie je agilita natívnych cloudových technológií a inovácia heterogénnych výpočtových platforiem AI. Huawei Cloud sa venuje inováciám s otvoreným zdrojovým kódom a prostredníctvom spolupráce s kolegami z odvetvia sa snaží uviesť novú éru inteligencie.
Foto: https://mma.prnewswire.com/media/2370741/Dennis_Gu_Chief_Architect_Huawei_Cloud.jpg
WANT YOUR COMPANY'S NEWS FEATURED ON PRNEWSWIRE.COM?
Newsrooms &
Influencers
Digital Media
Outlets
Journalists
Opted In
Share this article