WEKA devient un partenaire certifié NVIDIA Cloud Network
La plateforme de données WEKA est désormais certifiée en tant que solution de stockage de données haute performance avec l'architecture de référence des partenaires du cloud de NVIDIA pour l'infrastructure GPU Compute
CAMPBELL, Californie, 25 septembre 2024 /PRNewswire/ -- WekaIO (WEKA), la société de plateforme de données natives de l'IA, annonce que la plateforme de données WEKA® a été certifiée en tant que stockage de données haute performance pour les partenaires cloud du NVIDIA Partner Network. Avec cette certification, les partenaires NVIDIA Cloud peuvent désormais tirer parti des performances exceptionnelles, de l'évolutivité, de l'efficacité opérationnelle et de la facilité d'utilisation de La plateforme de données WEKA grâce à l'architecture de référence WEKA validée conjointement pour les partenaires NVIDIA Cloud utilisant les systèmes NVIDIA HGX H100.
L'architecture de référence NVIDIA Cloud Partner fournit une solution matérielle et logicielle complète pour que les fournisseurs de cloud puissent proposer des services et des flux de travail d'IA pour différents cas d'utilisation. La certification de stockage de WEKA garantit que les dispositifs WEKApod™ et le matériel des partenaires serveurs qualifiés par WEKA répondent aux spécifications de stockage haute performance (HPS) de NVIDIA Cloud Partner pour les environnements cloud d'IA.
Cette certification souligne la capacité de la plateforme de données WEKA à fournir des performances robustes à l'échelle et à accélérer les charges de travail d'IA. La plateforme fournit jusqu'à 48 Go/s de débit de lecture et plus de 46 Go/s de débit d'écriture sur un seul système HGX H100 et prend en charge jusqu'à 32 000 GPU NVIDIA dans un seul cluster en réseau Ethernet NVIDIA Spectrum-X . Les partenaires NVIDIA Cloud peuvent désormais associer en toute confiance la plateforme de données WEKA aux déploiements d'infrastructures d'IA à grande échelle optimisés par les GPU NVIDIA afin d'aider leurs clients à déployer et à mettre à l'échelle rapidement des projets d'IA.
« Les innovateurs en IA se tournent de plus en plus vers les fournisseurs de cloud hyperscale et spécialisés pour alimenter l'entraînement et l'inférence des modèles et construire leurs projets informatiques avancés », déclare Nilesh Patel, directeur des produits, WEKA. « L'architecture de référence certifiée de WEKA permet aux partenaires cloud de NVIDIA et à leurs clients de déployer désormais une solution de gestion des données native IA, entièrement validée, qui peut aider à améliorer les métriques de délai d'obtention des résultats tout en réduisant considérablement les coûts d'alimentation et d'infrastructure des centres de données. »
La révolution de l'IA fait exploser la demande pour des solutions cloud spécialisées
La demande mondiale d'accès aux GPU de nouvelle génération a explosé alors que les entreprises adoptent rapidement l'IA générative et acquièrent un avantage concurrentiel dans un large éventail de cas d'utilisation. Cela a stimulé l'essor d'une nouvelle race de fournisseurs de services cloud spécialisés dans l'IA qui offrent un large accès au GPU en fournissant des solutions d'infrastructure de calcul accéléré et d'IA aux organisations de toute taille et de tout secteur. Alors que les projets d'IA des entreprises font converger les flux de formation, d'inférence et de génération augmentée de récupération (RAG) vers des environnements GPU plus vastes, ces fournisseurs de cloud sont souvent confrontés à des défis importants en matière de gestion des données, tels que l'intégration et la portabilité des données, la minimisation de la latence et le contrôle des coûts grâce à l'utilisation efficace des GPU.
La plateforme de données native IA de WEKA optimise et accélère les pipelines de données, en veillant à ce que les GPU soient continuellement saturés de données pour atteindre une utilisation maximale, rationaliser l'entraînement et l'inférence des modèles IA et accélérer les charges de travail à haute performance. Il offre une expérience de stockage simplifiée, sans réglage, qui optimise les performances pour tous les profils d'E/S, aidant les fournisseurs de cloud à simplifier les flux IA pour réduire la complexité de la gestion des données et la charge de travail du personnel.
De nombreux partenaires NVIDIA Cloud construisent également leurs offres de services en gardant à l'esprit le développement durable, en utilisant des technologies à faible consommation d'énergie et des pratiques d'IA durables pour réduire leur impact sur l'environnement. La plateforme de données WEKA améliore considérablement l'efficacité du GPU et l'efficacité de la formation et de l'inférence des modèles d'IA, ce qui peut aider les fournisseurs de services cloud à éviter 260 tonnes de CO2e par pétaoctet de données stockées. Cela permet de réduire davantage l'empreinte énergétique et carbone de leurs centres de données, ainsi que l'impact environnemental des initiatives des clients en matière d'IA et de HPC.
« La plateforme de données WEKA est essentielle pour optimiser les performances du Shakti Cloud de Yotta, l'infrastructure de supercalculateur d'IA la plus rapide d'Inde. Shakti Cloud nous permet de fournir des services GPU évolutifs aux entreprises de toutes tailles, en démocratisant l'accès aux ressources informatiques de haute performance et en permettant aux entreprises d'exploiter pleinement l'IA grâce à notre vaste flotte de GPU NVIDIA H100. Avec cette amélioration, nos clients peuvent exécuter efficacement l'IA générative en temps réel sur des modèles de langage de plusieurs milliards de paramètres », déclare Sunil Gupta, cofondateur, directeur général et CEO, Yotta Data Services, un partenaire cloud de NVIDIA. « Chez Yotta, nous sommes profondément engagés à équilibrer la croissance des centres de données avec la durabilité et l'efficacité énergétique. Nous sommes déterminés à déployer des technologies d'IA écoefficientes afin de minimiser l'impact environnemental de nos centres de données, tout en continuant à faire évoluer notre infrastructure pour répondre à la demande croissante. WEKA nous aide à atteindre cet objectif. »
Les principaux avantages de l'architecture de référence de WEKA pour les partenaires NVIDIA Cloud sont les suivants :
- Des performances exceptionnelles : le haut débit validé et la faible latence permettent de réduire le temps de formation et d'inférence des modèles d'IA de plusieurs jours à quelques heures, en fournissant jusqu'à 48 Go/s de débit de lecture et plus de 46 Go/s de débit d'écriture pour un seul système HGX H100.
- Utilisation maximale du GPU : WEKA offre des performances constantes et une évolutivité linéaire sur tous les systèmes HGX H100, en optimisant les pipelines de données pour multipliser jusqu'à 20 fois l'efficacité d'utilisation des GPU, ce qui permet de réduire le nombre de GPU nécessaires pour les charges de travail à fort trafic tout en maximisant les performances.
- Multi-entité au niveau du fournisseur de services : les contrôles d'accès sécurisés et les clusters composables virtuels offrent une séparation des ressources et un chiffrement indépendant pour préserver la confidentialité et les performances des clients.
- Éliminer les blocages aux points de contrôle : un point de contrôle évolutif et à faible latence est essentiel pour la formation de modèles à grande échelle, la réduction des risques et la prévisibilité opérationnelle.
- Échelle massive : prend en charge jusqu'à 32 000 GPU NVIDIA H100 et un exaoctet de capacité dans un seul espace de noms via un backbone Ethernet NVIDIA Spectrum-X pour s'adapter aux besoins de n'importe quelle taille de déploiement.
- Opérations simplifiées : l'architecture à réglage zéro permet une mise à l'échelle linéaire des services de métadonnées et de données et rationalise la conception, le déploiement et la gestion d'environnements en nuage diversifiés et à charge de travail multiple.
- Complexité réduite et efficacité accrue : WEKA offre des performances de premier ordre dans un dixième de l'empreinte du centre de données et du câblage par rapport aux solutions concurrentes, réduisant ainsi la complexité de l'infrastructure, les coûts de stockage et d'énergie, ainsi que l'impact environnemental associé, afin de promouvoir une utilisation plus durable de l'IA.
Pour en savoir plus sur l'architecture de référence WEKA pour les partenaires cloud de NVIDIA, visitez https://www.weka.io/company/partners/technology-alliance-partners/nvidia.
Pour découvrir comment WEKA peut améliorer l'accélération des GPU, visitez : https://www.weka.io/data-platform/solutions/gpu-acceleration/.
À propos de WEKA
WEKA conçoit une nouvelle approche de la pile de données de l'entreprise, adaptée à l'ère de l'IA. La plateforme de données WEKA® établit la norme pour l'infrastructure d'IA avec une architecture native du cloud et de l'IA qui peut être déployée n'importe où, offrant une portabilité optimale des données à travers les environnements sur site, cloud et edge. Elle transforme les silos de données existants en pipelines de données dynamiques qui accélèrent les GPU, l'apprentissage et l'inférence des modèles d'IA et d'autres charges de travail exigeantes, leur permettant de travailler plus efficacement, de consommer moins d'énergie et de réduire les émissions de carbone associées. WEKA aide les entreprises et les organismes de recherche les plus innovants au monde à surmonter les défis complexes liés aux données pour parvenir plus rapidement et plus durablement à des découvertes, des idées et des résultats - y compris 12 des entreprises du classement Fortune 50. Visitez www.weka.io pour en savoir plus, ou rejoignez WEKA sur LinkedIn, X et Facebook.
WEKA et le logo WEKA sont des marques déposées de WekaIO, Inc. Les autres noms commerciaux utilisés dans le présent document peuvent être des marques déposées de leurs propriétaires respectifs.
Photo - https://mma.prnewswire.com/media/2511528/PR_weka_nvidia_NCP_1200x675.jpg
Partager cet article