Mindtech kündigt erweiterte Unterstützung der Skalierbarkeit für Chameleon an
LONDON, 15. November 2019 /PRNewswire/ -- Mindtech Global Ltd, ein in Großbritannien ansässiges Start-up-Unternehmen, hat die Unterstützung durch Container angekündigt, um mehrere Instanzen von Chameleon, seinem Tool für die synthetische Datengenerierung auf Cluster-Plattformen, ausführen zu können. Dieser Ansatz ermöglicht die vollständige Nutzung der verfügbaren Rechenressourcen, was zu einer deutlichen Verkürzung der Trainingszykluszeiten für neuronale Netzwerke unter Verwendung synthetischer Daten führt.
Skalierbarkeit beabsichtigt
Mindtechs Chameleon wurde von Anfang an mit der Fähigkeit zur Skalierung für die Generierung großer Datenmengen entwickelt, um die Anforderungen an das Training visueller neuronaler Netzwerke für KI-Systeme zu erfüllen. Der Simulator verfügt über eine Skript-Engine, die einfache Möglichkeiten für wiederholte Simulationsläufe bietet, bei denen einzelne Variablen nacheinander geändert werden. Der Szenario-Editor soll die schnelle und einfache Erstellung mehrerer verschiedener Sequenzen ermöglichen, um die für den jeweiligen Anwendungsfall erforderlichen Daten zu erstellen.
Skalierbarkeit ausnutzen
Der Szenario-Editor und die Simulationsskript-Engine sorgen dafür, dass die Chameleon-Tools problemlos verwendet werden können, um große Datenmengen zu generieren. Damit der Benutzer dies effektiv nutzen kann, muss die Simulations- und Rendering-Hardware vollständig ausgenutzt werden. Um dies zu erreichen, wurden die Tools so konzipiert, dass sie alle verfügbaren Ressourcen vollständig nutzen und dabei die Vorteile von Multi-Thread-Prozessoren und GPU-Beschleunigern nutzen, die auf dem System, das den Simulator hostet, verfügbar sind. Um diese Fähigkeit weiter zu verbessern, hat Mindtech den Simulator aktualisiert und in eine containerisierte Form gepackt, um die Verwendung von Technologien wie Singularity und Docker zu ermöglichen. Dies wiederum ermöglicht den Einsatz in einer Cluster-Umgebung wie Kubernetes. Diese neue Funktionalität ermöglicht den Einsatz im Server- und Cloud-Bereich und verbessert die Fähigkeit, die verfügbaren Rechenressourcen zu nutzen.
Bedarf nach Skalierbarkeit
Das Erstellen von virtuellen Welten, mit denen die hochwertigen synthetischen Daten von Mindtech generiert werden, erfordert den Einsatz ausgefeilter 3D-Rendering-Techniken sowie eine beträchtliche Prozessorleistung, die von GPU-Beschleunigern bereitgestellt wird, um sicherzustellen, dass sich die virtuelle Welt realistisch und „lebensecht" verhält. Jede Trainingsaufgabe für ein neuronales Netzwerk erfordert Hunderttausende oder sogar Millionen von Bildern, die jeweils einzeln gerendert und für die Trainingsaufgabe beschriftet werden. Die Verwendung von Containern ermöglicht es dem Benutzer, mehrere Simulationsläufe parallel auszuführen, was die Zeit für die Datenerstellung erheblich reduziert und den gesamten Trainingszyklus für neuronale Netzwerke verkürzt.
Ogi Brkic, Corporate Vice President und General Manager der Business Unit Data Center GPU bei AMD, Radeon Technology Group sagt: „Die Kombination aus dem neuesten AMD EPYC™ 7002 Series Prozessor und Radeon Instinct™MI50 GPU-Beschleuniger stellt das Beste dar, was für moderne KI-Workloads möglich ist. Mindtechs Chameleon nutzt diese leistungsstarke Rechenplattform, um die Generierung synthetischer Daten zu beschleunigen und die Trainingszykluszeiten mit einem containerisierten Ansatz zu verkürzen."
Verfügbarkeit
Mindtechs Skalierbarkeit mit Containern für Chameleon AI Tools wird auf dem AMD-Stand auf der Supercomputing 2019 vom 18. bis 21. November in Denver im US-Bundesstaat Colorado vorgestellt.
Pressekontakt
Weitere Informationen: [email protected] und https://mindtech.global
AMD, das AMD-Logo, EPYC, Radeon Instinct und Kombinationen davon sind Marken von Advanced Micro Devices, Inc.
Logo - https://mma.prnewswire.com/media/971869/Mindtech_Logo.jpg
Related Links
WANT YOUR COMPANY'S NEWS FEATURED ON PRNEWSWIRE.COM?
Newsrooms &
Influencers
Digital Media
Outlets
Journalists
Opted In
Share this article