WEKA تطرح لأول مرة مخطط حل جديد لتبسيط الاستدلال بالذكاء الاصطناعي على نطاق واسع
توفر البنية المرجعية لمنصة WARRP حلًا معياريا شاملًا يسرع من تطوير بيئات الاستدلال القائمة على التوليد المعزز بالاسترجاع (RAG)
أتلانتا وكامبل، كاليفورنيا، 19 نونبر/تشرين الثاني 2024 /PRNewswire/ -- من معرض Supercomputing 2024: أطلقت WEKA، شركة منصة البيانات الأصلية للذكاء الاصطناعي، حلًا جديدًا للبنية المرجعية لتبسيط تطوير وتنفيذ بيئات الاستدلال بالذكاء الاصطناعي للمؤسسات. تزود منصة WEAK المرجعية للجيل المعزز لاسترجاع الذكاء الاصطناعي (المشار إليها في ما يلي بِـ"WARRP") مطوري الذكاء الاصطناعي التوليدي ومهندسي السحابة بمخطط تصميم لتطوير إطار عمل قوي للبنية التحتية للاستدلال يتضمن التوليد المعزز بالاسترجاع (RAG)، وهي تقنية مستخدمة في عملية الاستدلال بالذكاء الاصطناعي لتمكين النماذج اللغوية الكبيرة (LLMs) من جمع بيانات جديدة من مصادر خارجية.
أهمية التوليد المعزز بالاسترجاع (RAG) في بناء عمليات ذكاء اصطناعي آمنة وموثوقة
وفقا لدراسة حديثة حول اتجاهات الذكاء الاصطناعي العالمية التي أجرتها مؤخرا شركة S&P Global Market Intelligence، برز الذكاء الاصطناعي التوليدي بسرعة كأكثر أساليب الذكاء الاصطناعي اعتمادًا، متفوقًا على جميع تطبيقات الذكاء الاصطناعي الأخرى في المؤسسات[1].
يتمثل أحد التحديات الرئيسية التي تواجهها الشركات عند نشر النماذج اللغوية الكبيرة (LLMs) في ضمان قدرتها على استرداد البيانات الجديدة ووضعها في سياقها بفعالية عبر بيئات متعددة ومن مصادر خارجية للمساعدة في الاستدلال بالذكاء الاصطناعي. إن التوليد المعزز بالاسترجاع (RAG) هو التقنية الرائدة في مجال الاستدلال بالذكاء الاصطناعي، وتستخدم لتعزيز نماذج الذكاء الاصطناعي المدربة من خلال استرجاع رؤى جديدة بأمان من مصادر البيانات الخارجية. يمكن أن يساعد استخدام التوليد المعزز بالاسترجاع (RAG) في عملية الاستدلال في تقليل الهلوسة النموذجية للذكاء الاصطناعي وتحسين دقة المخرجات وموثوقيتها وثرائها، مما يقلل من الحاجة إلى دورات إعادة التدريب المكلفة.
ومع ذلك، فإن إنشاء بيئات استدلالية قوية وجاهزة للإنتاج يمكنها دعم أطر عمل التوليد المعزز بالاسترجاع (RAG) على نطاق واسع أمر معقد وصعب، حيث لا تزال البنى وأفضل الممارسات والأدوات واستراتيجيات الاختبار تتطور بسرعة.
مخطط شامل لتسريع عملية الاستدلال
من خلال منصة WARRP، حددت WEKA بنية مرجعية غير معتمدة على البنية التحتية يمكن الاستفادة منها لبناء ونشر حلول التوليد المعزز بالاسترجاع (RAG) عالية الأداء ذات جودة إنتاجية على نطاق واسع.
تم تصميم منصة WARRP لمساعدة المؤسسات على بناء وتنفيذ خطوط معالجة استدلالية للذكاء الاصطناعي قائمة على التوليد المعزز بالاسترجاع (RAG) بسرعة، وتوفر مخططًا شاملًا للمكونات المعيارية التي يمكن استخدامها لتطوير ونشر بيئة استدلالية للذكاء الاصطناعي على مستوى عالمي ومُحسّنة لقابلية نقل أعباء العمل ومراكز البيانات العالمية الموزعة والبيئات متعددة السحابة.
تعتمد البنية المرجعية لمنصة WARRP على برنامج منصة WEKA® للبيانات الذي يعمل على الأجهزة السحابية أو أجهزة الخادم المفضلة للمؤسسة كطبقة أساسية. ثم يدمج بعد ذلك أطر عمل الذكاء الاصطناعي للمؤسسات الرائدة في فئتها من NVIDIA، بما في ذلك NVIDIA NIM™ للخدمات الدقيقة و NVIDIA NeMo™ Retriever، وكلاهما جزء من منصة برمجيات NVIDIA للذكاء الاصطناعي للمؤسسات، وقدرات متقدمة لأعباء عمل الذكاء الاصطناعي وتنسيق وحدة معالجة الرسومات من Runai: وتقنيات برمجيات إدارة البيانات التجارية والمفتوحة المصدر الشائعة مثل Kubernetes لتنسيق البيانات، و Milvus Vector DB لاستيعاب البيانات.
"مع بدأ انتقال الموجة الأولى من تقنيات الذكاء الاصطناعي التوليدي إلى المؤسسات في عام 2023، ركزت معظم موارد البنية التحتية للحوسبة والبيانات في المؤسسات على تدريب نماذج الذكاء الاصطناعي. مع نضوج نماذج وتطبيقات الذكاء الاصطناعي التوليدي، تستعد العديد من الشركات الآن لتحويل هذه الموارد للتركيز على الاستدلال ولكن قد لا تعرف من أين تبدأ،" كما قال شيمون بن ديفيد، كبير مسؤولي التكنولوجيا في WEKA. "إن تشغيل الاستدلال بالذكاء الاصطناعي على نطاق واسع أمر صعب للغاية. نحن نعمل على تطوير منصة بنية الجيل المحسّن لاسترجاع الذكاء الاصطناعي من WEKA على حلول الذكاء الاصطناعي والبنية التحتية السحابية الرائدة من WEKA وNVIDIA وRun:ai وCubernetes وMilvus وغيرها لتوفير مخطط قوي جاهز للإنتاج يعمل على تبسيط عملية تنفيذ التوليد المعزز بالاسترجاع (RAG) لتحسين دقة وأمن وتكلفة تشغيل نماذج الذكاء الاصطناعي للمؤسسات."
توفر منصة WARRP إطار عمل مرن ونموذجي يمكنه دعم مجموعة متنوعة من عمليات نشر النماذج اللغوية الكبيرة (LLMs)، مما يوفر قابلية التوسع والتكيف والأداء الاستثنائي في بيئات الإنتاج. وتشمل المزايا الرئيسية ما يلي:
- بناء بيئة استدلالية جاهزة للإنتاج بشكل أسرع: يمكن لمطوري الذكاء الاصطناعي التوليدي ومهندسي السحابة استخدام البنية التحتية لـ WARRP وبنيتها غير المتصلة بالسحابة لتبسيط تطوير تطبيقات الذكاء الاصطناعي التوليدي وتشغيل عمليات الاستدلال على نطاق واسع بشكل أسرع. إنها تتكامل بسلاسة مع مكونات البنية التحتية الحالية والمستقبلية للذكاء الاصطناعي للمؤسسة، ونماذج اللغات الكبيرة والصغيرة، ومقدمي خدمات الخادم المفضلين أو مزودي خدمات الذكاء الاصطناعي السحابية فائقة النطاق أو السحابة المتخصصة في الذكاء الاصطناعي، مما يمنح المؤسسات مرونة وخيارات استثنائية في تصميم حزمة الاستدلال الخاصة بها.
- الأجهزة والبرمجيات والسحابة الغير متصلة: يدعم تصميم WARRP المعياري معظم مزودي الخوادم ومزودي الخدمات السحابية الرئيسيين. تمكّن البنية المؤسسات من تحقيق إمكانية نقل أعباء العمل بسهولة دون المساس بالأداء من خلال السماح لممارسي الذكاء الاصطناعي بتشغيل نفس عبء العمل على المنصة السحابية فائقة النطاق المفضلة لديهم أو الخدمة السحابية للذكاء الاصطناعي أو أجهزة الخادم المحلية بأقل قدر من التغييرات في التكوين. سواءً تم نشرها في بيئة سحابية عامة أو خاصة أو مختلطة، تُظهر خطوط معالجة الذكاء الاصطناعي سلوكاً مستقراً ونتائج يمكن التنبؤ بها، مما يبسّط العمليات المختلطة والمتعددة السحابة.
- تحسين حزمة الاستدلال الشامل للذكاء الاصطناعي: يمكن أن يكون تشغيل خطوط معالجة التوليد المعزز بالاسترجاع (RAG) متطلبا للغاية، خاصةً عند التعامل مع مستودعات النماذج الكبيرة وأعباء عمل الذكاء الاصطناعي المعقدة. يمكن للمؤسسات تحقيق تحسينات كبيرة في الأداء من خلال دمج منصة بيانات WEKA في حزمة الاستدلال بالذكاء الاصطناعي، خاصة في سيناريوهات الاستدلال متعدد النماذج. تعمل قدرة منصة بيانات WEKA على تحميل النماذج وتفريغها بكفاءة على تسريع عملية تقديم الرموز لطلبات المستخدم بكفاءة، خاصةً في تدفقات العمل الاستدلالية المعقدة والمتسلسلة التي تتضمن نماذج ذكاء اصطناعي متعددة.
قال رونين دار، كبير مسؤولي التكنولوجيا في Run:ai: "مع تسارع اعتماد الذكاء الاصطناعي، هناك حاجة ماسة إلى طرق مبسطة لنشر أعباء العمل الإنتاجية على نطاق واسع. في الوقت نفسه، يبرز الاستدلال القائم على التوليد المعزز بالاسترجاع (RAG) كواجهة مهمة في سباق الابتكار في مجال الذكاء الاصطناعي، مما يجلب اعتبارات جديدة للبنية التحتية الأساسية للبيانات في المؤسسة". "توفر البنية المرجعية لمنصة WARRP حلًا ممتازًا للعملاء الذين يقومون ببناء بيئة استدلالية، حيث توفر مخططًا أساسيًا لمساعدتهم على التطوير بسرعة ومرونة وأمان باستخدام مكونات رائدة في المجال من NVIDIA وWEKA وRun:ai لتحقيق أقصى استفادة من وحدات معالجة الرسومات عبر البيئات السحابية الخاصة والعامة والهجينة. ويُعد هذا المزيج مكسبًا للجميع بالنسبة للعملاء الذين يرغبون في التفوق على منافسيهم في طليعة ابتكارات الذكاء الاصطناعي."
قالت أماندا سوندرز، مديرة برنامج الذكاء الاصطناعي التوليدي للمؤسسات في NVIDIA: "تبحث الشركات عن طريقة بسيطة لتضمين بياناتها لبناء خطوط معالجة التوليد المعزز بالاسترجاع (RAG) ونشرها." "سيتيح استخدام NVIDIA NIM وNeMo مع WEKA للعملاء من المؤسسات مسارًا سريعًا لتطوير ونشر وتشغيل عمليات الاستدلال والذكاء الاصطناعي عالية الأداء وعمليات التوليد المعزز بالاسترجاع (RAG) على نطاق واسع".
الإصدار الأول من البنية المرجعية لـ WARRP متاح الآن للتنزيل المجاني. قم بزيارة https://www.weka.io/resources/reference-architecture/warrp-weka-ai-rag-reference-platform/ للحصول على نسخة.
يمكن للحاضرين في معرض Supercomputing 2024 زيارة WEKA في الجناح رقم 1931 لمزيد من التفاصيل وعرض توضيحي للحل الجديد.
دعم عروض أسعار مزود الخدمة السحابية للذكاء الاصطناعي
Applied Digital
قال مايك مانيسكالكو، كبير مسؤولي التكنولوجيا في Applied Digital: "مع زيادة تسخير الشركات للذكاء الاصطناعي المتقدم والاستدلال بالذكاء الاصطناعي التوليدي لتمكين عملائها وموظفيها، فإنها تدرك فوائد الاستفادة من التوليد المعزز بالاسترجاع (RAG) لتحقيق المزيد من البساطة والوظائف والكفاءة". "توفر حزمة WARRP من WEKA إطارًا مرجعيًا مفيدًا للغاية لتقديم خطوط معالجة التوليد المعزز بالاسترجاع (RAG) في عملية نشر الإنتاج على نطاق واسع، مدعومة بتقنية NVIDIA القوية والبنية التحتية السحابية الموثوقة والقابلة للتطوير".
Ori Cloud
قال المهدي يحيى، المؤسس والرئيس التنفيذي لشركة Ori Cloud: "تعمل شركات رائدة في مجال الذكاء الاصطناعي التوليدي على منصة Ori Cloud لتدريب أكبر النماذج اللغوية الكبيرة (LLMs) وتحقيق أقصى استفادة من وحدات معالجة الرسومات بفضل تكاملنا مع منصة WEKA للبيانات." "نحن نتطلع إلى العمل مع WEKA لبناء حلول استدلالية قوية باستخدام بنية WARRP لمساعدة عملاء Ori Cloud على تحقيق أقصى استفادة من خطوط معالجة التوليد المعزز بالاسترجاع (RAG) لتسريع ابتكاراتهم في مجال الذكاء الاصطناعي".
نُبذة عن WEKA
تعمل شركة WEKA على تصميم نهج جديد لمكدّسات بيانات الشركات المصممة لعصر الذكاء الاصطناعي؛ حيث تضع [منصة بيانات WEKA] (WEKA® Data Platform) معيارًا جديدًا لبنية الذكاء الاصطناعي التحتية من خلال بنية أساسية سحابية مبنية لأغراض الذكاء الاصطناعي يمكن نشرها في أي مكان، مما يوفر إمكانية نقل البيانات بسلاسة عبر البيئات المحلية والسحابية وبيئات الحافة، وتعمل على تحويل صوامع البيانات القديمة إلى خطوط أنابيب بيانات ديناميكية تعمل على تسريع وحدات معالجة الرسومات، والتدريب والاستدلال لنماذج الذكاء الاصطناعي، وأحمال العمل الأخرى كثيفة الأداء، مما يمكنها من العمل بكفاءة أكبر، واستهلاك طاقة أقل، وتقليل انبعاثات الكربون المرتبطة بها. تساعد WEKA المؤسسات البحثية والشركات الأكثر ابتكارًا في العالم على التغلُّب على تحديات البيانات المعقدة للوصول إلى الاكتشافات والرؤى والنتائج بشكل أسرع وأكثر استدامة؛ بما في ذلك 12 شركة من شركات Fortune 50. يُرجى زيارة www.weka.io لمعرفة المزيد، أو التواصل مع WEKA على لينكد إن، وإكس، وفايسبوك.
WEKA وشعار WEKA هما علامتان تجاريتان مسجلتان لشركة WekaIO, Inc. وقد تكون الأسماء التجارية الأخرى المستخدمة هنا علامات تجارية لمالكيها.
[1] الاتجاهات العالمية في الذكاء الاصطناعي لعام 2024، شتنبر/أيلول 2024، S&P Global Market Intelligence
صورة - https://mma.prnewswire.com/media/2561543/4304845.jpg
الشعار - https://mma.prnewswire.com/media/1796062/WEKA_v1_Logo.jpg
شارك هذا المقال