تقوم Google بتوسيع Vertex ، خدمة الذكاء الاصطناعي المدارة ، بميزات جديدة

تقوم Google بتوسيع Vertex ، خدمة الذكاء الاصطناعي المدارة ، بميزات جديدة


منذ عام تقريبًا ، أعلنت Google عن إطلاق Vertex AI ، وهي منصة منظمة العفو الدولية المدارة مصممة لمساعدة الشركات على تسريع نشر نماذج الذكاء الاصطناعي. للاحتفال بالذكرى السنوية للخدمة واستغلال قمة ML Applied من Google ، أعلنت Google هذا الصباح عن ميزات جديدة تتجه إلى Vertex ، بما في ذلك خادم مخصص لتدريب نظام الذكاء الاصطناعى والتفسيرات القائمة على مثال. قبل هدف تمكين جيل جديد من الذكاء الاصطناعى الذي يمكّن علماء ومهندسي البيانات من القيام بأعمال إبداعية وإبداع ، قال هنري Tappen ، مدير منتجات Google Cloud Group ، لـ TechCrunch عبر البريد الإلكتروني. ستستمر ميزات Vertex AI الجديدة التي نطلقها اليوم في تسريع نشر نماذج التعلم الآلي عبر المؤسسات وإضفاء الطابع الديمقراطي على منظمة العفو الدولية حتى يتمكن المزيد لقد قامت Google بتنظيمها تاريخياً ، وهي ميزة Vertex هي أنها تجمع بين خدمات Google Cloud لـ AI تحت واجهة المستخدم الموحدة وواجهة برمجة التطبيقات. يستخدم العملاء بما في ذلك Ford و Seagate و Wayfair و CashApp و Cruise و Lowe الخدمة لإنشاء وتدريب ونشر نماذج التعلم الآلي في بيئة واحدة ، وتطالب Google - نماذج من التجريب إلى الإنتاج.
تتنافس Vertex مع المدارة منصات الذكاء الاصطناعى من مقدمي الخدمات السحابية مثل Amazon Web Services و Azure. من الناحية الفنية ، فإنه يتناسب مع فئة المنصات المعروفة باسم MLOPS ، وهي مجموعة من أفضل الممارسات للشركات لتشغيل الذكاء الاصطناعي. تتنبأ Deloitte أن سوق MLOPS سيكون بقيمة 4 مليارات دولار في عام 2025 ، حيث ينمو حوالي 12x منذ عام 2019.

يعرض Gartner ظهور الخدمات المدارة مثل Vertex أن ينمو سوق السحابة بنسبة 18.4 ٪ في عام 2021 ، مع Cloud تنبأت لتعويض 14.2 ٪ من إجمالي الإنفاق العالمي لتكنولوجيا المعلومات. مع زيادة المؤسسات في الاستثمارات في التنقل ، والتعاون وغيرها من تقنيات العمل والبنية التحتية عن بُعد ، فإن النمو في السحابة العامة [سوف] سيستمر حتى عام 2024 ، وكتب غارتنر في دراسة أجريت في نوفمبر 2020. الميزات في Vertex هي خادم تخفيض التدريب من الذكاء الاصطناعي ، وهي تقنية تقول Google تعمل على تحسين عرض النطاق الترددي والكمون من التدريب الموزع متعدد الأنظمة على NVIDIA GPU. في التعلم الآلي ، يشير التدريب الموزع إلى نشر عمل تدريب نظام عبر أجهزة متعددة أو وحدات معالجة الرسومات أو وحدات المعالجة المركزية أو الرقائق المخصصة ، مما يقلل من الوقت والموارد التي يتطلبها إكمال التدريب.

هذا يقلل بشكل كبير من وقت التدريب وقال أندرو مور ، نائب الرئيس و GM من Cloud AI في Google ، في منشور اليوم على مدونة Google Cloud ، إنه مطلوب لأعباء العمل اللغوية الكبيرة ، مثل BERT ، وتمكين تكافؤ التكلفة عبر طرق مختلفة. في العديد من سيناريوهات الأعمال الحرجة المهمة ، تتيح دورة التدريب المختصرة لعلماء البيانات تدريب نموذج ذو أداء تنبؤي أعلى ضمن قيود نافذة النشر. تخصيص أكبر لعملية إنشاء النموذج. كما أوضح مور ، تتيح تدفقات العمل الجدولية للمستخدمين اختيار أجزاء من سير العمل التي يريدون أن تتعامل مع تقنية السيارات من Google مقابل الأجزاء التي يريدون هندسة أنفسهم. يشمل Automl ، أو التعلم الآلي الآلي - وهو ليس فريدًا بالنسبة لـ Google Cloud أو Vertex - أي تقنية تتم أتمتة جوانب تطوير الذكاء الاصطناعى ويمكن أن تتطرق إلى مراحل التطوير من البداية بمجموعة بيانات أولية لبناء نموذج للتعلم الآلي جاهز للنشر. وقال مور إن Automl يمكن أن توفر الوقت ولكن لا يمكن دائمًا التغلب على لمسة إنسانية - خاصةً عندما تكون الدقة مطلوبة. لقد أضفنا خوارزميات مُدارة جديدة بما في ذلك نماذج أبحاث متقدمة مثل TABNET ، والخوارزميات الجديدة لاختيار الميزات ، وتقطير النموذج ، و ... المزيد.

إلى أنابيب التطوير ، تكتسب Vertex أيضًا تكاملًا (في معاينة) مع Spark Serverless ، الإصدار بدون خادم من OPE
الذي تم صيانته Apache

اخلاء مسؤولية! هذا المقال لا يعبر بالضرورة عن رأي جامعة الرازي