جوجل حظر الذكاء الاصطناعي من جوجل من كولاب

جوجل حظر الذكاء الاصطناعي من جوجل من كولاب


حظرت Google تدريب أنظمة الذكاء الاصطناعي التي يمكن استخدامها لإنشاء DeepFakes على منصة Google Colaboratory الخاصة بها. تتضمن شروط الاستخدام المحدثة ، التي تم رصدها خلال عطلة نهاية الأسبوع بواسطة Unite.ai و BleepingComputer ، العمل المتعلق بـ DeepFakes في قائمة المشاريع غير المسموح بها.
في أواخر عام 2017. تم تصميمه للسماح لأي شخص بكتابة وتنفيذ رمز بيثون التعسفي من خلال متصفح الويب ، وخاصة رمز التعلم الآلي والتعليم وتحليل البيانات. لهذا الغرض ، توفر Google كلاً من مستخدمي كولاب مجاني ودفع إمكانية الوصول إلى الأجهزة بما في ذلك وحدات معالجة الرسومات ووحدات معالجة الموترات المصممة خصيصًا من Google (TPUS).

في السنوات الأخيرة ، أصبح كولاب منصة فعالة للعروض التجريبية داخل مجتمع أبحاث الذكاء الاصطناعي. ليس من غير المألوف بالنسبة للباحثين الذين كتبوا رمزًا لتضمين روابط إلى صفحات كولاب على أو بجانب مستودعات Github التي تستضيف الرمز. لكن Google لم تكن تاريخيًا تاريخياً عندما يتعلق الأمر بمحتوى كولاب ، مما يحتمل أن يفتح الباب للممثلين الذين يرغبون في استخدام الخدمة لأغراض أقل دقة. تتغير شروط الاستخدام الأسبوع الماضي ، عندما تلقى العديد منهم رسالة خطأ بعد محاولة تشغيل DeepFacelab في كولاب. قراءة التحذير: قد تقوم بتنفيذ رمز غير مسموح به ، وقد يقيد هذا قدرتك على استخدام كولاب في المستقبل. يرجى ملاحظة الإجراءات المحظورة المحددة في الأسئلة الشائعة.

لا تثير كل الكود التحذير. تمكن هذا المراسل من إدارة واحدة من مشاريع Deepfake Colab الأكثر شعبية دون مشكلة ، وأبلغ مستخدمو Reddit أن مشروعًا رائدًا آخر ، FacesWap ، لا يزال يعمل بكامل طاقته. هذا يشير إلى إنفاذ التطبيق هو القائمة السوداء - بدلاً من الكلمات الرئيسية - وأنه سيكون على حقوق التصديق على مجتمع كولاب للإبلاغ عن رمز يمتد من القاعدة الجديدة. إلى مبادئ منظمة العفو الدولية من Google ، مع موازنة دعم مهمتنا لمنح مستخدمينا الوصول إلى الموارد القيمة مثل TPUS و GPU. تمت إضافة Deepfakes إلى قائمتنا من الأنشطة غير المسموح بها من Colab Runtimes الشهر الماضي استجابةً لمراجعاتنا المعتادة للأنماط المسيئة. إن ردع الإساءة هي لعبة متطورة باستمرار ، ولا يمكننا الكشف عن أساليب محددة حيث يمكن للآثار المقابلة الاستفادة من المعرفة للتهرب من أنظمة الكشف. بشكل عام ، لدينا أنظمة آلية تكتشف ويحظر العديد من أنواع الإساءة. تم ترك القيود السابقة على أشياء مثل تشغيل هجمات رفض الخدمة ، وتكسير كلمة المرور وتنزيل السيول دون تغيير. لصق فوق وجه آخر. على عكس وظائف الفوتوشوب الخام في الأمس ، يمكن أن تتطابق الأفعال العميقة التي تم إنشاؤها من الذكاء الاصطناع إلى حركات جسم الشخص ، والاندماج الدقيق وألوان البشرة بشكل أفضل من CGI المنتجة في هوليوود في بعض الحالات. أظهرت مقاطع الفيديو. لكن يتم استخدامها بشكل متزايد من قبل المتسللين لاستهداف مستخدمي وسائل التواصل الاجتماعي في مخططات الابتزاز والاحتيال. وبشكل أكثر شائكة ، تم الاستفادة من ذلك في الدعاية السياسية ، على سبيل المثال لإنشاء مقاطع فيديو للرئيس الأوكراني فولوديمير زيلنسكي لإلقاء خطاب حول الحرب في أوكرانيا التي لم يعطيها بالفعل.

من 2019 إلى 2021 ، عدد من نمت Deepfakes Online من حوالي 14000 إلى 145000 ، وفقا لمصدر واحد. Forrester Researchestimatedin في أكتوبر 2019 أن عمليات احتيال Deepfake ستكلف 250 مليون دولار بحلول نهاية عام 2020.

في جامعة سارلاند في ألمانيا ، أخبر TechCrunch عبر البريد الإلكتروني. إنه يشبه إلى حد ما

اخلاء مسؤولية! هذا المقال لا يعبر بالضرورة عن رأي جامعة الرازي