من المسؤول عن الأكاذيب الناتجة عن الذكاء الاصطناعى؟

من المسؤول عن الأكاذيب الناتجة عن الذكاء الاصطناعى؟


من سيكون مسؤولاً عن الكلام الضار الناتج عن نماذج اللغة الكبيرة؟ نظرًا لأن AIS المتقدم مثل Openai's GPT-3 يتم تهجيه بسبب اختراقات رائعة في معالجة اللغات الطبيعية وتوليدها-وجميع أنواع التطبيقات (الإنتاجية) للتكنولوجيا يتم تصورها من كتابة النصوص العشوائية إلى أكثر من ذلك بخدمة chatbots لا يمكن تجاهل أدوات توليد النصوص عن غير قصد أتمتة سوء المعاملة ونشر اللطاخات. ولا يمكن أن يخاطر الجهات الفاعلة السيئة عن قصد بسلاح التقنية لنشر الفوضى ، والضرر على نطاق واسع ومشاهدة حرق العالم. يضعه عند نقطة واحدة (في إشارة إلى مثال على الاستجابة يتم فيه مواجهة إدخال العميل المسيء مع رد AI القزم للغاية) ، لتقديم مرشح محتوى مجاني يهدف إلى اكتشاف نص تم إنشاؤه والذي يمكن أن يكون حساسًا أو غير آمن قادم من واجهة برمجة التطبيقات - والتوصية بعدم إرجاع المستخدمين أي نص تم إنشاؤه يعتبره المرشح غير آمن. (لتوضيح ، تعرّف وثائقها غير آمنة على أنها تعني أن النص يحتوي على لغة دنيئة أو لغة متحيزة أو بغيضة ، وهو أمر يمكن أن يكون NSFW أو نص يصور مجموعات/أشخاص معينة بطريقة ضارة.).

ولكن ، ولكن ، ولكن ، ولكن ، ولكن ، ولكن ، بالنظر إلى الطبيعة الجديدة للتكنولوجيا ، لا توجد متطلبات قانونية واضحة يجب تطبيق مرشحات المحتوى. لذا فإن Openai إما يتصرف بدافع القلق لتجنب نماذجه التي تسبب أضرارًا توليدية للأشخاص-و/أو القلق السمعة-لأنه إذا ارتبطت التكنولوجيا بالسمية الفورية التي يمكن أن تخرج عن مسار. Tay AI Twitter chatbot - الذي تم إطلاقه في مارس 2016 إلى الكثير من الضجة ، حيث وصفها فريق أبحاث الشركة بتجربة في فهم المحادثة. ومع ذلك ، فقد استغرق الأمر أقل من يوم لتمهيد المكونات من قبل Microsoft بعد أن قام مستخدمو الويب 'بتعليم' الروبوت لتصفيات الكراهية العنصرية ، المعادية للسامية والنساء. لذلك انتهى الأمر بنوع مختلف من التجربة: في كيفية قيام الثقافة عبر الإنترنت بإجراء وتضخيم أسوأ نبضات يمكن للبشر. لقد زحف بناة نموذج الذكاء الاصطناعى عبر الإنترنت للحصول على الجهات الضخمة للنص المجاني الذي يحتاجونه لتدريب وطلب قدرات توليد لغتهم. (على سبيل المثال ، لكل ويكيبيديا ، جاء 60 ٪ من مجموعة بيانات التدريب قبل التدريب لـ Openai من إصدار من نسخة مرشح من الزحف الشائع-ويعرف أيضًا باسم مجموعة بيانات مجانية تتكون من بيانات الويب المكثفة.) مما يعني هذه النماذج اللغوية الكبيرة الأكثر قوة بكثير يمكن ، ومع ذلك ، الانزلاق إلى التصيد الساخرة والأسوأ.

صانعي السياسات الأوروبيين بالكاد يتصارعون مع كيفية تنظيم الأضرار عبر الإنترنت في السياقات الحالية مثل منصات وسائل التواصل الاجتماعي المفرزة خوارزمية ، حيث يمكن أن تتبع معظم الكلام على الأقل مرة أخرى الإنسان-ناهيك عن التفكير في كيفية توليد النصوص التي تعمل الذكاء الاصطناعى بمشكلة السمية عبر الإنترنت مع إنشاء مأزق جديد حول المسؤولية.

وبدون مسؤولية واضحة من المحتمل أن يكون من الصعب منع أنظمة الذكاء الاصطناع الأضرار اللغوية.

خذ تشهير. يواجه القانون بالفعل تحديات من خلال الاستجابة للمحتوى الذي تم إنشاؤه تلقائيًا وهو خطأ ببساطة.

أبحاث الأمن التي أخذها ماركوس هاتشينز إلى تيخوك قبل بضعة أشهر لإظهار ما يلي كيف يتعرض للتخويف من الذكاء الاصطناعي من Google ، كما قاله. في مقطع مقطع ملحوظ بشكل ملحوظ ، بالنظر إلى أنه يشرح كابوسًا كافكا-تشرح Hutchins أن إحدى الشركات الأكثر قيمة في العالم تنشر باستمرار اقتراحًا تشهيريًا عنه ، ويوضح Hutchins أنه إذا قمت بتسميته إلى Google. QA تم إنشاؤه تلقائيًا - حيث تنص Google بشكل خاطئ على أن Hutchins صنع فيروس Wannacry.

يشتهر Hutchins بالفعل بإيقاف wannacry. ومع ذلك ، فإن منظمة العفو الدولية من Google قد فهمت النهاية الخاطئة للعصا على هذا غير ذلك-

اخلاء مسؤولية! هذا المقال لا يعبر بالضرورة عن رأي جامعة الرازي