• الرئيسية
  • >
  • المدونة
  • >
  • أخبار تقنية
  • >
  • يقول المجموعة الاستشارية إن أوروبا يجب أن تمنع الذكاء الاصطناعي للمراقبة الجماهيرية وتسجيل الائتمان الاجتماعي.

يقول المجموعة الاستشارية إن أوروبا يجب أن تمنع الذكاء الاصطناعي للمراقبة الجماهيرية وتسجيل الائتمان الاجتماعي.

يقول المجموعة الاستشارية إن أوروبا يجب أن تمنع الذكاء الاصطناعي للمراقبة الجماهيرية وتسجيل الائتمان الاجتماعي.


مجموعة خبراء مستقلة مكلفة بتقديم المشورة للمفوضية الأوروبية لإبلاغ ردها التنظيمي على الذكاء الاصطناعي - أن يدعم هدف المشرعين في الاتحاد الأوروبي المتمثل في ضمان تطورات منظمة العفو الدولية وقد نشرت توصيات السياسة والاستثمار.

يتبع ذلك إرشادات الأخلاق السابقة لوكالة الذكاء الاصطناعى الجديرة بالثقة التي وضعتها فريق الخبراء ذوو المستوى الرفيع (HLEG) لعودة الذكاء الاصطناعى في أبريل عندما دعت اللجنة أيضًا للمشاركين لاختبار مسودة القواعد.

تشتمل توصيات السياسة على مستند مكون من 50 صفحة مفصل للغاية-يمكن تنزيله من صفحة الويب هذه. المجموعة التي تم إنشاؤها في يونيو 2018 تتكون من مزيج من خبراء الذكاء الاصطناعي في الصناعة وممثلي المجتمع المدني والمستشارين السياسيين وربما السياسات والأكاديميين والخبراء القانونيين.

تتضمن الوثيقة تحذيرات بشأن الاستخدام من الذكاء الاصطناعى للمراقبة الجماعية وتسجيله من مواطني الاتحاد الأوروبي مثل نظام الائتمان الاجتماعي في الصين مع الدعوة إلى المجموعة إلى حظر تام على تسجيلات النطاق الجماهيري الممكّن من الذكاء الاصطناعى. كما يحث الحكومات على الالتزام بعدم المشاركة في مراقبة شاملة للسكان لأغراض الأمن القومي. (لذلك ربما تكون المملكة المتحدة قد صوتت على مغادرة الاتحاد الأوروبي بالنظر إلى صلاحيات المراقبة الحكومية المتأرجحة التي صدرت في القانون في نهاية عام 2016.)

في حين أن هناك إغراء قوي للحكومات ' يكتب Hleg أن المجتمع الآمن 'من خلال بناء نظام مراقبة منتشرة على أساس أنظمة الذكاء الاصطناعي سيكون هذا خطيرًا للغاية إذا تم دفعه إلى مستويات متطرفة كما يكتب Hleg. يجب على الحكومات الالتزام بعدم المشاركة في المراقبة الجماعية للأفراد ونشر وشراء أنظمة الذكاء الاصطناعى الجديرة بالثقة فقط المصممة لتحترق القانون والحقوق الأساسية تتماشى مع المبادئ الأخلاقية وقوة اجتماعية-

المجموعة كما يدعو إلى مواجهة المراقبة التجارية للأفراد والمجتمعات-مما يشير إلى أن استجابة الاتحاد الأوروبي على قوة وإمكانية إساءة استخدام تقنيات الذكاء الاصطناعى يجب أن تتضمن ضمان أن تتبع الأشخاص عبر الإنترنت يتماشى تمامًا مع الحقوق الأساسية مثل الخصوصية بما في ذلك (المجموعة يحدد) عندما يتعلق الأمر بخدمات 'مجانية' (وإن كان ذلك مع تحذير بسيط حول الحاجة إلى التفكير في كيفية تأثير نماذج الأعمال). صناعة الإعلانات السلوكية عبر الإنترنت-تحذير من أن المعالجة الجماعية لـ ADTech للبيانات الشخصية لمستخدمي الويب لاستهداف الإعلانات لا تتوافق مع معايير خصوصية الاتحاد الأوروبي. قيل للصناعة التي يجب أن تتغير ممارساتها في تحرير الحقوق حتى لو لم يكن مكتب مفوض المعلومات على وشك إسقاط المطرقة حتى الآن. لكن تحذير الإصلاح كان واضحًا.

حيث يعمل صانعي السياسات في الاتحاد الأوروبي على تصميم إطار تنظيمي يحترم الحقوق لمنظمة العفو الدولية ويسعون إلى توجيه السنوات العشر القادمة+ من التطورات التقنية المتطورة في المنطقة والاهتمام الأوسع والتدقيق سيؤدي ذلك إلى سحب الممارسات الرقمية ويبدو أن نماذج الأعمال التجارية لدفع تنظيف الممارسات الرقمية الإشكالية التي تمكنت من الانتشار تحت أي من اللمسات الخفيفة أو الخفيفة للغاية قبل الآن.





تدعو HLEG أيضًا إلى دعم آليات تطوير لحماية البيانات الشخصية وللأفراد للتحكم في بياناتهم وتمكينهم - والتي يجادلون أنها ستتناول بعض جوانب متطلبات الذكاء الاصطناعي. > يجب تطوير الأدوات لتوفير التنفيذ التكنولوجي للناتج المحلي الإجمالي وتطوير الخصوصية الحفاظ/الخصوصية من خلال تصميم الأساليب الفنية لشرح المعايير والسببية في معالجة البيانات الشخصية لأنظمة الذكاء الاصطناعى (مثل التعلم الآلي الموحد) يكتبون.
< بر > دعم التطوير التكنولوجي لتقنيات عدم الكشف عن هويته وتشفيره وتطوير معايير لتبادل البيانات الآمن استنادًا إلى التحكم في البيانات الشخصية. تعزيز تعليم الجمهور العام في إدارة البيانات الشخصية بما في ذلك وعي الأفراد وتمكينه في عمليات صنع القرار الشخصية القائمة على البيانات. إنشاء تقنية

اخلاء مسؤولية! هذا المقال لا يعبر بالضرورة عن رأي جامعة الرازي