مخاطر الذكاء الاصطناعي الأخلاقي

مخاطر الذكاء الاصطناعي الأخلاقي

Kyle Dent
مساهم





Kyle Dent هو مدير منطقة البحث Forparc وهي شركة Xerox تركز على التفاعل بين الأشخاص والتكنولوجيا. لجنة مراجعة الأخلاقيات في PARC.



يتم استخدام الذكاء الاصطناعي الآن لاتخاذ قرارات بشأن الأرواح وسبل العيش والتفاعلات في العالم الحقيقي بطرق تشكل مخاطر حقيقية على الناس.

كنا جميعا متشككين ذات مرة. منذ وقت ليس ببعيد عقدت الحكمة التقليدية أن ذكاء الآلة أظهرت وعدًا كبيرًا لكنه كان دائمًا على بعد بضع سنوات فقط. اليوم هناك إيمان مطلق بأن المستقبل قد وصل.

ليس من المستغرب بالسيارات التي (في بعض الأحيان وتحت ظروف معينة) تقود نفسها وبرمجيات تتفوق على البشر في ألعاب مثل الشطرنج والذهاب. لا يمكنك إلقاء اللوم على الناس على إعجابهم. الولايات المتحدة (على الأقل لا يخلو من بعض الإخفاقات الكارثية).

يتم استخدام الذكاء الاصطناعي في عدد مذهل من الطلبات مما يجعل الأحكام حول الأداء الوظيفي والتوظيف والقروض والعدالة الجنائية من بين آخرين كثيرين. معظم الناس ليسوا على دراية بالمخاطر المحتملة في هذه الأحكام. يجب أن يكونوا. هناك شعور عام بأن التكنولوجيا محايدة بطبيعتها - حتى بين العديد من أولئك الذين يطورون حلول الذكاء الاصطناعى. لكن مطوري الذكاء الاصطناعى يتخذون القرارات ويختارون التجارة التي تؤثر على النتائج. يقوم المطورون بتضمين خيارات أخلاقية داخل التكنولوجيا لكن دون التفكير في قراراتهم في تلك المصطلحات.

عادةً ما تكون هذه التجارة تقنية ودقيقة ولا تكون الآثار المترتبة على النزول واضحة دائمًا عند النقطة التي يتم اتخاذها.

حادث Uber thefatal في Tempe أريزونا هو (غير محكم) ولكنه مثال توضيحي جيد يجعل من السهل معرفة كيف يحدث. حان الوقت للتوقف لكن المطورين قاموا بتعديل نظام الفرامل في حالات الطوارئ لصالح عدم الكبح أكثر من اللازم وتوازن بين التجارة بين القيادة المتشنجة والسلامة. اختار مطورو Uber الاختيار الأكثر قابلية للتطبيق تجاريًا. في نهاية المطاف ستتحسن تقنية القيادة المستقلة إلى حد يسمح بكل من الأمان والقيادة السلسة ولكن هل سنضع سيارات مستقلة على الطريق قبل حدوث ذلك؟ إن الاهتمامات المؤيدة تدفع بجد للحصول عليها على الطريق على الفور.


uber في تحطم قاتلة تم اكتشاف المشاة ولكن كان لدى الكبح في حالات الطوارئ


المخاطر المادية تشكل خطرًا واضحًا ولكن كان هناك ضرر حقيقي من أنظمة اتخاذ القرارات الآلية أيضًا. الذكاء الاصطناعي في الواقع لديه القدرة على الاستفادة من العالم. من الناحية المثالية فإننا نخفف من الجوانب السلبية من أجل الحصول على الفوائد بأقل ضرر.

خطر كبير هو أننا نتقدم باستخدام تقنية الذكاء الاصطناعي على حساب الحد من حقوق الإنسان الفردية. نحن نرى ذلك بالفعل. أحد الأمثلة المهمة هو أن الحق في استئناف القرارات القضائية يضعف عند إشراك أدوات الذكاء الاصطناعي. في العديد من الحالات الأخرى لا يعرف الأفراد حتى أن خيار عدم توظيف قرض أو ترويجه أو تمديده له من قبل خوارزمية إحصائية.

احذر المشتري

التكنولوجيا في وضع غير مؤات عندما يعرفون أقل من ذلك بكثير من البائعين. بالنسبة للجزء الأكبر من صانعي القرار ليسوا مجهزة لتقييم الأنظمة الذكية. من الناحية الاقتصادية هناك عدم تناسق في المعلومات يضع مطوري الذكاء الاصطناعي في وضع أكثر قوة على أولئك الذين قد يستخدمونها. (ملاحظة جانبية: لا تتمتع مواضيع قرارات الذكاء الاصطناعي عمومًا بأي قوة على الإطلاق.) طبيعة الذكاء الاصطناعى هي أنك ببساطة تثق (أو لا) في القرارات التي تتخذها. لا يمكنك أن تسأل التكنولوجيا لماذا قررت شيئًا ما أو إذا نظرت في بدائل أخرى أو تشير إلى افتراضات لاستكشاف الاختلافات في السؤال الذي طرحته. بالنظر إلى الثقة الحالية في التكنولوجيا فإن وعود البائعين حول طريقة أرخص وأسرع لإنجاز المهمة يمكن أن تكون جذابة للغاية.

حتى الآن نحن كسيوع

اخلاء مسؤولية! هذا المقال لا يعبر بالضرورة عن رأي جامعة الرازي