Cyrus Radfar
المساهم
Cyrus Radfar هو الشريك المؤسس في V1 Worldwide.
المزيد من المشاركات من قبل هذا المساهم
التحيز في الذكاء الاصطناعي: مشكلة معترف بها ولكنها لا تزال غير محددة
كيف تتجول المركبات المستقلة وفرطها على طول
هناك أولئك الذين يمتدحون للتكنولوجيا كحل لبعض مشاكل البشرية البشرية وأولئك الذين يشيدون منظمة العفو الدولية باعتبارها أعظم تهديد وجودي في العالم. بالطبع هذه طرفيان من الطيف وبالتأكيد تقدم فرصًا مثيرة للمستقبل فضلاً عن التغلب على المشكلات الصعبة.
واحدة من القضايا التي جذبت الكثير كان احتمال التحيز في الذكاء الاصطناعي. إنه موضوع كتبت عنه في TechCrunch (Tyrant in the Code) منذ أكثر من عامين. يدور النقاش. ولكن عند البحث عن أيدي سوداء كانت الصور أكثر إهانة بكثير بما في ذلك يد بيضاء تتواصل لتقديم المساعدة لأيدي سوداء أو أيدي سوداء تعمل في الأرض. لقد كان اكتشافًا مروعًا أدى إلى ادعاءات بأن تقنيات الذكاء الاصطناعى بدلاً من شفاء الانقسامات في المجتمع ستؤدي إلى إدامةهم.
كما أكدت قبل عامين فلا عجب أن تحدث مثل هذه الحالات. في عام 2017 على الأقل فإن الغالبية العظمى من الأشخاص الذين يصممون خوارزميات الذكاء الاصطناعى في الولايات المتحدة كانوا من الذكور البيض. وعلى الرغم من أنه لا يوجد أي ضمنا بأن هؤلاء الأشخاص متحيزين ضد الأقليات إلا أنه من المنطقي أن ينقلوا تحيزهم الطبيعي غير الواعي في الذكاء الاصطناعى الذي يخلقونه. نظرًا لأن التكنولوجيا تصبح في كل مكان بشكل متزايد في كل صناعة فسيصبح من المهم أكثر وأكثر أهمية للقضاء على أي تحيز في التكنولوجيا. منذ ذلك الحين ولكن أهميتها بشكل متوقع زادت منذ ذلك الحين. تُستخدم الآن أنظمة الذكاء الاصطناعى لمساعدة المجندين على تحديد المرشحين القابلة للحياة والضوابط القرض عند تقرير ما إذا كان سيتم إقراض المال للعملاء وحتى القضاة عند التداول فيما إذا كان المجرم المدان سيعيد إدراجه.
بالطبع يمكن للبيانات بالتأكيد أن تساعد البشر اتخاذ قرارات أكثر استنارة باستخدام الذكاء الاصطناعي والبيانات ولكن إذا كانت تقنية الذكاء الاصطناعى متحيزة فستكون النتيجة كذلك. إذا واصلنا تكليف مستقبل تقنية الذكاء الاصطناعى إلى مجموعة غير تنسيق فيمكن أن يكون الأعضاء الأكثر ضعفًا في المجتمع في وضع غير مؤات في العثور على عمل وتأمين القروض ومحاكمة من قبل النظام القضائي بالإضافة إلى المزيد.
منظمة العفو الدولية هي ثورة ستستمر سواء كانت مطلوبة أم لا.
لحسن الحظ فإن القضية المتعلقة بالتحيز في الذكاء الاصطناع المشكلة.
معهد الذكاء الاصطناعي الآن هو أحد هذه المنظمات التي تبحث في الآثار الاجتماعية لتكنولوجيا الذكاء الاصطناعي. تركز العلماء في عام 2017 من قبل العلماء الأبحاث كيت كروفورد وميريديث ويتاكر وهي تركز الآن على تأثير الذكاء الاصطناعي على حقوق الإنسان والعمل وكذلك كيفية دمج الذكاء الاصطناعي بأمان وكيفية تجنب التحيز في التكنولوجيا.
في شهر مايو من العام الماضي وضع الاتحاد الأوروبي لائحة حماية البيانات العامة (GDPR) - وهي مجموعة من القواعد التي تمنح مواطني الاتحاد الأوروبي مزيدًا من السيطرة على كيفية استخدام بياناتهم عبر الإنترنت. وعلى الرغم من أنها لن تفعل أي شيء لتحدي التحيز المباشر في تقنية الذكاء الاصطناعي فإنه سيجبر المؤسسات الأوروبية (أو أي منظمة مع عملاء أوروبيين) على أن تكون أكثر شفافية في استخدامها للخوارزميات. سيؤدي ذلك إلى ضغط إضافي على الشركات للتأكد من واثق من أصول الذكاء الاصطناعي الذي يستخدمونه. في ديسمبر 2017 أقر مجلس مدينة نيويورك ورئيس البلدية مشروع قانون يدعو إلى
المساهم
Cyrus Radfar هو الشريك المؤسس في V1 Worldwide.
المزيد من المشاركات من قبل هذا المساهم
التحيز في الذكاء الاصطناعي: مشكلة معترف بها ولكنها لا تزال غير محددة
كيف تتجول المركبات المستقلة وفرطها على طول
هناك أولئك الذين يمتدحون للتكنولوجيا كحل لبعض مشاكل البشرية البشرية وأولئك الذين يشيدون منظمة العفو الدولية باعتبارها أعظم تهديد وجودي في العالم. بالطبع هذه طرفيان من الطيف وبالتأكيد تقدم فرصًا مثيرة للمستقبل فضلاً عن التغلب على المشكلات الصعبة.
واحدة من القضايا التي جذبت الكثير كان احتمال التحيز في الذكاء الاصطناعي. إنه موضوع كتبت عنه في TechCrunch (Tyrant in the Code) منذ أكثر من عامين. يدور النقاش. ولكن عند البحث عن أيدي سوداء كانت الصور أكثر إهانة بكثير بما في ذلك يد بيضاء تتواصل لتقديم المساعدة لأيدي سوداء أو أيدي سوداء تعمل في الأرض. لقد كان اكتشافًا مروعًا أدى إلى ادعاءات بأن تقنيات الذكاء الاصطناعى بدلاً من شفاء الانقسامات في المجتمع ستؤدي إلى إدامةهم.
كما أكدت قبل عامين فلا عجب أن تحدث مثل هذه الحالات. في عام 2017 على الأقل فإن الغالبية العظمى من الأشخاص الذين يصممون خوارزميات الذكاء الاصطناعى في الولايات المتحدة كانوا من الذكور البيض. وعلى الرغم من أنه لا يوجد أي ضمنا بأن هؤلاء الأشخاص متحيزين ضد الأقليات إلا أنه من المنطقي أن ينقلوا تحيزهم الطبيعي غير الواعي في الذكاء الاصطناعى الذي يخلقونه. نظرًا لأن التكنولوجيا تصبح في كل مكان بشكل متزايد في كل صناعة فسيصبح من المهم أكثر وأكثر أهمية للقضاء على أي تحيز في التكنولوجيا. منذ ذلك الحين ولكن أهميتها بشكل متوقع زادت منذ ذلك الحين. تُستخدم الآن أنظمة الذكاء الاصطناعى لمساعدة المجندين على تحديد المرشحين القابلة للحياة والضوابط القرض عند تقرير ما إذا كان سيتم إقراض المال للعملاء وحتى القضاة عند التداول فيما إذا كان المجرم المدان سيعيد إدراجه.
بالطبع يمكن للبيانات بالتأكيد أن تساعد البشر اتخاذ قرارات أكثر استنارة باستخدام الذكاء الاصطناعي والبيانات ولكن إذا كانت تقنية الذكاء الاصطناعى متحيزة فستكون النتيجة كذلك. إذا واصلنا تكليف مستقبل تقنية الذكاء الاصطناعى إلى مجموعة غير تنسيق فيمكن أن يكون الأعضاء الأكثر ضعفًا في المجتمع في وضع غير مؤات في العثور على عمل وتأمين القروض ومحاكمة من قبل النظام القضائي بالإضافة إلى المزيد.
منظمة العفو الدولية هي ثورة ستستمر سواء كانت مطلوبة أم لا.
لحسن الحظ فإن القضية المتعلقة بالتحيز في الذكاء الاصطناع المشكلة.
معهد الذكاء الاصطناعي الآن هو أحد هذه المنظمات التي تبحث في الآثار الاجتماعية لتكنولوجيا الذكاء الاصطناعي. تركز العلماء في عام 2017 من قبل العلماء الأبحاث كيت كروفورد وميريديث ويتاكر وهي تركز الآن على تأثير الذكاء الاصطناعي على حقوق الإنسان والعمل وكذلك كيفية دمج الذكاء الاصطناعي بأمان وكيفية تجنب التحيز في التكنولوجيا.
في شهر مايو من العام الماضي وضع الاتحاد الأوروبي لائحة حماية البيانات العامة (GDPR) - وهي مجموعة من القواعد التي تمنح مواطني الاتحاد الأوروبي مزيدًا من السيطرة على كيفية استخدام بياناتهم عبر الإنترنت. وعلى الرغم من أنها لن تفعل أي شيء لتحدي التحيز المباشر في تقنية الذكاء الاصطناعي فإنه سيجبر المؤسسات الأوروبية (أو أي منظمة مع عملاء أوروبيين) على أن تكون أكثر شفافية في استخدامها للخوارزميات. سيؤدي ذلك إلى ضغط إضافي على الشركات للتأكد من واثق من أصول الذكاء الاصطناعي الذي يستخدمونه. في ديسمبر 2017 أقر مجلس مدينة نيويورك ورئيس البلدية مشروع قانون يدعو إلى
اخلاء مسؤولية! هذا المقال لا يعبر بالضرورة عن رأي جامعة الرازي