زميل العمل هذا غير موجود: مكتب التحقيقات الفيدرالي يحذر من مقابلة DeepFakes للوظائف التقنية

زميل العمل هذا غير موجود: مكتب التحقيقات الفيدرالي يحذر من مقابلة DeepFakes للوظائف التقنية


يشعر الكثير من الناس بالقلق من احتمال التنافس مع الذكاء الاصطناعي على وظائفهم ، ولكن هذا ربما ليس ما يتوقعونه. حذر مكتب التحقيقات الفيدرالي من ارتفاع في الحالات التي يتم فيها استخدام DeepFakes والمعلومات الشخصية المسروقة للتقدم للتقدم للوظائف في الولايات المتحدة - بما في ذلك مقابلات الفيديو. لا تقم بإزالة اختبار Voight-Kampff بعد. المحتالين. يتم تحديث معايير الأمن ، والتوظيف يتكيفون ، وبالطبع سوق العمل متوحش بما فيه الكفاية بحيث يحاول توظيف الشركات والمتقدمين التحرك بشكل أسرع من أي وقت مضى. يحذر إعلان الخدمة من أن DeepFakes يتم توظيفهم مرة أخرى لأغراض شائنة - في هذه الحالة تقليد الأشخاص الذين سُرقت هوياتهم للتقدم للوظائف:
مقابلات مع المتقدمين المحتملين. في هذه المقابلات ، لا تنسق الإجراءات والحركة الشفاهية للشخص الذي شوهد مقابلة مع الكاميرا تمامًا مع صوت الشخص الذي يتحدث. في بعض الأحيان ، لا تتماشى إجراءات مثل السعال أو العطس أو الإجراءات السمعية الأخرى مع ما يتم تقديمه بصريًا. معلومات مهمة أخرى سُرقت في بعض تسرب الاختراق أو قاعدة البيانات. يمكن إنشاء DeepFake من قبل أي شخص لديه صورة جيدة أو شخصين من شخص ويستخدم لتسجيل مقطع فيديو مزيف للمحادث المستهدف ، أو حتى القيام بذلك (مع نتائج مختلطة ، كما رأينا). بالاقتران مع بيانات التطبيق المشروعة على ما يبدو ، قد يكون هذا كافياً لمدير التوظيف المتسارع للتوقيع على مقاول جديد.

لماذا؟ هناك الكثير من الأسباب. ربما لا يستطيع المتسلل العمل في الولايات المتحدة ولكنه يريد أن يدفع بالدولار. ربما يريدون الوصول إلى البيانات المرئية فقط لموظفي تلك الشركة. ربما يكون مجرد إجراء اختبار لتطوير أدوات للقيام بذلك على نطاق أوسع وتهبط ذاكرة تخزين مؤقت أكبر للبيانات القابلة للتسويق. كما يكتب مكتب التحقيقات الفيدرالي: ... تتضمن بعض المواقف المبلغ عنها الوصول إلى PII العميل ، والبيانات المالية ، وقواعد بيانات تكنولوجيا المعلومات الخاصة بتكنولوجيا المعلومات ، و/أو معلومات الملكية. لوحظت كوريا الشمالية باستخدام بيانات اعتماد مزورة لأصحاب الوظائف الأمريكية ، خاصة في قطاع العملة المشفرة حيث يمكن أن تؤثر السرقات الهائلة على قلة تداعيات. السرقة


هذه ليست المرة الأولى التي يتم فيها الإبلاغ عن هذا النوع من الأشياء. كانت الحكايات من الموظفين المزيفين وزملاء العمل موجودين منذ سنوات ، وبالطبع العمل تحت هوية مزيفة هو أحد أقدم الحيل في الكتاب. تويست هنا هو استخدام الصور التي تعمل بالطاقة الذكاء الاصطناعى للحصول على عملية المقابلة.

لحسن الحظ ، فإن الجودة ليست مقنعة بشكل خاص ... في الوقت الحالي. في حين أن Deepfakes أصبحت في بعض النواحي جيدة بشكل ملحوظ ، إلا أنها بعيدة كل البعد عن الشيء الحقيقي والبشر جيدون للغاية في اكتشاف مثل هذه الأشياء. إن وجود 10 ثوانٍ من الفيديو غير المنقطعة لا يؤدي إلى نوع من العيون من قِبل أحد المشاهدين أمر صعب بما فيه الكفاية-يبدو نصف ساعة من المحادثة الحية مستحيلاً مع الأدوات الحالية ، على افتراض أن القائم بإجراء المقابلة هو الاهتمام.

مخيبة للآمال أن مكتب التحقيقات الفيدرالي لم يتضمن أي أفضل الممارسات الواضحة لتجنب هذا النوع من الاحتيال ، ولكن من الملاحظ أن عمليات فحص الخلفية قد حددت PII المسروقة ، وقد أبلغ الناس عن هويتهم وعنوانهم والبريد الإلكتروني وما إلى ذلك. br>
والحقيقة هي أنه لا يوجد أي شخص يمكن لأي شخص فعله حيال ذلك. لا يمكن أن يظل الشخص الذي سُرقت هويته في حالة تأهب وأنه يبحث عن أشياء مشبوهة مثل رسائل البريد الإلكتروني والمكالمات الغريبة. من غير المرجح أن تستهدف الشركات الصغيرة لأنها لا تملك الكثير من

اخلاء مسؤولية! هذا المقال لا يعبر بالضرورة عن رأي جامعة الرازي