رغم "أخطائها العنصرية".. هل تصلح تقنية "التعرف على الوجوه" في مكافحة الجريمة؟
يثير استخدام تقنية "التعرف على الوجوه" الكثير من الجدل داخل وخارج الولايات المتحدة، وذلك بعد تكرار حالات اعتقال أشخاص مشتبه بارتكابهم جرائم في أميركا، لا سيما من أصحاب البشرة السمراء، بسبب تلك التقنية، وفقا لما ذكرت صحيفة "غارديان" البريطانية.
وكانت آخر تلك الحالات ما حدث مع سيدة أميركية من أصول أفريقية جرى اعتقالها في فبراير، وأُطلق سراحها بعد أكثر من 10 ساعات، على خلفية جريمة لم ترتكبها.
وقدّمت بورتشا وودروف، وهي من سكان ولاية ميشيغن شمالي الولايات المتحدة، شكوى بتهمة الاعتقال الاعتباطي، ضد سلطات مدينة ديترويت والشرطة المسؤولة عن التحقيق في قضية سرقة سيارة باستخدام العنف.
وهذه المرأة التي اشتبهت بها السلطات بعد عملية بحث باستخدام برنامج للتعرف على الوجوه، أمضت "نحو 11 ساعة واقفة أو جالسة على مقعد خرساني" في مركز الشرطة، عندما كانت حاملاً في شهرها الثامن، وفق الشكوى.
وتعد قضية وودروف ثالث حالة معروفة للاعتقال بسبب التعرف الخاطئ على الوجه من قبل قسم شرطة ديترويت، والحالة السادسة في الولايات المتحدة، علما أن جميع تلك الحالات تعود لأشخاص من أصول أفريقية.
وقد دق خبراء الخصوصية ومنظمات حقوق الإنسان ناقوس الخطر بشأن عدم قدرة التكنولوجيا على تحديد الأشخاص الملونين بشكل صحيح، وحذروا من انتهاكات الخصوصية ومخاطر النظام الذي يهدف إلى التعرف على أي شخص من خلال صورته أو وجهه.
أبرز الدول التي تلجأ للتقنية
مع ذلك، تواصل وكالات إنفاذ القانون والوكالات الحكومية في جميع أنحاء الولايات المتحدة وحول العالم، التعاقد مع العديد من الشركات المختصة بتقنيات التعرف على الوجوه.
واستخدمت دول مثل فرنسا وألمانيا والصين وإيطاليا تقنيات مماثلة. وفي ديسمبر الماضي تم الكشف عن أن الشرطة الصينية استخدمت بيانات الهاتف المحمول والوجوه لتعقب المتظاهرين.
وفي وقت سابق من هذا العام، أقر المشرعون الفرنسيون مشروع قانون يمنح الشرطة سلطة استخدام الذكاء الاصطناعي في الأماكن العامة قبل أولمبياد باريس 2024، مما يجعلها أول دولة في الاتحاد الأوروبي توافق على استخدام المراقبة بالذكاء الاصطناعي.
وفي السنة الماضية، تحدثت تقارير عن وجود عن مقترحات مثيرة للجدل للسماح لقوات الشرطة في الاتحاد الأوروبي بمشاركة قواعد بيانات تتضمن صورًا لوجوه الأشخاص، والتي وصفها أحد مستشاري سياسة الحقوق المدنية بأنها "البنية التحتية الأكثر شمولاً للمراقبة الحيوية التي سنشهدها على الإطلاق في العالم".
وي حين تسعى العديد من الحكومات في جميع أنحاء العالم لمواجهة أخطار الذكاء الاصطناعي التوليدي، فإنه غالبا ما يتم إخفاء الأضرار المسجلة منذ فترة طويلة نتيجة استخدام تقنياته، كتلك الموجودة في أنظمة المراقبة.
وحتى في حالة مشروع قانون الاتحاد الأوروبي المتعلق بالذكاء الاصطناعي، الذي تم تقديمه مع عدة فقرات تقترح قيودًا على الاستخدامات عالية الخطورة للذكاء الاصطناعي مثل التعرف على الوجوه ، يقول بعض الخبراء إن "الضجة حول الذكاء الاصطناعي التوليدي قد صرفت الانتباه جزئيًا عن تلك المناقشات".
وقالت كبيرة مستشاري السياسات في منظمة الحقوق الرقمية الأوروبية، سارة تشاندر، في يونيو: "لقد كنا محظوظين جدًا لأننا وضعنا الكثير من هذه الأشياء على جدول الأعمال قبل هذا الضجيج في مجال الذكاء الاصطناعي، والذكاء الاصطناعي التوليدي".
وكانت منظمة العفو الدولية التي شنت حملة لحظر تلك التقنية، قد أكدت أن الصور التي تستخدم في إعداد مثل الأنظمة تعتمد في الأغلب على الوجوه البيضاء، وبالتالي فإنها تتمتع بأدنى معدلات الدقة عندما يتعلق الأمر بتحديد الأشخاص من ذوي البشرة السمراء، والإناث والذين تتراوح أعمارهم بين 18 و 30 عامًا .
وبحسب دراسة أجراها المعهد الوطني للمعايير والتقنية (NIST) الأميركي خلال عام 2017 على 140 حالة للتعرف على الوجوه، تبين أن "المعدلات الإيجابية الخاطئة هي الأعلى في غرب وشرق أفريقيا وشرق آسيا، والأدنى في الأفراد في شرق أوروبا".
لكن حتى لو كانت تقنية التعرف على الوجه دقيقة تمامًا، فلن تكون أكثر أمانًا ، كما يقول المعترضون عليها.
وفي هذا الصدد تؤكد مجموعات الحريات المدنية أن تلك التكنولوجيا يمكن أن تخلق شبكة مراقبة واسعة وغير محدودة، تحطم أي مظهر من مظاهر الخصوصية في الأماكن العامة.
وأشاروا إلى أن تلك التقنية "ستساعد على التعرف على الأشخاص أينما ذهبوا، حتى لو تواجدوا في المواقع التي يمارسون فيها السلوك المحمي دستوريًا، مثل الاحتجاجات وممارسة الشعائر الدينية".
ومما زاد المخاوف، هو أن بعض أنظمة التعرف على الوجه تعتمد على تقنيات مثل "Clearview AI" التي تستخدم صورًا مأخوذة من الإنترنت دون موافقة مسبقة.
ولذلك يمكن استخدام صور وسائل التواصل الاجتماعي وصور الرأس الاحترافية وأي صور أخرى موجودة في المساحات الرقمية العامة، لتدريب أنظمة التعرف على الوجوه، والتي تُستخدم بدورها لتجريم الأشخاص.
وكان قد جرى حظر تقنية "Clearview" في العديد من الدول الأوروبية، بما في ذلك إيطاليا وألمانيا، وتم منعها من بيع بيانات التعرف على الوجه إلى الشركات الخاصة في الولايات المتحدة.
المصدر: موقع الحرة