تكنولوجيا

رغم "أخطائها العنصرية".. هل تصلح تقنية "التعرف على الوجوه" في مكافحة الجريمة؟

20 أغسطس 2023

يثير استخدام تقنية "التعرف على الوجوه" الكثير من الجدل داخل وخارج الولايات المتحدة، وذلك بعد تكرار حالات اعتقال أشخاص مشتبه بارتكابهم جرائم في أميركا، لا سيما من أصحاب البشرة السمراء، بسبب تلك التقنية، وفقا لما ذكرت صحيفة "غارديان" البريطانية.

وكانت آخر تلك الحالات ما حدث مع سيدة أميركية من أصول أفريقية جرى اعتقالها في فبراير، وأُطلق سراحها بعد أكثر من 10 ساعات، على خلفية جريمة لم ترتكبها.

وقدّمت بورتشا وودروف، وهي من سكان ولاية ميشيغن شمالي الولايات المتحدة، شكوى بتهمة الاعتقال الاعتباطي، ضد سلطات مدينة ديترويت والشرطة المسؤولة عن التحقيق في قضية سرقة سيارة باستخدام العنف.

وهذه المرأة التي اشتبهت بها السلطات بعد عملية بحث باستخدام برنامج للتعرف على الوجوه، أمضت "نحو 11 ساعة واقفة أو جالسة على مقعد خرساني" في مركز الشرطة، عندما كانت حاملاً في شهرها الثامن، وفق الشكوى.

وتعد قضية وودروف ثالث حالة معروفة للاعتقال بسبب التعرف الخاطئ على الوجه من قبل قسم شرطة ديترويت، والحالة السادسة في الولايات المتحدة، علما أن جميع تلك الحالات تعود لأشخاص من أصول أفريقية.

وقد دق خبراء الخصوصية ومنظمات حقوق الإنسان ناقوس الخطر بشأن عدم قدرة التكنولوجيا على تحديد الأشخاص الملونين بشكل صحيح، وحذروا من انتهاكات الخصوصية ومخاطر النظام الذي يهدف إلى التعرف على أي شخص من خلال صورته أو وجهه.

أبرز الدول التي تلجأ للتقنية

مع ذلك، تواصل وكالات إنفاذ القانون والوكالات الحكومية في جميع أنحاء الولايات المتحدة وحول العالم، التعاقد مع العديد من الشركات المختصة بتقنيات التعرف على الوجوه.

واستخدمت دول مثل فرنسا وألمانيا والصين وإيطاليا تقنيات مماثلة. وفي ديسمبر  الماضي تم الكشف عن أن الشرطة الصينية استخدمت بيانات الهاتف المحمول والوجوه لتعقب المتظاهرين.

وفي وقت سابق من هذا العام، أقر المشرعون الفرنسيون مشروع قانون يمنح الشرطة سلطة استخدام الذكاء الاصطناعي في الأماكن العامة قبل أولمبياد باريس 2024، مما يجعلها أول دولة في الاتحاد الأوروبي توافق على استخدام المراقبة بالذكاء الاصطناعي.

وفي السنة الماضية، تحدثت تقارير عن وجود عن مقترحات مثيرة للجدل للسماح لقوات الشرطة في الاتحاد الأوروبي بمشاركة قواعد بيانات تتضمن صورًا لوجوه الأشخاص، والتي وصفها أحد مستشاري سياسة الحقوق المدنية بأنها "البنية التحتية الأكثر شمولاً للمراقبة الحيوية التي سنشهدها على الإطلاق في العالم".

وي حين تسعى العديد من الحكومات في جميع أنحاء العالم لمواجهة أخطار الذكاء الاصطناعي التوليدي، فإنه غالبا ما يتم إخفاء الأضرار المسجلة منذ فترة طويلة نتيجة استخدام تقنياته، كتلك الموجودة في أنظمة المراقبة.

وحتى في حالة مشروع قانون الاتحاد الأوروبي المتعلق بالذكاء الاصطناعي، الذي تم تقديمه مع عدة فقرات تقترح قيودًا على الاستخدامات عالية الخطورة للذكاء الاصطناعي مثل التعرف على الوجوه ، يقول بعض الخبراء إن "الضجة حول الذكاء الاصطناعي التوليدي قد صرفت الانتباه جزئيًا عن تلك المناقشات".

وقالت كبيرة مستشاري السياسات في منظمة الحقوق الرقمية الأوروبية، سارة تشاندر، في يونيو: "لقد كنا محظوظين جدًا لأننا وضعنا الكثير من هذه الأشياء على جدول الأعمال قبل هذا الضجيج في مجال الذكاء الاصطناعي، والذكاء الاصطناعي التوليدي".

وكانت منظمة العفو الدولية التي شنت حملة لحظر تلك التقنية، قد أكدت أن الصور  التي تستخدم في إعداد مثل الأنظمة تعتمد في الأغلب على الوجوه البيضاء، وبالتالي فإنها تتمتع بأدنى معدلات الدقة عندما يتعلق الأمر بتحديد الأشخاص من ذوي البشرة السمراء، والإناث والذين تتراوح أعمارهم بين 18 و 30 عامًا .

وبحسب دراسة أجراها المعهد الوطني للمعايير والتقنية (NIST) الأميركي خلال عام 2017 على 140 حالة للتعرف على الوجوه، تبين أن "المعدلات الإيجابية الخاطئة هي الأعلى في غرب وشرق أفريقيا وشرق آسيا، والأدنى في الأفراد في شرق أوروبا".

لكن حتى لو كانت تقنية التعرف على الوجه دقيقة تمامًا، فلن تكون أكثر أمانًا ، كما يقول المعترضون عليها.

وفي هذا الصدد تؤكد مجموعات الحريات المدنية أن تلك التكنولوجيا يمكن أن تخلق شبكة مراقبة واسعة وغير محدودة، تحطم أي مظهر من مظاهر الخصوصية في الأماكن العامة.

وأشاروا إلى أن تلك التقنية "ستساعد على التعرف على الأشخاص أينما ذهبوا، حتى لو تواجدوا في المواقع التي يمارسون فيها السلوك المحمي دستوريًا، مثل الاحتجاجات وممارسة الشعائر الدينية".

ومما زاد المخاوف، هو أن بعض أنظمة التعرف على الوجه تعتمد على تقنيات مثل "Clearview AI" التي تستخدم صورًا مأخوذة من الإنترنت دون موافقة مسبقة.

ولذلك يمكن استخدام صور وسائل التواصل الاجتماعي وصور الرأس الاحترافية وأي صور أخرى موجودة في المساحات الرقمية العامة، لتدريب أنظمة التعرف على الوجوه، والتي تُستخدم بدورها لتجريم الأشخاص.

وكان قد جرى حظر تقنية "Clearview" في العديد من الدول الأوروبية، بما في ذلك إيطاليا وألمانيا، وتم منعها من بيع بيانات التعرف على الوجه إلى الشركات الخاصة في الولايات المتحدة.

 

المصدر: موقع الحرة

مواضيع ذات صلة

بايدن وقع على وثيقة تتيح للسطات الاعتماد على الذكاء الاصطناعي للتصدي للتهديدات - مصدر الصورة Pexels
بايدن وقع على وثيقة تتيح للسطات الاعتماد على الذكاء الاصطناعي للتصدي للتهديدات - مصدر الصورة Pexels

بواسطة الذكاء الاصطناعي، تمكنت الولايات من إحراز تقدم في تحديد المحاولات الخارجية الهادفة إلى التأثير على الانتخابات الرئاسية التي ستجري بعد أقل من أسبوعين.

هذا ما أكده مستشار الأمن القومي في البيت الأبيض، جيك سوليفان، الذي شدد  على أن الطريق لا يزال طويلا لاحتواء جميع التهديدات في هذا السياق.

تصريحات سوليفان جاءت خلال مداخلة في جامعة الدفاع الوطني في واشنطن، حيث أكد مستشار الأمن القومي أنه لا بد من ضمان سلامة سلاسل التوريد للشرائح الإلكترونية التي يتم استخدامها على نطاق واسع في التجهيزات المرتبطة بالذكاء الاصطناعي حتى لا تقع هذه الشرائح في أيدي أطراف معادية.

المسؤول الأميركي سلط الضوء على وثيقة يدعو من خلالها مختلف الإدارات والوكالات الحكومية لتسريع استخدامات الذكاء الاصطناعي مع الحماية أيضًا من المخاطر المحتملة المرتبطة بالتكنولوجيا.
 


باتريك تاكر محرر الشؤون التكنولوجية في موقع " ديفينس وان" والخبير في الذكاء الاصطناعي وصف في حديث لقناة "الحرة" الوثيقة التي وقعت عليها الإدارة الأميركية بـ"التاريخية" بسبب الميزة ألتي تتمتع بها الولايات المتحدة وهي وجود كبريات الشركات المختصة الأميركية بالذكاء الاصطناعي.

وأضاف أن الجيش الأميركي معني أيضا ومهتم بالذكاء الاصطناعي ومنظومة الاستخبارات الفدرالية لديها منذ سنوات قائمة بالمبادئ الإخلاقية التي توجهها، لكنه ذكر أن هذه الوثيقة تتناول أيضا كيف يمكن استغلال الأدوات المتطورة في تكنولوجيا للذكاء الاصطناعي وتقديم النصائح للجهات الاستخبارية ومساعدة الولايات المتحدة على الحفاظ على ميزتها للتغلب على خصومها مثل الصين.

وأشار تاكر إلى أنه رغم وجود تدخلات خارجية في الانتخابات الأميركية، "لكن أيضا هناك جهد أميركي يبذل لتطوير أنظمة الذكاء الاصطناعي لصالح الولايات المتحدة".

يذكر أن الرئيس الأميركي، جو بايدن، وقع على الوثيقة في وقت سابق تتيح لمختلف الوكالات الأمنية والقوات العسكرية الأميركية الاعتماد على أحدث وأقوى التجهيزات المستخدمة في الذكاء الاصطناعي للتصدي للتهديدات المتنامية مثل الهجمات الإلكترونية بمختلف أنواعها.

كما جاء في الوثيقة أن وكالات الأمن لا يحق لها توسيع استخداماتها للذكاء الاصطناعي بطريقة من شأنها أن تنتهك الحقوق المدنية للأميركيين والتي يحميها الدستور.

وحسب العديد من التقارير فإن الهدف الرئيس من وراء هذا القرار هو جعل الولايات المتحدة قادرة على تطوير أنظمة جديدة للذكاء الاصطناعي تسمح لها بمواكبة التقدم الذي تحرزه الصين ودول منافسة أخرى في هذا المجال خاصة وأن العديد من المصادر تؤكد رصد محاولات من جهات أجنبية التدخل في الانتخابات الرئاسية الأميركية التي ستقام خلال أقل من أسبوعين وذلك من خلال حملات تضليل واسعة على شبكات التواصل الاجتماعي بواسطة الذكاء الاصطناعي.

المصدر: الحرة الليلة