Logos

أصوات مغاربية الآن علي موقع الحرة

اضغط. هنا لزيارة موقع الحرة

تكنولوجيا

رغم "أخطائها العنصرية".. هل تصلح تقنية "التعرف على الوجوه" في مكافحة الجريمة؟

20 أغسطس 2023

يثير استخدام تقنية "التعرف على الوجوه" الكثير من الجدل داخل وخارج الولايات المتحدة، وذلك بعد تكرار حالات اعتقال أشخاص مشتبه بارتكابهم جرائم في أميركا، لا سيما من أصحاب البشرة السمراء، بسبب تلك التقنية، وفقا لما ذكرت صحيفة "غارديان" البريطانية.

وكانت آخر تلك الحالات ما حدث مع سيدة أميركية من أصول أفريقية جرى اعتقالها في فبراير، وأُطلق سراحها بعد أكثر من 10 ساعات، على خلفية جريمة لم ترتكبها.

وقدّمت بورتشا وودروف، وهي من سكان ولاية ميشيغن شمالي الولايات المتحدة، شكوى بتهمة الاعتقال الاعتباطي، ضد سلطات مدينة ديترويت والشرطة المسؤولة عن التحقيق في قضية سرقة سيارة باستخدام العنف.

وهذه المرأة التي اشتبهت بها السلطات بعد عملية بحث باستخدام برنامج للتعرف على الوجوه، أمضت "نحو 11 ساعة واقفة أو جالسة على مقعد خرساني" في مركز الشرطة، عندما كانت حاملاً في شهرها الثامن، وفق الشكوى.

وتعد قضية وودروف ثالث حالة معروفة للاعتقال بسبب التعرف الخاطئ على الوجه من قبل قسم شرطة ديترويت، والحالة السادسة في الولايات المتحدة، علما أن جميع تلك الحالات تعود لأشخاص من أصول أفريقية.

وقد دق خبراء الخصوصية ومنظمات حقوق الإنسان ناقوس الخطر بشأن عدم قدرة التكنولوجيا على تحديد الأشخاص الملونين بشكل صحيح، وحذروا من انتهاكات الخصوصية ومخاطر النظام الذي يهدف إلى التعرف على أي شخص من خلال صورته أو وجهه.

أبرز الدول التي تلجأ للتقنية

مع ذلك، تواصل وكالات إنفاذ القانون والوكالات الحكومية في جميع أنحاء الولايات المتحدة وحول العالم، التعاقد مع العديد من الشركات المختصة بتقنيات التعرف على الوجوه.

واستخدمت دول مثل فرنسا وألمانيا والصين وإيطاليا تقنيات مماثلة. وفي ديسمبر  الماضي تم الكشف عن أن الشرطة الصينية استخدمت بيانات الهاتف المحمول والوجوه لتعقب المتظاهرين.

وفي وقت سابق من هذا العام، أقر المشرعون الفرنسيون مشروع قانون يمنح الشرطة سلطة استخدام الذكاء الاصطناعي في الأماكن العامة قبل أولمبياد باريس 2024، مما يجعلها أول دولة في الاتحاد الأوروبي توافق على استخدام المراقبة بالذكاء الاصطناعي.

وفي السنة الماضية، تحدثت تقارير عن وجود عن مقترحات مثيرة للجدل للسماح لقوات الشرطة في الاتحاد الأوروبي بمشاركة قواعد بيانات تتضمن صورًا لوجوه الأشخاص، والتي وصفها أحد مستشاري سياسة الحقوق المدنية بأنها "البنية التحتية الأكثر شمولاً للمراقبة الحيوية التي سنشهدها على الإطلاق في العالم".

وي حين تسعى العديد من الحكومات في جميع أنحاء العالم لمواجهة أخطار الذكاء الاصطناعي التوليدي، فإنه غالبا ما يتم إخفاء الأضرار المسجلة منذ فترة طويلة نتيجة استخدام تقنياته، كتلك الموجودة في أنظمة المراقبة.

وحتى في حالة مشروع قانون الاتحاد الأوروبي المتعلق بالذكاء الاصطناعي، الذي تم تقديمه مع عدة فقرات تقترح قيودًا على الاستخدامات عالية الخطورة للذكاء الاصطناعي مثل التعرف على الوجوه ، يقول بعض الخبراء إن "الضجة حول الذكاء الاصطناعي التوليدي قد صرفت الانتباه جزئيًا عن تلك المناقشات".

وقالت كبيرة مستشاري السياسات في منظمة الحقوق الرقمية الأوروبية، سارة تشاندر، في يونيو: "لقد كنا محظوظين جدًا لأننا وضعنا الكثير من هذه الأشياء على جدول الأعمال قبل هذا الضجيج في مجال الذكاء الاصطناعي، والذكاء الاصطناعي التوليدي".

وكانت منظمة العفو الدولية التي شنت حملة لحظر تلك التقنية، قد أكدت أن الصور  التي تستخدم في إعداد مثل الأنظمة تعتمد في الأغلب على الوجوه البيضاء، وبالتالي فإنها تتمتع بأدنى معدلات الدقة عندما يتعلق الأمر بتحديد الأشخاص من ذوي البشرة السمراء، والإناث والذين تتراوح أعمارهم بين 18 و 30 عامًا .

وبحسب دراسة أجراها المعهد الوطني للمعايير والتقنية (NIST) الأميركي خلال عام 2017 على 140 حالة للتعرف على الوجوه، تبين أن "المعدلات الإيجابية الخاطئة هي الأعلى في غرب وشرق أفريقيا وشرق آسيا، والأدنى في الأفراد في شرق أوروبا".

لكن حتى لو كانت تقنية التعرف على الوجه دقيقة تمامًا، فلن تكون أكثر أمانًا ، كما يقول المعترضون عليها.

وفي هذا الصدد تؤكد مجموعات الحريات المدنية أن تلك التكنولوجيا يمكن أن تخلق شبكة مراقبة واسعة وغير محدودة، تحطم أي مظهر من مظاهر الخصوصية في الأماكن العامة.

وأشاروا إلى أن تلك التقنية "ستساعد على التعرف على الأشخاص أينما ذهبوا، حتى لو تواجدوا في المواقع التي يمارسون فيها السلوك المحمي دستوريًا، مثل الاحتجاجات وممارسة الشعائر الدينية".

ومما زاد المخاوف، هو أن بعض أنظمة التعرف على الوجه تعتمد على تقنيات مثل "Clearview AI" التي تستخدم صورًا مأخوذة من الإنترنت دون موافقة مسبقة.

ولذلك يمكن استخدام صور وسائل التواصل الاجتماعي وصور الرأس الاحترافية وأي صور أخرى موجودة في المساحات الرقمية العامة، لتدريب أنظمة التعرف على الوجوه، والتي تُستخدم بدورها لتجريم الأشخاص.

وكان قد جرى حظر تقنية "Clearview" في العديد من الدول الأوروبية، بما في ذلك إيطاليا وألمانيا، وتم منعها من بيع بيانات التعرف على الوجه إلى الشركات الخاصة في الولايات المتحدة.

 

المصدر: موقع الحرة

مواضيع ذات صلة

A man wearing an Apple smartwatch uses a smartphone to access the WhatsApp messaging and voice over IP (VOIP) application, in…

أصبح التشفير في السنوات الأخيرة عنصرا حاسما في حماية خصوصية الأفراد على الإنترنت، وخصوصا في الرسائل الإلكترونية وتطبيقات المراسلة.

وبينما يحمي التشفير الأفراد من الجرائم مثل سرقة الهوية أو المراقبة غير القانونية، فإن وكالات إنفاذ القانون والأمن الوطني تجادل بأن التشفير يجعل من الصعب، أو حتى مستحيلاً، على الأجهزة الأمنية التحقيق في الجرائم والتهديدات المتعلقة بالسلامة العامة، وفق موقع مركز سياسة الأمن السيبراني.

وفي تسعينيات القرن الماضي، واجه المبرمجون الذين طوروا أدوات التشفير في الولايات المتحدة صعوبة في تصدير هذه البرمجيات، حيث اعتبرت الحكومة هذه الأدوات كمواد خاضعة لرقابة مماثلة للأسلحة.

وكانت هناك مخاوف بشأن كيفية تأثير هذه التقنيات على الأمن القومي، ما أدى إلى قيود صارمة على تصدير البرمجيات التي توفر تشفيرًا قويًا.

لكن مع مرور الوقت، تغيرت الأمور بشكل ملحوظ، حيث انتصر دعاة الخصوصية، وتمكنت تقنيات التشفير من تحقيق انتشار عالمي، وفق تقرير لـ"الإيكونوميست".

ويستخدم الناس اليوم، أدوات التشفير بشكل واسع، بدءًا من الرسائل المشفرة بين المراهقين وصولاً إلى استخدامها من قبل العسكريين في مناطق النزاع مثل أوكرانيا.

وقد أدى ذلك إلى جدل بل "مواجهة" بين الحكومات والشركات التقنية بشأن التوازن بين الأمان وحقوق الأفراد.

وأحد أبرز التحديات التي تواجه التشفير هو طلبات الحكومات للوصول إلى محتوى الرسائل المشفرة.

فعلى سبيل المثال، طلبت السلطات الفرنسية مؤخرًا من بافيل دوروف، المدير التنفيذي لتطبيق "تيليغرام"، تقديم معلومات حول الرسائل المشفرة.

وبينما نفى دوروف ارتكاب أي مخالفات، فإن القوانين في بلدان مختلفة تتطلب من الشركات التقنية توفير طرق للوصول إلى المحتوى، ما يثير قلقًا بشأن إمكانية استخدام "الأبواب الخلفية" في التشفير.

وأكد دوروف في بيان، الجمعة، أن التطبيق يخطط لمراجعة سياسات مراقبة المحتوى، مشيرا إلى أنه كان يجدر على السلطات الفرنسية نقل شكواها إلى الشركة القائمة على "تيليغرام" دون اللجوء إلى اعتقاله.

وخضع دوروف، الأسبوع الماضي، لتحقيق رسمي في فرنسا فيما يتعلق باستخدام تيليغرام في جرائم مثل الاحتيال وغسل الأموال ونشر صور لاستغلال الأطفال جنسيا.

وكتب دوروف على تيليغرام يقول "99.999 بالمئة من مستخدمي تيليغرام لا علاقة لهم بالجرائم، لكن 0.001 بالمئة متورطون في أنشطة غير مشروعة يخلقون صورة سيئة للمنصة بأكملها، مما يعرض مصالح ما يقرب من مليار مستخدم للخطر".

وفي بعض البلدان، تواجه الحكومات صعوبة في التعامل مع هذه التقنيات، إذ اقترحت المملكة المتحدة تقنيات "معتمدة" لتحديد المحتوى غير القانوني، ولكن لم يتم اعتماد أي منها حتى الآن.

وفي الاتحاد الأوروبي، تم اقتراح نظام "Chat Control 2.0" الذي يجبر منصات الرسائل على مسح المواد المتعلقة بالاعتداء الجنسي على الأطفال، ما أثار جدلاً كبيرًا حول تأثير ذلك على خصوصية المستخدمين.

وفي الهند، تطلب الحكومة من تطبيقات الرسائل تنفيذ "قابلية التتبع" لتحديد مصدر الرسائل، مما أثار مواجهة مع "واتساب"، حيث تقول الشركة إن هذا الأمر يعرض التشفير للخطر، وقد تترك السوق الهندية إذا أصر المسؤولون على هذا الطلب.

وبينما تصر الشركات التقنية على الحفاظ على أمان التشفير، يواصل الخبراء في المجال تقديم حجج ضد أي تعديلات قد تضعف هذه التقنية.

في دراسة حديثة، قدمت مجموعة من الخبراء، بما فيهم ويتفيلد ديفي ورونالد ريفيست، حججًا تفصيلية ضد تقنيات المسح من جانب العميل، مشيرين إلى أن أي تدخل قد يعرض الشخص للخطر ويؤثر سلبًا على الخصوصية الفردية.

في النهاية، تظل معركة التشفير مفتوحة، حيث يتعين على الحكومات والشركات التقنية والمجتمع الدولي العمل معًا لإيجاد توازن بين الأمان والخصوصية.

يذكر أنه في العديد من الدول الاستبدادية، تم حظر التشفير أو تقييده بشدة، أما في معظم الديمقراطيات، فإن هناك تركيزا أكثر حول ما إذا كان يمكن التخفيف من قيود التشفير من عدمه. 

 

المصدر: موقع الحرة