Logos

أصوات مغاربية الآن علي موقع الحرة

اضغط. هنا لزيارة موقع الحرة

تكنولوجيا التعرف على الوجه قد تظهر مطابقات خاطئة . أرشيفية - تعبيرية
تكنولوجيا التعرف على الوجه قد تظهر مطابقات خاطئة . أرشيفية - تعبيرية

تسببت "مطابقات" خاطئة باستخدام تكنولوجيا "التعرف على الوجه" في مدينة ديترويت بولاية ميشيغان في اعتقالات غير صحيحة، ما أجبر إدارة الشرطة على تبني سياسات جديدة.

وبسبب الاعتقالات الخاطئة اضطرت شرطة ديترويت إلى إجراء تسوية، الجمعة، مع أحد الأشخاص الذين اعتقلتهم بشكل خاطئ، والتي تضمنت اعتماد "قواعد جديدة لاستخدام الشرطة تقنيات التعرف على الوجه"، بحسب تقرير نشرته صحيفة نيويورك تايمز.

وتكنولوجيا "التعرف على الوجه" هي تقنية للتحقق من هوية الشخص من خلال صورة رقمية أو فيديو، اعتمادا على ملامح الوجه التي تكون مخزنة في قاعدة البيانات أو على الإنترنت، باستخدام "خوارزميات" معقدة تعمل بأنظمة الذكاء الاصطناعي أحيانا.

وقال اتحاد الحريات المدنية الأميركي، الذي مثّل أحد ضحايا هذه التكنولوجيا أن هذه القواعد الجديدة يجب أن "تمثل المعيار الوطني الجديدة" لاستخدام تقنيات التعرف على الوجه.

وكان روبرت ويليامز أول شخص تعتقله شرطة ديترويت، في عام 2020، بشكل خاطئ بعد اعتمادها على تقنية التعرف على الوجه، التي حددته كمشتبه به في قضية.

وتشير الصحيفة إلى أن وكالات إنفاذ القانون في جميع الولايات تستخدم "تقنية التعرف على الوجه" لتحديد المتهمين في جرائم تحدث، إذ تتم مقارنة الصور المتوفرة لمرتكب الجريمة مع "قاعدة بيانات الصور" والتي قد تكون متواجدة في قواعد بيانات رسمية أو حتى تلك المتوفرة على شبكات التواصل الاجتماعي والإنترنت.

وفي ديترويت، كانت الشرطة تقوم بعرض بعض هذه الصور على شهود العيان ضمن مجموعة صور للتعرف عليها، وهذه القاعدة سيتم التخلي عنها، ما لم يكن لديهم دليل حقيقي يربط الصورة التي ولدها نظام التعرف على الوجه بارتكاب الجريمة.

وتقول أجهزة إنفاذ القانون إن تقنية التعرف على الوجه "أداة قوية للمساعدة في حل الجرائم"، ولكن بعض المدن والولايات حظرت استخدامها مثل سان فرانسيسكو وأوستن بتكساس وبورتلاند في أوريغون بسبب "مخاوف الخصوصية والتحيز العنصري".

وكانت منظمة العفو الدولية قد شنت حملات لحظر استخدام هذه التقنيات من قبل الأجهزة الأمنية، مؤكدة أن الصور التي تستخدم في إعداد مثل هذه الأنظمة تعتمد في الأغلب على الوجوه البيضاء، وبالتالي فإنها تتمتع بأدنى معدلات الدقة عندما يتعلق الأمر بتحديد الأشخاص من ذوي البشرة الداكنة، والإناث والذين تتراوح أعمارهم بين 18 و30 عاما.

وبحسب دراسة أجراها المعهد الوطني للمعايير والتقنية (NIST) الأميركي خلال عام 2017 على 140 حالة للتعرف على الوجوه، تبيّن أن "المعدلات الإيجابية الخاطئة هي الأعلى في غرب وشرق أفريقيا وشرق آسيا، والأدنى في الأفراد بشرق أوروبا".

مواضيع ذات صلة

ذكاء اصطناعي- صورة تعبيرية
ذكاء اصطناعي- صورة تعبيرية

قالت شركة أميركية تنشط في مجال التكنولوجيا، إنها "اكتشفت الآلاف من العيوب ونقاط الضعف في أدوات الذكاء الاصطناعي التوليدية الشهيرة"، وأشارت إلى أن تلك الأدوات تنتج محتوى عنيفا أو جنسيا، وفق صحيفة "واشنطن بوست" الأميركية.

وقالت شركة "هييز لابس"، إن "أنشطتها تهدف إلى المساعدة في استئصال عيوب ونقاط ضعف الذكاء الاصطناعي، وتحديد الطرق الآمنة للتعامل مع تلك التقنيات".

وأشارت إلى أن بعض أدوات الذكاء الاصطناعي التوليدية أرشدت بعض المستخدمين لإنتاج أسلحة كيميائية وبيولوجية.

وأضحى الذكاء الاصطناعي مصدر قلق، مع قيام المزيد من الشركات بتوظيف الأدوات التوليدية في أنشطتها وفي إرشاد المستهلكين على منتجاتها. 

واجهت شركة غوغل، الشهر الماضي، موجة من الانتقادات، بسبب إحدى أدوات الذكاء الاصطناعي التوليدية المخصصة للإجابة على أسئلة المستخدمين

إذ أرشدت الأداة إلى أنشطة ضارة، مثل نصحها أحد المستفسرين بتناول صخرة صغيرة يوميا، كنوع من العلاج، أو إضافة الغراء إلى البيتزا، على نحو ما ذكرته الأداة لمستفسر آخر. 

وفي تقرير نشرته نهاية ماي الماضي، ذكرت صحيفة "وول ستريت جورنال" أن "معدل التحسن في أنظمة الذكاء الاصطناعي يتباطأ، وأن عدد التطبيقات أقل مما كان متصورا في الأصل، حتى بالنسبة لأكثرها قدرة".

وأشارت إلى أن معظم التحسينات النوعية والقابلة للقياس في نماذج الذكاء الاصطناعي، مثل "تشات جي بي تي" من "أوبين إيه أي"، و"جيمناي" من  غوغل، تحتاج إلى إدخال المزيد من البيانات إليها.

وفي فبراير، تعرضت شركة طيران كندا لسلسلة من الانتقادات، عندما وعد برنامج الدردشة الآلي الخاص بها، والمزود بتقنية الذكاء الاصطناعي، أحد المسافرين، بخصم مالي وهمي.

ونقلت "واشنطن بوست" عن جاك كلارك، من شركة أبحاث الذكاء الاصطناعي، قوله، إنه "مع انتشار أنظمة الذكاء الاصطناعي على نطاق واسع، سنحتاج إلى مجموعة أكبر من المؤسسات، لاختبار قدرات تلك الأنظمة، ولتجنب مشكلات السلامة".

ويلفت بعض الخبراء إلى أنه على الرغم من الجهود التي تبذلتها شركات الذكاء الاصطناعي الكبرى، إلا أنه لا يزال من السهل للغاية، إقناع هذه الأدوات بالقيام بأشياء، ليس من المفترض أن تفعلها.

ومع ذلك، يتصاعد الاعتماد على الذكاء الاصطناعي. إذ وجدت دراسة أجرتها مايكروسوفت و"لينكد إن"، أن 3 من كل 4 من المديرين والمتخصصين، يستخدمون الذكاء الاصطناعي في العمل.

وقال غراهام نيوبيغ، الأستاذ المشارك في علوم الكمبيوتر بجامعة كارنيغي ميلون، إن أدوات الرقابة الخاصة بالذكاء الاصطناعي التابعة لجهات خارجية مهمة، لأنها محايدة".

ولفت إلى أن أدوات الرقابة والأمان التابعة لجهة خارجية تتمتع بأداء أعلى، فيما يتعلق بالتدقيق، لأنه تم إنشاؤها بواسطة مؤسسة متخصصة، على عكس قيام كل شركة ببناء أدواتها المعنية بالرقابة والتدقيق.