Logos

أصوات مغاربية الآن علي موقع الحرة

اضغط. هنا لزيارة موقع الحرة

تكنولوجيا

حذّر بشأن السلامة.. "المنتجات اللامعة" تتسبب باستقالة موظف كبير في "أوبن إيه آي"

21 مايو 2024

استقال جان لايكي، وهو باحث رئيسي في مجال السلامة في شركة "أوبن إيه آي"، بعد أيام قليلة من إطلاق أحدث نموذج للذكاء الاصطناعي "تشات جي بي تي GPT-4o"، وذلك وفقا لتقرير نشرته صحيفة "غارديان" البريطانية.

وكشف لايكي عن سبب استقالته في تدوينة نشرها على منصة "إكس"، زاعما أن شركته السابقة "تعطي الأولوية للمنتجات اللامعة" على حساب السلامة والموثوقية.

ومصطلح المنتجات اللامعة "shiny products" في مجال التكنولوجيا والذكاء الاصطناعي يشير إلى المنتجات أو الأدوات التي تتميز بجاذبيتها البصرية أو التقنية، لكن قد لا تكون لديها فائدة عملية كبيرة أو لا تحل مشكلة حقيقية بفعالية.

وتلك "المنتجات اللامعة" غالباً ما تكون مصممة لإبهار المستخدمين بميزات متقدمة أو تصميم جذاب، لكنها قد تفتقر إلى العمق أو الأداء الملائم للاحتياجات الفعلية للمستخدمين.

وكان لايكي باحثًا رئيسيًا في مجال السلامة في شركة "OpenAI"، حيث شغل منصب رئيس مشارك لقسم المحاذاة الفائقة، مما يضمن التزام أنظمة الذكاء الاصطناعي القوية بالقيم والأهداف الإنسانية.

وجاءت تصريحاته قبل قمة الذكاء الاصطناعي العالمية في العاصمة الكورية الجنوبية، سيول، الأسبوع المقبل، حيث سيناقش السياسيون والخبراء والمديرون التنفيذيون في مجال التكنولوجيا، الرقابة على التكنولوجيا.

وأوضح لايكي في منشوره أنه على مدى الأعوام المنصرمة، "تراجعت ثقافة وعمليات السلامة" في مقابل "المنتجات اللامعة"، مشددا على أنه كان يختلف مع قيادة "أوبن إيه آي" حول أولويات الشركة لبعض الوقت، لكن هذه المواجهة وصلت أخيرا إلى "نقطة الانهيار"، على حد تعبيره.

وقال: "إن الشركة، التي طورت أيضًا مولد الصور Dall-E ومولد الفيديو Sora، يجب أن تستثمر المزيد من الموارد في قضايا مثل السلامة والتأثير الاجتماعي والسرية والأمن للجيل القادم من النماذج".

وتابع: "على مدى السنوات الماضية، تراجعت ثقافة وعمليات السلامة إلى المنتجات اللامعة".

ونوه لايكي إلى أنه من الصعب جدًا حل هذه المشكلات بشكل صحيح، معربا عن قلقه من "أننا لا نسير على الطريق الصحيح"، مشددا على أن الأمر أصبح "أصعب فأصعب" بالنسبة لفريقه لإجراء أبحاثه.

وأشار إلى أن "بناء آلات أكثر ذكاءً من الإنسان هو مسعى خطير بطبيعته، وبالتالي تتحمل (أوبن إيه آي) مسؤولية هائلة نيابة عن البشرية جمعاء.. ويجب عليها أن تصبح شركة للسلامة أولًا".

في المقابل، رد الرئيس التنفيذي للشركة، سام ألتمان، على تصريحات لايكي بشكره على مساهماته في ثقافة السلامة في الشركة.

وأضاف في تدوينة: "إنه على حق، لدينا الكثير لنفعله.. نحن ملتزمون بالقيام بذلك".

مواضيع ذات صلة

تكنولوجيا التعرف على الوجه قد تظهر مطابقات خاطئة . أرشيفية - تعبيرية
تكنولوجيا التعرف على الوجه قد تظهر مطابقات خاطئة . أرشيفية - تعبيرية

تسببت "مطابقات" خاطئة باستخدام تكنولوجيا "التعرف على الوجه" في مدينة ديترويت بولاية ميشيغان في اعتقالات غير صحيحة، ما أجبر إدارة الشرطة على تبني سياسات جديدة.

وبسبب الاعتقالات الخاطئة اضطرت شرطة ديترويت إلى إجراء تسوية، الجمعة، مع أحد الأشخاص الذين اعتقلتهم بشكل خاطئ، والتي تضمنت اعتماد "قواعد جديدة لاستخدام الشرطة تقنيات التعرف على الوجه"، بحسب تقرير نشرته صحيفة نيويورك تايمز.

وتكنولوجيا "التعرف على الوجه" هي تقنية للتحقق من هوية الشخص من خلال صورة رقمية أو فيديو، اعتمادا على ملامح الوجه التي تكون مخزنة في قاعدة البيانات أو على الإنترنت، باستخدام "خوارزميات" معقدة تعمل بأنظمة الذكاء الاصطناعي أحيانا.

وقال اتحاد الحريات المدنية الأميركي، الذي مثّل أحد ضحايا هذه التكنولوجيا أن هذه القواعد الجديدة يجب أن "تمثل المعيار الوطني الجديدة" لاستخدام تقنيات التعرف على الوجه.

وكان روبرت ويليامز أول شخص تعتقله شرطة ديترويت، في عام 2020، بشكل خاطئ بعد اعتمادها على تقنية التعرف على الوجه، التي حددته كمشتبه به في قضية.

وتشير الصحيفة إلى أن وكالات إنفاذ القانون في جميع الولايات تستخدم "تقنية التعرف على الوجه" لتحديد المتهمين في جرائم تحدث، إذ تتم مقارنة الصور المتوفرة لمرتكب الجريمة مع "قاعدة بيانات الصور" والتي قد تكون متواجدة في قواعد بيانات رسمية أو حتى تلك المتوفرة على شبكات التواصل الاجتماعي والإنترنت.

وفي ديترويت، كانت الشرطة تقوم بعرض بعض هذه الصور على شهود العيان ضمن مجموعة صور للتعرف عليها، وهذه القاعدة سيتم التخلي عنها، ما لم يكن لديهم دليل حقيقي يربط الصورة التي ولدها نظام التعرف على الوجه بارتكاب الجريمة.

وتقول أجهزة إنفاذ القانون إن تقنية التعرف على الوجه "أداة قوية للمساعدة في حل الجرائم"، ولكن بعض المدن والولايات حظرت استخدامها مثل سان فرانسيسكو وأوستن بتكساس وبورتلاند في أوريغون بسبب "مخاوف الخصوصية والتحيز العنصري".

وكانت منظمة العفو الدولية قد شنت حملات لحظر استخدام هذه التقنيات من قبل الأجهزة الأمنية، مؤكدة أن الصور التي تستخدم في إعداد مثل هذه الأنظمة تعتمد في الأغلب على الوجوه البيضاء، وبالتالي فإنها تتمتع بأدنى معدلات الدقة عندما يتعلق الأمر بتحديد الأشخاص من ذوي البشرة الداكنة، والإناث والذين تتراوح أعمارهم بين 18 و30 عاما.

وبحسب دراسة أجراها المعهد الوطني للمعايير والتقنية (NIST) الأميركي خلال عام 2017 على 140 حالة للتعرف على الوجوه، تبيّن أن "المعدلات الإيجابية الخاطئة هي الأعلى في غرب وشرق أفريقيا وشرق آسيا، والأدنى في الأفراد بشرق أوروبا".