Logos

أصوات مغاربية الآن علي موقع الحرة

اضغط. هنا لزيارة موقع الحرة

غوغل تتحرك لكشف المحتوى الزائف المصنوع بواسطة الذكاء الاصطناعي
غوغل تتحرك لكشف المحتوى الزائف المصنوع بواسطة الذكاء الاصطناعي

أعلنت "ألفابت"، الشركة الأم لغوغل، عن تطوير أدوات جديدة من أجل الحد من الصور المزيفة، خصوصًا مع الانتشار السريع للمواد المزيفة المصنوعة بواسطة الذكاء الاصطناعي.

ونقلت وكالة بلومبرغ، الاثنين، عن الشركة أن الأداة الأولى التي أطلقتها الشركة باسم "عن هذه الصورة" أو " About this image"، التي تزود المستخدمين بمعلومات أكثر، مثل متى نشرت الصورة أو صورة شبيهة لها لأول مرة على غوغل، أو على الإنترنت بشكل عام.

وأضافت "ألفابت" أن الهدف من الأداة مساعدة المستخدمين على الوصول إلى المصدر الأصلي للصور، ووضع أي صورة في سياقها الصحيح وكشف أي زيف يمكن أن تكون قدمته مؤسسة إخبارية بشأنها.

كما تعتزم غوغل تمييز أو وضع إشارة على كل صورة صُنعت بواسطة أدوات الشركة الخاصة بالذكاء الاصطناعي، وستعمل مع المنصات الأخرى على ضمان إضافة نفس هذه الإشارة على الملفات الشبيهة.

وتتعاون غوغل مع مؤسستي "ميد جيرني" و"شاتر ستوك"، وتسعى إلى ضمان أن تظهر نتائج البحث عن المحتوى المصنوع بالذكاء الاصطناعي تكون مرفقة بإشارة إلى أنها مصنوعة بتلك التقنية.

وانتشرت في الآونة الأخيرة صور كثيرة عبر مواقع التواصل الاجتماعي، مصنوعة بتقنية الذكاء الاصطناعي، ولكن الكثير من المستخدمين لم يدركوا أنها ليست حقيقية.

وشملت تلك الصور شخصيات شهيرة مثل البابا فرانسيس والملك تشارلز الثالث بجانب صور لشخصيات عادية، لكنها انتشرت بشكل كبير على أنها حقيقية.

ويثير الذكاء الاصطناعي مخاوف كبيرة في شأن استخدامه البيانات الشخصية واستغلالها، بجانب نشر الأخبار المزيفة على الإنترنت.

وكان من بين أبرز المحذرين من عدم ضمان السيطرة على التقنية، من يوصف بأنه الأب الروحي للذكاء الاصطناعي، العالم جيفري هينتون، الذي سبق وتحدث في أكثر من مناسبة عن تهديد الذكاء الاصطناعي للبشرية.

ونقلت صحيفة "نيويورك تايمز"، بوقت سابق هذا الشهر، تصريحات لهينتون قال فيها إن التطبيقات المشابهة لروبوت المحادثة "تشات جي بي تي"، يمكن بالفعل أن تتحول إلى "أداة لنشر المعلومات المضللة، وربما تمثل في القريب العاجل خطرًا على الوظائف وعلى البشرية برمتها".

وأطلقت شركة "أوبن أيه آي"، في نوفمبر من العام الماضي تطبيق روبوت المحادثة "تشات جي بي تي"، ولاقى رواجًا كبيرًا بين المستخدمين، غير أن هناك مخاوف كبيرة ظهرت تتعلق بالخصوصية أو التحيز السياسي، أو مخاوف أخرى أمنية متعلقة بالبرنامج.

ونبّه البيت الأبيض الرؤساء التنفيذيين لشركات التكنولوجيا الأميركية العملاقة، إلى مسؤوليتهم "الأخلاقية" لحماية المستخدمين من المخاطر الاجتماعية المحتملة للذكاء الاصطناعي.

كما حث الرئيس، جو بايدن، الكونغرس على إقرار قوانين تضع قيودا أكثر صرامة على قطاع التكنولوجيا.

مواضيع ذات صلة

تكنولوجيا

باحثون يستخدمون الذكاء الاصطناعي لتفنيد نظريات المؤامرة

15 سبتمبر 2024

أشارت دراسة نشرتها مجلة "ساينس"الأميركية مؤخرا إلى نجاح باحثين في تطوير روبوت يعتمد على الذكاء الاصطناعي، للدخول في نقاش مع أشخاص يصدقون نظريات مؤامرة منتشرة على الإنترنت، وإقناعهم بتغيير آرائهم.

الدراسة التي نشرت الخميس، مولها معهد ماساتشوستس للتكنولوجيا بالتعاون مع مؤسسة جون تمبلتون، وأثبتت أنه بإمكان استخدام الذكاء الاصطناعي، أن يلمع صورته التي أصبحت مرتبطة بنشر المعلومات المضللة، كي يتمكن من محاربتها.

وقام فريق الباحثين الذي قاده أستاذ علم النفس في الجامعة الأميركية، توماس كوستيلو، بتصميم روبوت محاور، "تشات بوت"، باستخدام برمجية "تشات جي بي تي 4"، وهي أحدث إصدارات النماذج اللغوية لشركة "أوبن إيه آي"، ومقرها سان فرانسيسكو، شمال ولاية كاليفورنيا.

وفي مرحلة موالية تم تدريب ذلك الروبوت على الحوار والنقاش، باستخدام قاعدة بيانات ضخمة، تتضمن معلومات متنوعة في عدة مجالات، مثل الصحة والتغير المناخي والأفكار السياسية المتطرفة.

شملت الدراسة عينة تتضمن أكثر من ألفي شخص، تم اختيارهم طبقا لمعطيات مركز الإحصاء الوطني الأميركي، حتى تعكس الخصائص الأساسية للمجتمع الأميركي، من النواحي العرقية والثقافية والفئة العمرية وغيرها.

وأجاب المشاركون على سؤال يتعلق بفحوى الأفكار والمفاهيم التي توصف بأنها نظريات مؤامرة مخالفة للواقع، والتي يؤمنون بها. وبناء على تلك الإجابات، دخل الروبوت الجديد في حوار مع جميع الأشخاص المشاركين في الدراسة.

يشير كوستيلو إلى أن حواراً قصيراً مع برنامج محاورة يعتمد على الذكاء الاصطناعي، يمكن أن يقلص مصداقية نظريات المؤامرة، بنسبة قد تصل إلى 20 في المئة. ويأتي هذا التأكيد بعد تحليل لنتائج الحوار الذي خاضه الروبوت مع المشاركين في الدراسة، والآراء التي خرجوا بها بعد انتهاء التجربة.

لكن العلماء أشاروا إلى الحاجة لمزيد من الأبحاث المماثلة، تهدف إلى تصميم نماذج معيارية للذكاء الاصطناعي، بإمكانها تفنيد نظريات المؤامرة التي ظهرت حديثاً أو منذ مدة قصيرة، ولم يتم تداول الكثير من المعلومات حولها. إذ يعتمد نجاح الروبوت المحاور على قاعدة البيانات الضخمة، التي تمكنه من تقديم أدلة ملموسة أثناء النقاش، قصد مواجهة الأفكار المضللة، والمعلومات المزيفة. وهو ما قد يقلل من فرص نجاح الروبوت في تفنيد الأفكار البسيطة أو تلك التي تنتشر بسرعة عقب ظهورها.

تأتي هذه الدراسة بالتزامن مع تصاعد المخاوف من الاستخدام المتزايد للذكاء الاصطناعي لإنتاج محتوى مزيف، يتم نشره للتأثير على الرأي العام. إذ يمكن الذكاء الاصطناعي من جعل عمليات التضليل الإعلامي تدار بطريقة آلية، ما يمنحها زخما أكبر، وانتشاراً أوسع.  

وكانت صحيفة نيويورك تايمز أشارت إلى الاستخدام المتزايد للروبوتات المعتمدة على الذكاء الاصطناعي في الحملات الدعائية على وسائل التواصل الاجتماعي.

وتمكنت تلك الروبوتات من التفاعل مع أعداد كبيرة من الأشخاص عبر توجيه أسئلة وتعليقات مباشرة، وخلال حيز زمني قصير، في محاكاة ردود الفعل البشرية.

تتزايد المخاوف أيضاً من استخدام دول وحكومات للذكاء الاصطناعي في حملاتها الدعائية، مثل الاتهامات الموجهة لروسيا وإيران بمحاولة التأثير على الانتخابات الأميركية، والتي أثارت الكثير من الجدل السياسي في الولايات المتحدة. 

 

المصدر: موقع الحرة