Logos

أصوات مغاربية الآن علي موقع الحرة

اضغط. هنا لزيارة موقع الحرة

تكنولوجيا

باحثون يستخدمون الذكاء الاصطناعي لتفنيد نظريات المؤامرة

15 سبتمبر 2024

أشارت دراسة نشرتها مجلة "ساينس"الأميركية مؤخرا إلى نجاح باحثين في تطوير روبوت يعتمد على الذكاء الاصطناعي، للدخول في نقاش مع أشخاص يصدقون نظريات مؤامرة منتشرة على الإنترنت، وإقناعهم بتغيير آرائهم.

الدراسة التي نشرت الخميس، مولها معهد ماساتشوستس للتكنولوجيا بالتعاون مع مؤسسة جون تمبلتون، وأثبتت أنه بإمكان استخدام الذكاء الاصطناعي، أن يلمع صورته التي أصبحت مرتبطة بنشر المعلومات المضللة، كي يتمكن من محاربتها.

وقام فريق الباحثين الذي قاده أستاذ علم النفس في الجامعة الأميركية، توماس كوستيلو، بتصميم روبوت محاور، "تشات بوت"، باستخدام برمجية "تشات جي بي تي 4"، وهي أحدث إصدارات النماذج اللغوية لشركة "أوبن إيه آي"، ومقرها سان فرانسيسكو، شمال ولاية كاليفورنيا.

وفي مرحلة موالية تم تدريب ذلك الروبوت على الحوار والنقاش، باستخدام قاعدة بيانات ضخمة، تتضمن معلومات متنوعة في عدة مجالات، مثل الصحة والتغير المناخي والأفكار السياسية المتطرفة.

شملت الدراسة عينة تتضمن أكثر من ألفي شخص، تم اختيارهم طبقا لمعطيات مركز الإحصاء الوطني الأميركي، حتى تعكس الخصائص الأساسية للمجتمع الأميركي، من النواحي العرقية والثقافية والفئة العمرية وغيرها.

وأجاب المشاركون على سؤال يتعلق بفحوى الأفكار والمفاهيم التي توصف بأنها نظريات مؤامرة مخالفة للواقع، والتي يؤمنون بها. وبناء على تلك الإجابات، دخل الروبوت الجديد في حوار مع جميع الأشخاص المشاركين في الدراسة.

يشير كوستيلو إلى أن حواراً قصيراً مع برنامج محاورة يعتمد على الذكاء الاصطناعي، يمكن أن يقلص مصداقية نظريات المؤامرة، بنسبة قد تصل إلى 20 في المئة. ويأتي هذا التأكيد بعد تحليل لنتائج الحوار الذي خاضه الروبوت مع المشاركين في الدراسة، والآراء التي خرجوا بها بعد انتهاء التجربة.

لكن العلماء أشاروا إلى الحاجة لمزيد من الأبحاث المماثلة، تهدف إلى تصميم نماذج معيارية للذكاء الاصطناعي، بإمكانها تفنيد نظريات المؤامرة التي ظهرت حديثاً أو منذ مدة قصيرة، ولم يتم تداول الكثير من المعلومات حولها. إذ يعتمد نجاح الروبوت المحاور على قاعدة البيانات الضخمة، التي تمكنه من تقديم أدلة ملموسة أثناء النقاش، قصد مواجهة الأفكار المضللة، والمعلومات المزيفة. وهو ما قد يقلل من فرص نجاح الروبوت في تفنيد الأفكار البسيطة أو تلك التي تنتشر بسرعة عقب ظهورها.

تأتي هذه الدراسة بالتزامن مع تصاعد المخاوف من الاستخدام المتزايد للذكاء الاصطناعي لإنتاج محتوى مزيف، يتم نشره للتأثير على الرأي العام. إذ يمكن الذكاء الاصطناعي من جعل عمليات التضليل الإعلامي تدار بطريقة آلية، ما يمنحها زخما أكبر، وانتشاراً أوسع.  

وكانت صحيفة نيويورك تايمز أشارت إلى الاستخدام المتزايد للروبوتات المعتمدة على الذكاء الاصطناعي في الحملات الدعائية على وسائل التواصل الاجتماعي.

وتمكنت تلك الروبوتات من التفاعل مع أعداد كبيرة من الأشخاص عبر توجيه أسئلة وتعليقات مباشرة، وخلال حيز زمني قصير، في محاكاة ردود الفعل البشرية.

تتزايد المخاوف أيضاً من استخدام دول وحكومات للذكاء الاصطناعي في حملاتها الدعائية، مثل الاتهامات الموجهة لروسيا وإيران بمحاولة التأثير على الانتخابات الأميركية، والتي أثارت الكثير من الجدل السياسي في الولايات المتحدة. 

 

المصدر: موقع الحرة

مواضيع ذات صلة

ذكاء اصطناعي- صورة تعبيرية
ذكاء اصطناعي- صورة تعبيرية

قالت شركة أميركية تنشط في مجال التكنولوجيا، إنها "اكتشفت الآلاف من العيوب ونقاط الضعف في أدوات الذكاء الاصطناعي التوليدية الشهيرة"، وأشارت إلى أن تلك الأدوات تنتج محتوى عنيفا أو جنسيا، وفق صحيفة "واشنطن بوست" الأميركية.

وقالت شركة "هييز لابس"، إن "أنشطتها تهدف إلى المساعدة في استئصال عيوب ونقاط ضعف الذكاء الاصطناعي، وتحديد الطرق الآمنة للتعامل مع تلك التقنيات".

وأشارت إلى أن بعض أدوات الذكاء الاصطناعي التوليدية أرشدت بعض المستخدمين لإنتاج أسلحة كيميائية وبيولوجية.

وأضحى الذكاء الاصطناعي مصدر قلق، مع قيام المزيد من الشركات بتوظيف الأدوات التوليدية في أنشطتها وفي إرشاد المستهلكين على منتجاتها. 

واجهت شركة غوغل، الشهر الماضي، موجة من الانتقادات، بسبب إحدى أدوات الذكاء الاصطناعي التوليدية المخصصة للإجابة على أسئلة المستخدمين

إذ أرشدت الأداة إلى أنشطة ضارة، مثل نصحها أحد المستفسرين بتناول صخرة صغيرة يوميا، كنوع من العلاج، أو إضافة الغراء إلى البيتزا، على نحو ما ذكرته الأداة لمستفسر آخر. 

وفي تقرير نشرته نهاية ماي الماضي، ذكرت صحيفة "وول ستريت جورنال" أن "معدل التحسن في أنظمة الذكاء الاصطناعي يتباطأ، وأن عدد التطبيقات أقل مما كان متصورا في الأصل، حتى بالنسبة لأكثرها قدرة".

وأشارت إلى أن معظم التحسينات النوعية والقابلة للقياس في نماذج الذكاء الاصطناعي، مثل "تشات جي بي تي" من "أوبين إيه أي"، و"جيمناي" من  غوغل، تحتاج إلى إدخال المزيد من البيانات إليها.

وفي فبراير، تعرضت شركة طيران كندا لسلسلة من الانتقادات، عندما وعد برنامج الدردشة الآلي الخاص بها، والمزود بتقنية الذكاء الاصطناعي، أحد المسافرين، بخصم مالي وهمي.

ونقلت "واشنطن بوست" عن جاك كلارك، من شركة أبحاث الذكاء الاصطناعي، قوله، إنه "مع انتشار أنظمة الذكاء الاصطناعي على نطاق واسع، سنحتاج إلى مجموعة أكبر من المؤسسات، لاختبار قدرات تلك الأنظمة، ولتجنب مشكلات السلامة".

ويلفت بعض الخبراء إلى أنه على الرغم من الجهود التي تبذلتها شركات الذكاء الاصطناعي الكبرى، إلا أنه لا يزال من السهل للغاية، إقناع هذه الأدوات بالقيام بأشياء، ليس من المفترض أن تفعلها.

ومع ذلك، يتصاعد الاعتماد على الذكاء الاصطناعي. إذ وجدت دراسة أجرتها مايكروسوفت و"لينكد إن"، أن 3 من كل 4 من المديرين والمتخصصين، يستخدمون الذكاء الاصطناعي في العمل.

وقال غراهام نيوبيغ، الأستاذ المشارك في علوم الكمبيوتر بجامعة كارنيغي ميلون، إن أدوات الرقابة الخاصة بالذكاء الاصطناعي التابعة لجهات خارجية مهمة، لأنها محايدة".

ولفت إلى أن أدوات الرقابة والأمان التابعة لجهة خارجية تتمتع بأداء أعلى، فيما يتعلق بالتدقيق، لأنه تم إنشاؤها بواسطة مؤسسة متخصصة، على عكس قيام كل شركة ببناء أدواتها المعنية بالرقابة والتدقيق.