Logos

أصوات مغاربية الآن علي موقع الحرة

اضغط. هنا لزيارة موقع الحرة

مستخدمون لمنصات التواصل الاجتماعي يستعيون بالذكاء الاصطناعي للظهور كعرافيين يمكنهم التنبؤ بالمستقبل
مستخدمون لمنصات التواصل الاجتماعي يستعيون بالذكاء الاصطناعي للظهور كعرافيين يمكنهم التنبؤ بالمستقبل

هل يمكن للذكاء الاصطناعي أن يتنبأ بمستقبلك ومصيرك؟ مثلا الزواج، أو العلاقات العاطفية، أو الصحة وغيره من الأمور التي تشغل بالك وتريد أن تطمئن على مستقبلك من خلالها. ماذا لو طرحت هذا النوع من الأسئلة على أي من أنظمة الذكاء الاصطناعي المتقدمة؟

مستخدمون لمنصات مثل "تيك توك" و"سناب شات" باتوا يستعينون بفلاتر الذكاء الاصطناعي للظهور كعرافين ومتنبئين بمستقبل ومصير الناس.

وفي هذا الشأن يؤكد خبراء لموقع "فوكس" في تقرير ، الثلاثاء، أن برامج الذكاء الاصطناعي لا تستطيع التنبؤ بالمصير ولا يمكن أن تعرف تفاصيل عن حياتنا واستخلاص استنتاجات أو إخبارنا بالمستقبل.

وذكر التقرير أن بعض مستخدمي تيك توك وسناب شات يعتقدون أن هذه البرامج يمكنها التنبؤ، ومنهم من يستخدم فلاتر الذكاء الاصطناعي للتكهن حول أمور مثل العلاقات العاطفية أو استمرارية الزواج أو ما يشبه التنجيم والأبراج.

ولفت إلى أن غالبية المستخدمين لا يثقون بهذه الفلاتر وقدراتها المزعومة، وأن الجزء الأكبر منهم يعتبرها غير جادة وتافهة وسخيفة.

وأشار إلى أنه في المراحل الحالية من التطور، لا يعد الذكاء الاصطناعي أكثر من مجرد برامج تجمع البيانات في أنماط تنبؤية، ولا شيء حيال ذلك يعتبر خارقا للطبيعة.

وتقول كارين غريغوري، أستاذة علم الاجتماع في جامعة إدنبرة: "من الطبيعي أن يرغب بعض الناس في اكتشاف هذه التقنيات (...) وهذا هو جوهر ما يعرف بالتنبؤ والمقامرة".

وتؤكد أنه "ومع ذلك، فإن الذكاء الاصطناعي ليس لديه قوى سحرية أو خاصة، فهو لا يعرفك أكثر مما تعرف نفسك، ولا يكشف عن معلومات خاصة يجب الاعتماد عليها أو الوثوق بها، إنه برامج تستجيب للمدخلات وتطلق ردا".

وأضافت أنه "مهما كانت هذه الاستجابة - شيئا جميلا أو حتى هراء - يمكن أن تصبح أساسا لمعنى جديد أو تفسيرات جديدة". ووصفت هذه الظاهرة بأنها "امتداد كبير لفضول الإنسان لمعرفة ما سيحدث مستقبلا وإدارة حالة عدم اليقين والقلق".

تخوفات بشأن "ما تحمله بعض أنظمة الذكاء الاصطناعي للبشر في المستقبل"
تخوفات بشأن "ما تحمله بعض أنظمة الذكاء الاصطناعي للبشر في المستقبل"- صورة تعبيرية
تزييف للحقائق
ويهدد الذكاء الاصطناعي عبر الإنترنت، قدرة المجتمع على فصل الحقيقة عن الخيال، بحسب تقرير لصحيفة "نيويورك تايمز"، نشر في أواخر يونيو الماضي.

وأوضحت الصحيفة أنه لكشف التزييف، تقدم مجموعة من الشركات، التي بدأت تظهر وتتزايد مؤخرا، خدمات لاكتشاف ما هو حقيقي وما هو غير حقيقي.

وتقوم أدوات هذه الشركات بتحليل المحتوى باستخدام خوارزميات معقدة، والتقاط إشارات خفية لتمييز الصور المصنوعة باستخدام أجهزة الكمبيوتر عن تلك الحقيقية التي يلتقطها المصورون والفنانون من البشر. لكن بعض خبراء التكنولوجيا أعربوا عن قلقهم من أن الذكاء الاصطناعي سيظل دائما متقدما على مثل هذه الأدوات.

الابتزاز الجنسي
ويسهل التقدم السريع في تقنيات الذكاء الاصطناعي عمل المحتالين لابتزاز ضحاياهم، بمن فيهم الأطفال، من خلال التلاعب بالصور البريئة وتحويلها إلى محتوى إباحي مزيف، وفق ما ذكره تقرير من موقع "أكسيوس"، نشر في يونيو الماضي، عن خبراء.

ويأتي التحذير بالتزامن مع تزايد "الابتزاز الجنسي" الذي يستهدف الأطفال والمراهقين والذي تم ربطه بأكثر من 12 حالة انتحار، وفقا لمكتب التحقيقات الفيدرالي "أف بي آي".

تهديد الوظائف
ويجمع خبراء اقتصاديون على أن برامج الذكاء الاصطناعي التي تنتشر بكثرة هذه الأيام، تشكل خطرا على وظائف العاملين بقطاعات متنوعة، على غرار ما فعلته الثورة الصناعية والآلات والروبوتات بملايين الوظائف خلال العقود الماضية.

وفي ظل هذه الأجواء تطرح تساؤلات عن مدى تأثير الذكاء الاصطناعي على أسواق العمل، في وقت يحذر فيه مسؤولون من انعكاسات محتملة على الوظائف، وسط دعوات لصناع القرار والمختصين بضرورة ضبط ذلك ووضع تشريعات مناسبة للتعامل مع هذا الأمر المستجد.

وحذرت النائبة الأولى لمدير عام صندوق النقد الدولي، غيتا غوبيناث، في يونيو الماضي، من مخاطر حدوث "اضطرابات كبيرة في أسواق العمل" ناجمة عن الذكاء الاصطناعي، ودعت، في حديثها لصحيفة "فاينانشيال تايمز"، صانعي السياسة إلى صياغة قواعد للتحكم بهذه التكنولوجيا.

وذكرت الصحيفة أن غوبيناث، التي تعد المسؤولة الثانية في الصندوق، قالت إن تكنولوجيا الذكاء الاصطناعي، مثل "شات جي بي تي"، يمكن أن تعزز الإنتاجية والناتج الاقتصادي، لكنها حذرت من أن المخاطر "كبيرة جدا"، على حد قولها.

المصدر: الحرة/ترجمات

مواضيع ذات صلة

تكنولوجيا

باحثون يستخدمون الذكاء الاصطناعي لتفنيد نظريات المؤامرة

15 سبتمبر 2024

أشارت دراسة نشرتها مجلة "ساينس"الأميركية مؤخرا إلى نجاح باحثين في تطوير روبوت يعتمد على الذكاء الاصطناعي، للدخول في نقاش مع أشخاص يصدقون نظريات مؤامرة منتشرة على الإنترنت، وإقناعهم بتغيير آرائهم.

الدراسة التي نشرت الخميس، مولها معهد ماساتشوستس للتكنولوجيا بالتعاون مع مؤسسة جون تمبلتون، وأثبتت أنه بإمكان استخدام الذكاء الاصطناعي، أن يلمع صورته التي أصبحت مرتبطة بنشر المعلومات المضللة، كي يتمكن من محاربتها.

وقام فريق الباحثين الذي قاده أستاذ علم النفس في الجامعة الأميركية، توماس كوستيلو، بتصميم روبوت محاور، "تشات بوت"، باستخدام برمجية "تشات جي بي تي 4"، وهي أحدث إصدارات النماذج اللغوية لشركة "أوبن إيه آي"، ومقرها سان فرانسيسكو، شمال ولاية كاليفورنيا.

وفي مرحلة موالية تم تدريب ذلك الروبوت على الحوار والنقاش، باستخدام قاعدة بيانات ضخمة، تتضمن معلومات متنوعة في عدة مجالات، مثل الصحة والتغير المناخي والأفكار السياسية المتطرفة.

شملت الدراسة عينة تتضمن أكثر من ألفي شخص، تم اختيارهم طبقا لمعطيات مركز الإحصاء الوطني الأميركي، حتى تعكس الخصائص الأساسية للمجتمع الأميركي، من النواحي العرقية والثقافية والفئة العمرية وغيرها.

وأجاب المشاركون على سؤال يتعلق بفحوى الأفكار والمفاهيم التي توصف بأنها نظريات مؤامرة مخالفة للواقع، والتي يؤمنون بها. وبناء على تلك الإجابات، دخل الروبوت الجديد في حوار مع جميع الأشخاص المشاركين في الدراسة.

يشير كوستيلو إلى أن حواراً قصيراً مع برنامج محاورة يعتمد على الذكاء الاصطناعي، يمكن أن يقلص مصداقية نظريات المؤامرة، بنسبة قد تصل إلى 20 في المئة. ويأتي هذا التأكيد بعد تحليل لنتائج الحوار الذي خاضه الروبوت مع المشاركين في الدراسة، والآراء التي خرجوا بها بعد انتهاء التجربة.

لكن العلماء أشاروا إلى الحاجة لمزيد من الأبحاث المماثلة، تهدف إلى تصميم نماذج معيارية للذكاء الاصطناعي، بإمكانها تفنيد نظريات المؤامرة التي ظهرت حديثاً أو منذ مدة قصيرة، ولم يتم تداول الكثير من المعلومات حولها. إذ يعتمد نجاح الروبوت المحاور على قاعدة البيانات الضخمة، التي تمكنه من تقديم أدلة ملموسة أثناء النقاش، قصد مواجهة الأفكار المضللة، والمعلومات المزيفة. وهو ما قد يقلل من فرص نجاح الروبوت في تفنيد الأفكار البسيطة أو تلك التي تنتشر بسرعة عقب ظهورها.

تأتي هذه الدراسة بالتزامن مع تصاعد المخاوف من الاستخدام المتزايد للذكاء الاصطناعي لإنتاج محتوى مزيف، يتم نشره للتأثير على الرأي العام. إذ يمكن الذكاء الاصطناعي من جعل عمليات التضليل الإعلامي تدار بطريقة آلية، ما يمنحها زخما أكبر، وانتشاراً أوسع.  

وكانت صحيفة نيويورك تايمز أشارت إلى الاستخدام المتزايد للروبوتات المعتمدة على الذكاء الاصطناعي في الحملات الدعائية على وسائل التواصل الاجتماعي.

وتمكنت تلك الروبوتات من التفاعل مع أعداد كبيرة من الأشخاص عبر توجيه أسئلة وتعليقات مباشرة، وخلال حيز زمني قصير، في محاكاة ردود الفعل البشرية.

تتزايد المخاوف أيضاً من استخدام دول وحكومات للذكاء الاصطناعي في حملاتها الدعائية، مثل الاتهامات الموجهة لروسيا وإيران بمحاولة التأثير على الانتخابات الأميركية، والتي أثارت الكثير من الجدل السياسي في الولايات المتحدة. 

 

المصدر: موقع الحرة