Logos

أصوات مغاربية الآن علي موقع الحرة

اضغط. هنا لزيارة موقع الحرة

تكنولوجيا

تحذيرات من "انقراض البشرية".. فرصة الذكاء الاصطناعي الخطرة

31 مايو 2023

رغم التحذيرات من مخاطره على وظائف البشر وقدرتهم على الإبداع العلمي والثقافي، وأخيرا من احتمال أن يؤدي إلى "انقراض البشرية"، يحتل الذكاء الاصطناعي عناوين الأخبار وجزءا كبيرا من محادثات المهتمين بالتكنولوجيا وحتى غير المتخصصين في هذا المجال.

مع هذا، لا يكاد يمر يوم من دون انضمام آلاف – إن لم يكن مئات الآلاف – إلى ركب مستخدمي التطبيقات التي يدخل الذكاء الاصطناعي في تصميمها، كما أن شركات التكنولوجيا الكبرى تعلن بشكل مستمر عن تطويرات جديدة هائلة وأدوات جديدة تعظم قدرات خوادم الكومبيوتر على "التفكير" بشكل مستقل، والتعلم من البيئة التي تحيط بها.

والثلاثاء أصدرت مجموعة من خبراء التقنيات والكومبيوتر العالميين، بيانا جديدا طالبوا فيه بـ"العمل على تخفيف خطر انقراض البشرية من جراء الذكاء الاصطناعي"، وجعله "أولوية مع مخاطر أخرى مثل الجائحات والحرب النووية".

وشملت قائمة الموقعين سام التمان، رئيس شركة OpenAI صاحبة موديل الذكاء الاصطناعي الأشهر ChatGPT وجيفري هينتون، عالم الكمبيوتر المعروف بلقب الأب الروحي للذكاء الاصطناعي، وكيفن سكوت، الرئيس التنفيذي للتكنولوجيا في شركة مايكروسوفت، وآخرين.

لكن ما هي المخاطر التي يمثلها فعلا الذكاء الاصطناعي؟ وما هي الإيجابيات التي يمكن تحقيقها من خلال تطويره؟

الخطر على البشرية

تقول رسالة وجهها في مارس "معهد مستقبل الحياة"، وهي منظمة مكرسة لاستكشاف المخاطر الوجودية على البشرية، إنه نظرا لأن أنظمة الذكاء الاصطناعي غالبا ما تتعلم سلوكا غير متوقع من الكميات الهائلة من البيانات التي تحللها، فقد تشكل مشاكل خطيرة وغير متوقعة.

وتقلق المنظمة، وفقا للرسالة، من إنه مع قيام الشركات بتوصيل نماذجها بخدمات الإنترنت، فإنه يمكن أن تكتسب هذه الأنظمة صلاحيات غير متوقعة لأنها يمكن أن تكتب رمز الكمبيوتر الخاص بها.

ويقولون إن المطورين سيخلقون مخاطر جديدة إذا سمحوا لأنظمة الذكاء الاصطناعي القوية بتشغيل التعليمات البرمجية الخاصة بها وكتابتها.

ونقلت نيويورك تايمز عن أنتوني أغيري، عالم الكونيات النظري والفيزيائي في جامعة كاليفورنيا، قوله "إذا نظرت إلى استقراء مباشر لما نحن فيه الآن إلى ثلاث سنوات من الآن، فإن الأمور غريبة جدا"، مضيفا "في سيناريو قد يكون نادر الحدوث، لكن ممكنا، فستتحول هذه الأنظمة إلى أقوى مما كنا نعتقد أنها ستكون، وتصبح الأمور مجنونة حقا".

ويقلق العلماء من القدرات الهائلة التي تمتلكها أو يمكن أن تمتلكها أنظمة الذكاء الاصطناعي في حال "تحررت" من قيودها، وفقا للصحيفة.

ويمكن فهم هذا القلق بتخيل حصول كومبيوترات فائقة القدرة على إمكانية التخلص من القيود البرمجية، حيث يمكنها نظريا فعل كل شيء، من تشغيل الطائرات المسيرة إلى السيطرة على الحسابات البنكية والبورصة وحتى الحصول على رموز تشغيل القنابل النووية ورموز أمان المفاعلات الذرية.

المعلومات المضللة

تعد المعلومات المضللة على رأس قائمة المخاطر التي يحذر منها خبراء التكنولوجيا والاقتصاد والسياسة عند الحديث عن الذكاء الاصطناعي.

ووقع محام أميركي في ورطة، بداية الأسبوع الحالي، بعد أن استعان بالذكاء الاصطناعي للبحث عن سوابق قانونية تعزز موقفه خلال دفاعه عن موكله، لكن الذكاء الاصطناعي اختلق قضايا غير موجودة، ولم ينتبه المحامي إلى ما حصل إلا بعد أن اكتشف المحامي الخصم الموضوع وأبلغ القاضي.

وبالفعل، أثبت التفاعل مع ChatGPT إن من الممكن جعله يوفر معلومات غير صحيحة في حال تم استدراجه، أو كانت الطريقة التي يُطرح بها السؤال معدة لتوجيه الجواب في اتجاه معين.

على سبيل المثال، اختلق النموذج أسماء مضللة لشخصيات تاريخية غير موجودة، كما بنى حولها أحداثا لم تحصل فعلا، واختلق ترجمات غير صحيحة لعدد يدوية ثم أضافها إلى لغات بعيدة تماما عن أصلها اللغوي.

برامج الذكاء الاصطناعي تثير جدلا واسعا

وتشير ورقة بحثية نشرها معهد بروكينغز بالاشتراك مع المعهد الإيطالي للدراسات السياسية الدولية (ISPI)، إلى أن هجمات المعلومات المضللة السريعة - أي الهجمات التي يُطلق فيها العنان للمعلومات المضللة بسرعة وعلى نطاق واسع بهدف خلق تأثير تخريبي فوري – تعد أحد أهم التحديات في النظام البيئي الرقمي.

ويقول معدو البحث إن المعلومات المضللة في حالة انتشارها يمكن أن تلحق ضررا كبيرا في ساعات أو حتى دقائق.

والانتخابات والأسواق المالية أحد المجالات حيث يمكن أن يحدث ذلك.

وحدث فعلا أن أدت صورة معدة بالذكاء الاصطناعي تظهر انفجارا في البنتاغون، الأسبوع الماضي، إلى هزة في البورصة الأميركية التي انخفضت لدقائق قليلة لكنها كانت كافية للتسبب بخسائر مالية.

ويقول الباحثون إنه يمكن أيضا استهداف الحركات الاجتماعية من خلال نشر معلومات كاذبة تهدف إلى تحفيز الفعل أو رد الفعل بين مؤيدي أو معارضي قضية ما.


"الثقة المفرطة" بالذكاء الاصطناعي

وبينما لا يزال احتمال أن تسيطر الكومبيوترات على العالم بعيدا نسبيا، فإن جامعة ستانفورد الأميركية أعدت دراسة مطولة عن مخاطر الذكاء الاصطناعي وأيضا الفرص الواعدة التي يخلقها.

وتضم القائمة عدة مخاطر من بينها "مخاطر الاعتماد على البيانات الإحصائية في نظام العدالة"، ومخاطر "استخدام التفكير الإحصائي في تقديم الرعاية الطبية"، وغيرها من المخاطر التي يمكن جمعها بأنها تحذير من الاعتماد المفرط على الذكاء الاصطناعي لاتخاذ قرارات مصيرية بدلا من البشر.

وتؤكد الدراسة أن استخدام إحصاءات متحيزة أساسا بسبب البيئة البشرية وانعدام وصول معلومات شرائح كبيرة من السكان إلى قواعد البيانات، في تحديد إمكانيات تلقي الرعاية الصحية أو حتى مسار العلاج أو التنبؤ بالسرطانات، يمكن أن يمثل خطورة كبيرة على البشر.

وذكرت الدراسة شواهد تصرفت فيها أنظمة الذكاء الاصطناعي بعنصرية "جوهرية" عند تحديد المستفيدين من علاج معين أو حتى تحديد مخاطر الإصابة بنوع من السرطانات.

ويقول الدكتور محمد حميد، أخصائي أمن النظم الإليكترونية العراقي، إن "البيانات التاريخية" - وهي حزم بيانات كبيرة تظهر أنماطا معينة ويستفاد منها في برمجة نظم الذكاء الاصطناعي – غالبا ما تكون ناقصة، إذ إنها تعتمد فقط على الحالات التي تدرج في قواعد البيانات، وتتجاهل "الفروقات والظروف الفردية باعتبارها شواذ إحصائية" مما يحرم أصحاب الحالات الخاصة من الحصول على "الخدمات، أو الحماية، أو يتسبب بجعلهم غير مرئيين للنظام".

وفي حالة التعامل مع البشر، يقول حميد لموقع "الحرة"، "هناك فرصة لتصحيح النظام المتحيز" وهي فرصة غير موجودة في حالة التعامل مع الآلة".

وتشير دراسة ستانفورد إلى إنه في عام 2018 وجدت شركة أمازون أن من الضروري التخلص من أداة توظيف خاصة لأن البيانات التي اعتُمدت في تدريب الأداة، أدت إلى نظام متحيز بشكل منهجي ضد النساء.

وتسببت البيانات، وفقا للدراسة، بـ"جعل التحيز في البيانات تحيزا واقعيا ضد البشر، وترسيخه بشكل منهجي".

كما أبلغ مستخدموا موقع Yelp عن مشاكل في اللوغارثمية الخاصة بإظهار التقييمات التي يعتمدون عليها لجلب مزيد من الزبائن.

وقال موظف خدمة العملاء في Yelp لموقع "الحرة" إن اللوغارثمية مبنية على توقع "التقييمات الزائفة" وحجبها، وإن البشر لا يتدخلون في العملية، وهو أيضا ما يقوله فيديو تعريفي بالخدمة منشور على الموقع ذاته.

وبحسب المتضررين فإن البرنامج حذف الكثير من التقييمات الحقيقية، مما أضر بتجارتهم بشكل كبير.

وفي حين إن "صناعة موديل يعالج آلاف المشاكل، أو طلبات التعيين، أو يصنف آلاف المرضى في وقت واحد هو أمر جذاب لأصحاب القرار"، كما يقول حميد، فإن "الحالات الفردية قد تبقى عالقة بدون حل ولا إمكانية للحل".

الخطر على الوظائف

يقول المبرمج في شركة أمازون، حسن الشماع، لموقع "الحرة" إن جزء كبيرا من الحلول التي يوفرها chatgpt وغيره من موديلات الذكاء الاصطناعي يعتمد على طريقة صياغة الأسئلة أو الطلبات.

ويضيف الشماع مازحا إنه "في حال استمر الوضع هكذا، فإن وظائف المبرمجين، التي تتطلب تواصلا مع مستخدمين غير خبراء بالبرمجة، في أمان في الوقت الحالي".

لكن مع هذا، تبدو النماذج الاصطناعية الذكية قادرة بشكل كبير على صناعة نصوص برمجية ممتازة، وأيضا التحدث عن نفسها، كما يظهر منشور على موقع لنكدإن للمؤسس المشارك في شركة Advisors And Mentors التقنية، إلفن فو.

وطلب إلفن من برنامج الذكاء الصناعي كتابة نص برمجي لعرض شرائح يتحدث فيه الذكاء الاصطناعي عن نفسه، وجاءت النتائج مبهرة.

وتشير مجلة بزنس إنسايدر إلى إن وظائف مثل المبرمجين ومحللي البيانات ومحللي السوق ومصممي التطبيقات والغرافكس، ووظائف التسويق الإلكتروني وصناعة المحتوى، والمحامين والعاملين في المجال القانوني في خطر. بالإضافة إلى وظائف مثل المعلمين والمستشارين الاقتصاديين ومتاجري الأسهم والمحاسبين وخدمات العملاء وكثير من الوظائف الأخرى.

العودة إلى الوراء.. غير ممكنة

مع هذا كله فإنه لا أحد يتصور إمكانية عودة (مارد) الذكاء الاصطناعي إلى القمقم مجددا، خاصة بعد الاستثمارات المليارية التي ضختها شركات مثل مايكروسوفت وغوغل، وأشخاص مثل إيلون ماسك وغيرهم كثيرون في هذا المجال.

وكما يمثل الذكاء الاصطناعي إمكانية لتدمير الحياة على كوكب الأرض، فإنه أيضا يمثل "فرصا واعدة لتحسين الحياة" على الكوكب نفسه.

وبحسب مجلة فوربس فإن "كومبيوترات الذكاء الاصطناعي لن ترتكب الأخطاء في حالة برمجتها بشكل صحيح".

كما إن "نماذج الذكاء الاصطناعي التي تعتمد على التوقعات الإحصائية لن تترك مجالا للخطأ"، وإن الذكاء الاصطناعي "يوفر المال والوقت للحصول على نتائج دقيقة وفعالة".

وتستمر المجلة في ذكر استخدامات الذكاء الاصطناعي التي تتنوع من "تحليل كميات هائلة من البيانات في دقائق"، إلى "المعاونين الشخصيين المصنوعين بالذكاء الاصطناعي"، وحتى سائقي السيارات والطائرات الآليين.

ولدى سؤاله عن المخاطر والفرص المحتملة من الذكاء الاصطناعي، أجاب نموذج ChatGPT عن أسئلة موقع "الحرة" بالقول: "يقدم الذكاء الاصطناعي (AI) مخاطر وفرصا للبشرية".

ويضيف "يمكن للذكاء الاصطناعي إحداث ثورة في الصناعات وتعزيز الإنتاجية والكفاءة، ويمكنه أتمتة المهام العادية، مما يوفر الوقت للبشر للتركيز على المساعي الإبداعية والاستراتيجية"، ويستدرك "مع ذلك، فإن الذكاء الاصطناعي يشكل أيضا مخاطر، مثل الاستغناء عن الوظائف والمخاوف الأخلاقية وعدم المساواة الاقتصادية وفقدان اللمسة البشرية ومخاوف بشأن الخصوصية والأمان وإساءة الاستخدام المحتملة لتقنية الذكاء الاصطناعي".

ويختم ChatGPT بعبارة "إن تحقيق التوازن بين تسخير إمكانات الذكاء الاصطناعي ومعالجة مخاطره أمر بالغ الأهمية لمستقبل مزدهر".

بينما يقول نموذج Bard التابع لغوغل لموقع "الحرة"  إن الذكاء الاصطناعي يمكن أن "يساعدنا في حل بعض أكثر مشاكل العالم إلحاحا، مثل تغير المناخ والأمراض"، لكن مخاطره تتمثل "في استخدام الذكاء الاصطناعي لصنع أسلحة مستقلة العمل (من دون مشغل) يمكن أن تقتل دون تدخل بشري".

ويضيف "يمكن استخدام الذكاء الاصطناعي للتلاعب بالناس ونشر المعلومات الخاطئة، ويمكن أن يؤدي الذكاء الاصطناعي إلى بطالة جماعية حيث تصبح الآلات قادرة على القيام بمزيد ومزيد من الوظائف".

بكلمة أخرى، يمكن أن يوفر برنامج ذكاء اصطناعي حزمة حلول كاملة للمستخدم، لكن هذه الأداة الفعالة يمكن أن تصبح أداة تخريب أكثر فعالية، في حال وقعت لدى الأيدي الخاطئة.

 

المصدر: موقع الحرة

مواضيع ذات صلة

تطبيقات مواقع التواصل الاجتماعي- تعبيرية
تطبيقات مواقع التواصل الاجتماعي- تعبيرية

أفادت لجنة التجارة الفدرالية الأميركية "أف تي سي" أن دراسة تحليلية استغرقت سنوات عدة توصلت إلى أن وسائل التواصل الاجتماعي العملاقة انخرطت في "عملية مراقبة واسعة النطاق" لكسب المال من المعلومات الشخصية للأشخاص.  

وأظهر تقرير للجنة يستند إلى استفسارات وُجهت  إلى تسع شركات، منذ نحو أربع سنوات، أن كميات هائلة من البيانات الشخصية للمستخدمين قد جرى جمعها من قبل هذه الشركات، وفي بعض الأحيان من خلال وسطاء البيانات، وبإمكان الشركات الاحتفاظ بها إلى أجل غير مسمى.

وقالت رئيسة لجنة التجارة الفدرالية، لينا خان، "يوضح التقرير كيف تقوم شركات وسائل التواصل الاجتماعي والبث التدفقي للفيديو بجمع كمية هائلة من البيانات الشخصية للأميركيين وحصاد أموال بمليارات الدولارات منها سنويا".

وأضافت "إن فشل العديد من الشركات في حماية الأطفال والمراهقين على الإنترنت بشكل كاف أمر مثير للقلق بشكل خاص".

واعتبرت خان أن ممارسات المراقبة تعرّض الأشخاص لخطر التعقب والملاحقة وأيضا سرقة معلوماتهم الشخصية.

ووفقا للتقرير، فإن نماذج أعمال الشركات التي ترتكز على الإعلانات المستهدفة شجعت على جمع بيانات المستخدمين على نطاق واسع، ما يضع الربح في مواجهة الخصوصية.

وحذرت خان "في حين أن ممارسات المراقبة هذه مربحة للشركات، إلا أنها يمكن أن تعرض خصوصية الأشخاص للخطر وتهدد حرياتهم وتعرضهم لمجموعة من الأضرار، من سرقة الهوية إلى الملاحقة".

ورد "مكتب الإعلانات التفاعلية" بأن مستخدمي الإنترنت، يدركون أن الإعلانات المستهدفة هي مقابل الخدمات التي يتمتعون بها مجانا عبر الإنترنت، مشيرا إلى أن القطاع يدعم "بشدة" قانون الخصوصية الوطني الشامل للبيانات.

وقال الرئيس التنفيذي للمكتب، ديفيد كوهين، في منشور ردا على التقرير "نشعر بخيبة أمل إزاء استمرار لجنة التجارة الفدرالية في وصف صناعة الإعلان الرقمي بأنها منخرطة في المراقبة التجارية الجماعية".

واستندت النتائج إلى إجابات على طلبات مرسلة، في أواخر عام 2020، إلى شركات ميتا ويوتيوب وسناب وأمازون وبايت دانس مالكة تيك توك ومنصة اكس.

وأشار التقرير إلى أن بعض الشركات لم تحذف جميع البيانات التي طلب المستخدمون إزالتها.

وبالإضافة إلى التأكيد على أن شركات التواصل الاجتماعي كانت متساهلة عندما يتعلق الأمر بحماية الأطفال الذين يستخدمون منصاتها، استند موظفو لجنة التجارة الفدرالية إلى تقرير يفيد بأن مثل هذه المنصات قد تضر بالصحة العقلية للمستخدمين الشبان.

ودعا التقرير شركات التواصل الاجتماعي إلى الحد من ممارسات جمع البيانات، كما حض الكونغرس الأميركي على إقرار تشريع شامل للخصوصية بهدف الحد من مراقبة من يستخدمون مثل هذه المنصات.

 

المصدر: موقع الحرة