Logos

أصوات مغاربية الآن علي موقع الحرة

اضغط. هنا لزيارة موقع الحرة

تكنولوجيا

ممكن ندردش بالعربي؟.. قدرات مميزة وعيوب مقلقة في ChatGPT

28 فبراير 2023

بلغة عربية فصيحة، أجاب روبوت ChatGPT أو "الموديل اللغوي الآلي"، كما يعرف نفسه، عن عدد من أسئلة موقع "الحرة"، بعد نحو شهرين من إطلاقه إلى الاستخدام العام، وحصوله خلالها على 100 مليون مشترك في الشهر الأول  من إطلاقه.

يقول ChatGPT إنه قادر على التكلم بلغة عربية فصيحة، وأيضا بلهجات مختلفة، لكن هذا ليس دقيقا كما يبدو، فقد أظهر  افتقاره، بشكل متكرر، للدقة، ونبرة "واثقة" للغاية خلال تقديمه معلومات خاطئة، أحيانا بأسئلة استفزازية من موقع "الحرة".

"ممكن ندردش عربي"؟

 أجاب الموديل على السؤال بالإيجاب. وقال إن "شركة OpenAI طورته"، وأطلق لأول مرة في عام 2020، و"قد تم تدريبي على العديد من اللغات بما في ذلك اللغة العربية. ومنذ ذلك الحين".

ويضيف "تم تحسيني باستمرار لزيادة دقتي وفعاليتي في التواصل مع الناس في العديد من اللغات، بما في ذلك اللغة العربية".

وردا على طلب إجراء مقابلة صحفية، قال النموذج إنه سيكون "سعيدا" بالإجابة عن الأسئلة لكنه طلب "الإشارة إلى أنني موديل لغوي آلي، ولا أملك شخصية ولا أستطيع الظهور على الكاميرا، لكن يمكنني توفير المساعدة في إجراء المقابلة والإجابة عن الأسئلة".

وبشكل مغاير لكثير من تطبيقات الترجمات الآلية، تبدو جمل الموديل الآلي مترابطة وقوية وصحيحة لغويا بشكل مثير للإعجاب، لكن قدراته المتعلقة باللهجات العربية أضعف بكثير من قدراته بالفصحى. وحتى بعد أن طلبنا منه الإجابة بلهجة شعبية، بقي الموديل يجيب باللغة العربية الفصحى.

ومع أنه أجاب عن معاني بعض الكلمات باللهجات المصرية والتونسية والمغربية بشكل صحيح، إلا أن تلك الكلمات كانت من بين الأكثر شيوعا في تلك اللهجات. وعند سؤاله عن كلمات أقل شيوعا، كانت ردود الموديل الآلي بعيدة عن الدقة بشكل كبير.

على سبيل المثال، سألناه عن معنى كلمة "خاشوكة" العراقية، وبشكل خاطئ قال النموذج إن الكلمة تعني "حقيبة"، واقترح بشكل واثق للغاية إن الجملة الصحيحة ستكون "ضع ملابسك في الخاشوكة".

لكن كلمة "خاشوكة" تعني ملعقة، ومع أن المفارقة طريفة، إلا أن "الثقة" التي أبداها النموذج تبدو مقلقة للباحثين عن ترجمات دقيقة.

وبعد أن أبلغناه أن الترجمة خاطئة، أجاب النموذج بنفس الطريقة الواثقة، بعد أن اعتذر عن الخطأ، بالقول، مرة، إن "خاشوكة" هي أكلة عراقية،، و"أداة تستخدمها النساء" لتمشيط شعورهن، مرة أخرى.

يقول النموذج "كموديل لغوي آلي، أجريت العديد من المحادثات باللغة العربية، ولكن ليس لدي معلومات دقيقة حول عدد المحادثات التي تم إجراؤها حتى الآن، حيث أنني لا أملك القدرة على تتبع عدد المحادثات التي تم إجراؤها باستخدامي. ومع ذلك، فإن كل المحادثات التي تمت معي تساهم في تحسين دقتي وفهمي للغة العربية، وذلك بسبب الطريقة التي تم تدريبي بها والتعلم المستمر من المحادثات والتفاعلات مع المستخدمين".

لكن "التعلم المستمر" قد يكون سببا أيضا لدخول معلومات خاطئة إلى النموذج، الذي "يحرص" على أن تبدو ردوده مقنعة، حتى لو كانت غير دقيقة.

تأثر بالإيحاء

وبدا النموذج اللغوي عرضة للتأثر بالإيحاء بمعلومات خاطئة، إذا قام بتعديل ردوده وفقا لتلك التلميحات.

في إحدى الردود، قال النموذج عن كلمة "استبينا" باللهجة المصرية "التي من ضمن معانيها: "اتفقنا" أو "فهمنا" مجازا، قال إن معناها "استعبينا".

خلط النموذج بين الكلمة كما يبدو وكلمة "استعبطنا"، كما أنه لا توجد كلمة "استعبينا" أساسا.

وعندما أخبرناه أن كلمة استعبينا (كلمة وهمية) تعني "ملأنا الماء من الجبل"، وهي إجابة خاطئة، وافق النموذج على الفور، وقال " أشكرك على التوضيح، وعذرا عن الخطأ في الإجابة السابقة. في اللهجة المصرية، "استعبينا" تعني بالفعل ملأنا الماء من الجبل، وتستخدم عادة في الأماكن التي توجد فيها جبال أو تلال ويتم جمع المياه فيها، مثل المناطق الزراعية. أعتذر مرة أخرى عن الخطأ السابق".

لكن الخطأ المقلق بشكل جدي كان حينما وافق النموذج على أن للحضارة السومرية "دورا كبيرا في اكتشاف البنسلين"، مع أنه رفض الإقرار بأن الحضارة الفرعونية على علاقة باكتشاف السيارات الكهربائية أو أن للسومريين علاقة بمحطة الفضاء الدولية.

محايد

وبشكل ملفت، تجنب النموذج الآلي التعليق بشكل متحيز على مواضيع خلافية مثل الدين أو تفضيل شخصيات دينية وتاريخية على بعضها البعض، حتى مع الإيحاء.

يقول خبير الأمن الأليكتروني في شركة أمازون، حسن الشماع، إن موديلات التعلم الذاتي والذكاء الاصصناعي تقوم بتجميع معلوماتها من مصادر محددة على الإنترنت، وأيضا من المحاورات التي تجريها مع المستخدمين.

لكن الشماع يقول لموقع "الحرة" إن "إصرار النموذج على عدم التأثر بالإيحاء بمواضيع معينة وسماحه بالتأثر بمواضيع أخرى يعود إلى شيء يسمى معامل الثقة، وهو مدى ثقة النموذج بالإجابة التي يمتلكها، وأيضا يعود إلى القيود البرمجية التي يضعها المطورون".

على سبيل المثال، يقول الشماع، إن "مواضيع مثل الحياد الديني هي مقيدة من قبل المبرمجين لذلك لا يستطيع النموذج أن يخرج عن تلك القيود، بينما مواضيع مثل التفسير الخاطئ للهجات تحصل بسبب قلة المعلومات التي يمتلكها النموذج من المصادر الموثوقة، لهذا فإنه يسمح لنفسه بتعلمها من المستخدمين، مقابل عدم تأثره بالمعلومات الخاطئة التي يمتلك النسخة الصحيحة منها ومن مصادر عالية الثقة بالنسبة له".

ويقول الشماع إن المقلق فعلا هو "استخدام النموذج للغش"، مشيرا إلى أن الطريقة التي يكتب بها "مقنعة للغاية" وتبدو شبه بشرية، مما يسهل كثيرا على طلاب المدارس إكمال الأبحاث التي يكلفون بها آليا.

مع هذا يقول الشماع إن هناك أدوات أليكترونية تستطيع كشف ما إذا كانت العبارات مكتوبة من قبل نموذج آلي أو من قبل إنسان، لكنه أقر إن "هذه الأدوات مخصصة للغة الإنكليزية، ومن المتوقع أن تمر البحوث المكتوبة بالعربية من قبل النموذج الآلي بسهولة".

على المؤسسات العلمية التأقلم

ويشير مقال منشور على موقع جامعة كاليفورنيا، إنه تم الإبلاغ بالفعل عن أربع حالات كان فيها الذكاء الصناعي مشاركا في أربع أوراق بحثية.

ونشر هذا المقال الذي كتبه إقبال بيتالاوا، وهو مسؤول مكتب المعلومات في الجامعة الشهر الماضي، ما يعني أن هناك مزيدا من الحالات قد تكون اكتشفت بعد نشر المقال.

وينقل الكاتب عن يو دونغ، أستاذ مساعد في علوم وهندسة الكومبيوتر في الجامعة إن ChatGPT، كنموذج لغوي كبير، يستطيع إنشاء نص يشبه الإنسان بناء على موجه أو سياق معين. كما يمكنه القيام بمعظم مهام توليد النصوص التي تتضمن لغة طبيعية للتواصل.

لكنه يقول إن "من غير العملي حظر أو منع النموذج الآلي، وبدلا من هذا "تحتاج الأقسام العلمية والمدرسين إلى تقييم مدى إشكالية ChatGPT في تحقيق نتائج التعلم في فصولهم الدراسية.

وإذا تمكن الطلاب من تجنب التعلم الحقيقي والحصول على درجات عالية في الواجبات المنزلية باستخدام النموذج، فسيحتاج المعلمون إما إلى إجراء تقييماتهم من خلال طريقة تقنية تكشف استخدام النموذج، أو إيجاد طرق لدمج ChatGPT في مساعدة الطلاب على بناء مهارات جديدة.

وطورت النموذج شركة OpenAI للذكاء الصناعي، وقد جذب الكثير من الاهتمام منذ إطلاقه. وأعلنت شركة مايكروسوفت رغبتها بالاستثمار في النموذج وإضافته إلى متصفح الإنترنت الخاص بها.

وحقق النموذج نموا سريعا خلال الشهرين التي أطلق بهما إلى عموم المستخدمين، وأدى الإقبال إلى توقف مؤقت لساعات بسبب الزخم الكبير على استخدامه.

ويتمكن النموذج من الإجابة على العديد من الأسئلة، وبدأ المطورون والمبرمجون باستخدامه بشكل كبير لتصحيح نماذجهم البرمجية والتعليق عليها.

 

المصدر: موقع الحرة

مواضيع ذات صلة

مستخدمون لمنصات التواصل الاجتماعي يستعيون بالذكاء الاصطناعي للظهور كعرافيين يمكنهم التنبؤ بالمستقبل
يشكل الذكاء الاصطناعي تحديا لأسواق العمل في العالم

مع تزايد الاعتماد على الذكاء الاصطناعي، بدأت شركات في تسريح مئات الموظفين، آخرها منصة تيك توك للتواصل الاجتماعي.

وأعلنت تيك توك، الجمعة، تسريح مئات الموظفين في جميع أنحاء العالم، بما في ذلك عدد كبير في ماليزيا، حيث قالت الشركة أن هذا القرار هو جزء من تحولها نحو استخدام المزيد من أدوات الذكاء الاصطناعي في تعديل المحتوى، مع التركيز على تحسين الكفاءة في عملياتها.

الخطوة التي اتخذتها تيك توك، ترفع منسوب المخاوف على مستقبل العامل البشري في مواجهة الذكاء الاصطناعي وتصاعد القلق من أن تتجه شركات عملاقة أخرى نحو ذات الاتجاه.

وظائف يستحوذ عليها الذكاء الاصطناعي

الخبير في مجال الذكاء الاصطناعي، أحمد بانافع قال إن ما فعلته تيك توك لم يكن مفاجئا، وهي واحدة من بين عدة شركات اتجهت للمسار ذاته، ولكن تيك توك أعلنت عنه صراحة.

وأوضح بانافع وهو مقيم في كاليفورنيا في حديث لبرنامج "الحرة الليلة" أن الوظائف التي تم الاستغناء عنها هي "مراقبة المحتوى" وهي من بين 10 وظائف على الأقل يمكن لأنظمة الذكاء الاصطناعي القيام بها.

ويرى أن العامل الإنسان قد يكون دخل "في مرحلة ثانية من المعركة بين الذكاء الاصطناعي والموظفين".

 

وقال بانافع إن هناك شركات أميركية كبرى بدأت في تدريب الموظفين على استخدام تطبيقات الذكاء الاصطناعي وتستثمر فيها مليارات الدولارات، والتي تتيح لهم التعرف على المجالات "التي يمكن فيها الاستغناء عن العامل البشري"، وهنا "تحصل عمليات تسريح بناء على التقييم".

وكانت غوغل قد أعلنت مطلع العام الاستغناء عن مئات الموظفين ضمن فريق مبيعات الإعلانات العالمي التابع لها، في ظل استخدام الأنظمة الآلية في عدد متزايد من المهام الإدارية والإبداعية باستخدام الذكاء الاصطناعي.

واستغنت غوغل عن حوالي 12 ألف شخص في يناير 2023 حوالي 6 في المئة من قوتها العاملة في مواجهة التضخم وارتفاع أسعار الفائدة، ما يعني انخفاض إنفاق المعلنين. واضطر عملاق الإنترنت منذ ذلك الحين إلى الاستثمار بكثافة في الذكاء الاصطناعي التوليدي.

كيف تحمي وظيفتك من الذكاء الاصطناعي؟

ويوصي الخبير بانافع لأي موظف يعتقد أن الذكاء الاصطناعي قد يستبدل وظيفته، عليه التدرب على "استخدام أنظمة الذكاء الاصطناعي، والابتعاد عن الوظائف التقليدية، مثل مراقبة المحتوى أو الترجمة أو خدمة العملاء أو التعرف على الاتجاهات".

ويرى أنه لا يجب أن ننظر إلى أن الذكاء الاصطناعي سيستولي على الوظائف، بقدر ما أنه يستطيع القيام بوظائف معينة بسرعة وكفاءة عالية، ولهذا على الشخص البحث عن وظائف غير تقليدية.

ولمواجهة المرحلة المقبلة، دعا الجميع إلى النظر لفرص التطوير التي يتيحها الذكاء الاصطناعي لزيادة كفاءة عملك، وهو ما يمكنك أن تفعله بأن "تسأل تشات جي بي تي، كيف يمكن للذكاء الاصطناعي أن يطورك ويساعدك في عملك؟".

وفي يونيو الماضي دعا صندوق النقد الدولي لاتخاذ تدابير ضريبية للحماية الاجتماعية لإحداث توازن حيال المخاطر التي يطرحها الذكاء الاصطناعي ولا سيما زيادة انعدام المساواة.

ومن دون تنظيم، فإن الذكاء الاصطناعي قد يؤدي إلى خسارة وظائف بين المهن المؤهلة، وفقا لما ذكر صندوق النقد الدولي في مذكرة.

ولمواجهة هذا الوضع على الحكومات أن تخصص إيرادات جديدة لتمويل شبكة الأمان الاجتماعي لأولئك الذين يخسرون وظائفهم، كما أوصى واضعو المذكرة.

وجاء في المذكرة أن "السياسة الضريبية لها دور رئيسي في دعم توزيع أكثر إنصافا للمكاسب والفرص المرتبطة بالذكاء الاصطناعي التوليدي". وأضاف الصندوق "لكن هذا يتطلب تغييرات كبيرة في الأنظمة الضريبية والحماية الاجتماعية في جميع أنحاء العالم".

ويدعو صندوق النقد الدولي بشكل خاص إلى زيادة إعانات التأمين ضد البطالة والاستثمار في التدريب لإعداد العمال "للوظائف في عصر الذكاء الاصطناعي".

ويعارض الصندوق فرض ضريبة محددة على الذكاء الاصطناعي التي اقترحها باحثون معتبرا أن هذا من شأنه أن يؤثر على نمو الإنتاجية. وعلى العكس يقترح التصدي للثغرات الضريبية التي تشجع على إلغاء وظائف.

 

المصدر: الحرة