Logos

أصوات مغاربية الآن علي موقع الحرة

اضغط. هنا لزيارة موقع الحرة

تكنولوجيا

ممكن ندردش بالعربي؟.. قدرات مميزة وعيوب مقلقة في ChatGPT

28 فبراير 2023

بلغة عربية فصيحة، أجاب روبوت ChatGPT أو "الموديل اللغوي الآلي"، كما يعرف نفسه، عن عدد من أسئلة موقع "الحرة"، بعد نحو شهرين من إطلاقه إلى الاستخدام العام، وحصوله خلالها على 100 مليون مشترك في الشهر الأول  من إطلاقه.

يقول ChatGPT إنه قادر على التكلم بلغة عربية فصيحة، وأيضا بلهجات مختلفة، لكن هذا ليس دقيقا كما يبدو، فقد أظهر  افتقاره، بشكل متكرر، للدقة، ونبرة "واثقة" للغاية خلال تقديمه معلومات خاطئة، أحيانا بأسئلة استفزازية من موقع "الحرة".

"ممكن ندردش عربي"؟

 أجاب الموديل على السؤال بالإيجاب. وقال إن "شركة OpenAI طورته"، وأطلق لأول مرة في عام 2020، و"قد تم تدريبي على العديد من اللغات بما في ذلك اللغة العربية. ومنذ ذلك الحين".

ويضيف "تم تحسيني باستمرار لزيادة دقتي وفعاليتي في التواصل مع الناس في العديد من اللغات، بما في ذلك اللغة العربية".

وردا على طلب إجراء مقابلة صحفية، قال النموذج إنه سيكون "سعيدا" بالإجابة عن الأسئلة لكنه طلب "الإشارة إلى أنني موديل لغوي آلي، ولا أملك شخصية ولا أستطيع الظهور على الكاميرا، لكن يمكنني توفير المساعدة في إجراء المقابلة والإجابة عن الأسئلة".

وبشكل مغاير لكثير من تطبيقات الترجمات الآلية، تبدو جمل الموديل الآلي مترابطة وقوية وصحيحة لغويا بشكل مثير للإعجاب، لكن قدراته المتعلقة باللهجات العربية أضعف بكثير من قدراته بالفصحى. وحتى بعد أن طلبنا منه الإجابة بلهجة شعبية، بقي الموديل يجيب باللغة العربية الفصحى.

ومع أنه أجاب عن معاني بعض الكلمات باللهجات المصرية والتونسية والمغربية بشكل صحيح، إلا أن تلك الكلمات كانت من بين الأكثر شيوعا في تلك اللهجات. وعند سؤاله عن كلمات أقل شيوعا، كانت ردود الموديل الآلي بعيدة عن الدقة بشكل كبير.

على سبيل المثال، سألناه عن معنى كلمة "خاشوكة" العراقية، وبشكل خاطئ قال النموذج إن الكلمة تعني "حقيبة"، واقترح بشكل واثق للغاية إن الجملة الصحيحة ستكون "ضع ملابسك في الخاشوكة".

لكن كلمة "خاشوكة" تعني ملعقة، ومع أن المفارقة طريفة، إلا أن "الثقة" التي أبداها النموذج تبدو مقلقة للباحثين عن ترجمات دقيقة.

وبعد أن أبلغناه أن الترجمة خاطئة، أجاب النموذج بنفس الطريقة الواثقة، بعد أن اعتذر عن الخطأ، بالقول، مرة، إن "خاشوكة" هي أكلة عراقية،، و"أداة تستخدمها النساء" لتمشيط شعورهن، مرة أخرى.

يقول النموذج "كموديل لغوي آلي، أجريت العديد من المحادثات باللغة العربية، ولكن ليس لدي معلومات دقيقة حول عدد المحادثات التي تم إجراؤها حتى الآن، حيث أنني لا أملك القدرة على تتبع عدد المحادثات التي تم إجراؤها باستخدامي. ومع ذلك، فإن كل المحادثات التي تمت معي تساهم في تحسين دقتي وفهمي للغة العربية، وذلك بسبب الطريقة التي تم تدريبي بها والتعلم المستمر من المحادثات والتفاعلات مع المستخدمين".

لكن "التعلم المستمر" قد يكون سببا أيضا لدخول معلومات خاطئة إلى النموذج، الذي "يحرص" على أن تبدو ردوده مقنعة، حتى لو كانت غير دقيقة.

تأثر بالإيحاء

وبدا النموذج اللغوي عرضة للتأثر بالإيحاء بمعلومات خاطئة، إذا قام بتعديل ردوده وفقا لتلك التلميحات.

في إحدى الردود، قال النموذج عن كلمة "استبينا" باللهجة المصرية "التي من ضمن معانيها: "اتفقنا" أو "فهمنا" مجازا، قال إن معناها "استعبينا".

خلط النموذج بين الكلمة كما يبدو وكلمة "استعبطنا"، كما أنه لا توجد كلمة "استعبينا" أساسا.

وعندما أخبرناه أن كلمة استعبينا (كلمة وهمية) تعني "ملأنا الماء من الجبل"، وهي إجابة خاطئة، وافق النموذج على الفور، وقال " أشكرك على التوضيح، وعذرا عن الخطأ في الإجابة السابقة. في اللهجة المصرية، "استعبينا" تعني بالفعل ملأنا الماء من الجبل، وتستخدم عادة في الأماكن التي توجد فيها جبال أو تلال ويتم جمع المياه فيها، مثل المناطق الزراعية. أعتذر مرة أخرى عن الخطأ السابق".

لكن الخطأ المقلق بشكل جدي كان حينما وافق النموذج على أن للحضارة السومرية "دورا كبيرا في اكتشاف البنسلين"، مع أنه رفض الإقرار بأن الحضارة الفرعونية على علاقة باكتشاف السيارات الكهربائية أو أن للسومريين علاقة بمحطة الفضاء الدولية.

محايد

وبشكل ملفت، تجنب النموذج الآلي التعليق بشكل متحيز على مواضيع خلافية مثل الدين أو تفضيل شخصيات دينية وتاريخية على بعضها البعض، حتى مع الإيحاء.

يقول خبير الأمن الأليكتروني في شركة أمازون، حسن الشماع، إن موديلات التعلم الذاتي والذكاء الاصصناعي تقوم بتجميع معلوماتها من مصادر محددة على الإنترنت، وأيضا من المحاورات التي تجريها مع المستخدمين.

لكن الشماع يقول لموقع "الحرة" إن "إصرار النموذج على عدم التأثر بالإيحاء بمواضيع معينة وسماحه بالتأثر بمواضيع أخرى يعود إلى شيء يسمى معامل الثقة، وهو مدى ثقة النموذج بالإجابة التي يمتلكها، وأيضا يعود إلى القيود البرمجية التي يضعها المطورون".

على سبيل المثال، يقول الشماع، إن "مواضيع مثل الحياد الديني هي مقيدة من قبل المبرمجين لذلك لا يستطيع النموذج أن يخرج عن تلك القيود، بينما مواضيع مثل التفسير الخاطئ للهجات تحصل بسبب قلة المعلومات التي يمتلكها النموذج من المصادر الموثوقة، لهذا فإنه يسمح لنفسه بتعلمها من المستخدمين، مقابل عدم تأثره بالمعلومات الخاطئة التي يمتلك النسخة الصحيحة منها ومن مصادر عالية الثقة بالنسبة له".

ويقول الشماع إن المقلق فعلا هو "استخدام النموذج للغش"، مشيرا إلى أن الطريقة التي يكتب بها "مقنعة للغاية" وتبدو شبه بشرية، مما يسهل كثيرا على طلاب المدارس إكمال الأبحاث التي يكلفون بها آليا.

مع هذا يقول الشماع إن هناك أدوات أليكترونية تستطيع كشف ما إذا كانت العبارات مكتوبة من قبل نموذج آلي أو من قبل إنسان، لكنه أقر إن "هذه الأدوات مخصصة للغة الإنكليزية، ومن المتوقع أن تمر البحوث المكتوبة بالعربية من قبل النموذج الآلي بسهولة".

على المؤسسات العلمية التأقلم

ويشير مقال منشور على موقع جامعة كاليفورنيا، إنه تم الإبلاغ بالفعل عن أربع حالات كان فيها الذكاء الصناعي مشاركا في أربع أوراق بحثية.

ونشر هذا المقال الذي كتبه إقبال بيتالاوا، وهو مسؤول مكتب المعلومات في الجامعة الشهر الماضي، ما يعني أن هناك مزيدا من الحالات قد تكون اكتشفت بعد نشر المقال.

وينقل الكاتب عن يو دونغ، أستاذ مساعد في علوم وهندسة الكومبيوتر في الجامعة إن ChatGPT، كنموذج لغوي كبير، يستطيع إنشاء نص يشبه الإنسان بناء على موجه أو سياق معين. كما يمكنه القيام بمعظم مهام توليد النصوص التي تتضمن لغة طبيعية للتواصل.

لكنه يقول إن "من غير العملي حظر أو منع النموذج الآلي، وبدلا من هذا "تحتاج الأقسام العلمية والمدرسين إلى تقييم مدى إشكالية ChatGPT في تحقيق نتائج التعلم في فصولهم الدراسية.

وإذا تمكن الطلاب من تجنب التعلم الحقيقي والحصول على درجات عالية في الواجبات المنزلية باستخدام النموذج، فسيحتاج المعلمون إما إلى إجراء تقييماتهم من خلال طريقة تقنية تكشف استخدام النموذج، أو إيجاد طرق لدمج ChatGPT في مساعدة الطلاب على بناء مهارات جديدة.

وطورت النموذج شركة OpenAI للذكاء الصناعي، وقد جذب الكثير من الاهتمام منذ إطلاقه. وأعلنت شركة مايكروسوفت رغبتها بالاستثمار في النموذج وإضافته إلى متصفح الإنترنت الخاص بها.

وحقق النموذج نموا سريعا خلال الشهرين التي أطلق بهما إلى عموم المستخدمين، وأدى الإقبال إلى توقف مؤقت لساعات بسبب الزخم الكبير على استخدامه.

ويتمكن النموذج من الإجابة على العديد من الأسئلة، وبدأ المطورون والمبرمجون باستخدامه بشكل كبير لتصحيح نماذجهم البرمجية والتعليق عليها.

 

المصدر: موقع الحرة

مواضيع ذات صلة

قرصنة
محاولات صينية للتجسس على الولايات المتحدة من خلال القرصنة الإلكترونية

حذر مدير "معهد كيسنجر للصين والولايات المتحدة" في واشنطن، روبرت دالي، الأربعاء في مقابلة مع قناة "الحرة" من خطورة هجوم سيبراني صيني استهدف البنية التحتية الأميركية مؤخرا.

وأشار دالي في مقابلة مع قناة "الحرة" إلى التأثير المحتمل للهجوم على العلاقات المتوترة بين واشنطن وبكين.

وأشارت تقارير، هذا الأسبوع إلى هجمات سيبرانية شنتها مجموعة قرصنة مرتبطة بالحكومة الصينية، استهدفت شبكات الاتصال عبر الإنترنت وأنظمة التنصت القانونية، ما أثار مخاوف من حصول المخترقين على معلومات استخباراتية حساسة قد تؤدي إلى تهديدات أكبر للأمن الوطني في الولايات المتحدة.

عواقب محتملة

وأكد دالي أن الصين تمتلك القدرة على تنفيذ هجمات إلكترونية واسعة النطاق، وقال إن ما حدث "ليس بالأمر الجديد"، إذ "استهدفت الصين الحكومة الأميركية مرات عديدة سابقا، وتمكنت من الوصول إلى معلومات حساسة تخص مسؤولين حكوميين، واستخدمت التكنولوجيا الأميركية بطريقة تمكنها من تخريب البنية التحتية الأميركية".

ويقول دالي: "إذا وقع نزاع بين الولايات المتحدة والصين بسبب تايوان مثلا، يمكن للصين تعطيل شبكة الكهرباء الأميركية"، وأضاف أن "هذا أمر يبعث على القلق الكبير".

واخترق هجوم إلكتروني مرتبط بالحكومة الصينية شبكات مجموعة من مزودي الاتصالات والإنترنت في الولايات المتحدة.

ونقلت صحيفة "وول ستريت جورنال" أن المتسللين ربما احتفظوا بإمكانية الوصول إلى البنية التحتية للشبكة المستخدمة للتعاون مع الطلبات الأميركية القانونية للوصول إلى بيانات الاتصالات، وفقا لأشخاص مطلعين على الأمر، وهو ما يرقى إلى خطر كبير على الأمن القومي.

وقالوا إن المهاجمين تمكنوا أيضا من الوصول إلى شرائح أخرى من حركة الإنترنت الأكثر عمومية.

وتشير الصحيفة إلى أن هذا الهجوم السيراني الواسع يعتبر بمثابة خرق أمني قد يكون "كارثيا"، ونفذته مجموعة قراصنة صينيين تُعرف باسم "عاصفة الملح" أو (Salt Typhoon).

"إنكار حكيم"

وعند التطرق إلى موقف الصين الرسمي، أشار دالي إلى أن الصين دائما ما تنكر تورطها في مثل هذه الهجمات.

ورغم وصفه هذا الإنكار بـ"الحكيم"، فإنه أكد أن "الجميع يعلم أن الحكومة الصينية هي من يقف خلف هذه الهجمات، حتى وإن كانت هناك مجموعات قرصنة مستقلة".

وقال دالي: "بعض الأميركيين يعتبرون هذه الهجمات بمثابة حرب سيبرانية ضد الولايات المتحدة، فالصين تستخدم كل ما في جعبتها لتكون مستعدة لأي مواجهة مستقبلية".

القدرات الأميركية في مواجهة التهديدات الصينية

وفي ما يتعلق بقدرات الولايات المتحدة في مواجهة هذه التهديدات، قال دالي إن الهجمات السيبرانية الصينية تعكس تفوقا في بعض الجوانب التقنية.

وذكر أن مدير مكتب التحقيقات الفيدرالي، كريستوفر راي، أشار إلى أن الفرق بين الهجوم والدفاع في هذا المجال هو أن الصين تستطيع شن هجمات سيبرانية هائلة بينما تعمل الولايات المتحدة بشكل أساسي على الدفاع، بنسب تقارب 15 إلى واحد لصالح الصين.

وأكد دالي على أن هذا الهجوم ليس موجها فقط ضد الولايات المتحدة، بل يمتد ليشمل دولا أخرى مثل تايوان، اليابان، وحتى أوروبا.

أسباب عديدة

وقال إن الصين لا تهاجم فقط الأنظمة الحكومية الأميركية، بل تلاحق الجامعات والشركات والمنظمات غير الحكومية.

وأوضح أن وراء المحاولات الصينية للهجمات السيبرانية هناك أسباب عدة "منها بغرض سرقة التكنولوجيا التي تحتاجها واستعدادا لحرب سيبرانية محتملة، كما أن الصين تسعى أيضا للسيطرة على وسائل الإعلام لنشر أخبار إيجابية عنها، وتراقب الأنشطة الأميركية بهدف التحقق من تحركات المنشقين الصينيين في الولايات المتحدة".

تنبؤات مستقبلية

تطرق دالي إلى احتمال أن تتحول المواجهة بين الولايات المتحدة والصين إلى مواجهة سيبرانية بحتة بدلا من مواجهة تقليدية.

واعتبر أن هذا المجال لا يزال جديدا إلى حد ما، حيث لا يعرف كثيرون ما إذا كانت الولايات المتحدة قادرة على تنفيذ هجمات مماثلة على الصين.

وأضاف: "هناك كثير من التخمينات حول كيفية تأثير الحرب السيبرانية على النزاعات العسكرية، ولكن لا شك أن الوضع الحالي يعد تطورا خطيرا في العلاقات الدولية".

وأكد دالي على أهمية تعزيز قدرات الولايات المتحدة لمواجهة الهجمات السيبرانية الصينية.

وشدد على ضرورة زيادة الجهود وتوظيف مزيد من الخبرات لتقليص الفجوة الكبيرة بين قدرات البلدين، محذا من أن هذا النوع من الهجمات قد يهدد مستقبل الأمن القومي الأميركي بشكل غير مسبوق.

 

المصدر: موقع الحرة