Logos

أصوات مغاربية الآن علي موقع الحرة

اضغط. هنا لزيارة موقع الحرة

تكنولوجيا

"ذكي لكنه ساذج".. ما هي مخاطر الذكاء الاصطناعي على "البزنس"؟

14 أغسطس 2023

ساعد التقدم في مجال الذكاء الاصطناعي الأعمال التجارية في تحسين عملياتها، مما ساهم في رفع الإنتاجية وبالتالي زيادة الأرباح.

لكن هذه التقنية الثورية التي تحظى باستثمارات ضخمة من عدة شركات في وادي السيلكون بولاية كاليفورنيا الأميركية، لا تزال تشكل خطرا على المؤسسات الربحية.

ومن بين الفوائد العظيمة لاستخدام تلك التقنية والمخاطر المترتبة عليها، يصف كبير مهندسي الأمن في "سينوبسيس سوفتوير إنتيغريتي غروب"، بوريس سيبوت، التقنية بأنها "ذكية لكنها ساذجة".

وقال في حديث لموقع "ذا سايبر إكسبريس" المتخصص في الأمن السيبراني، إن ذلك "سيكون وصفا عادلا للذكاء الاصطناعي الذي نراه اليوم".

من السمعة إلى الدعاوى القضائية

وبعيدا عن خطورة القضاء على ملايين الوظائف، أعرب خبير تقنية المعلومات، أيمن عيتاني، عن اعتقاده بأن هناك مخاطر محتملة على الأعمال التجارية من الذكاء الاصطناعي.

وفي حديثه لموقع "الحرة"، قال عيتاني إن تأثير الذكاء الاصطناعي على الأعمال التجارية "يبدأ من السمعة والخصوصية، وقد يصل للدخول في مشاكل قانونية".

وخلال السنوات الماضية، نما استخدام تقنيات الذكاء الاصطناعي من قبل الشركات في مختلف عملياتها.

وبحسب ورقة بحثية لشركة "آي إم جي"، فإن "أكثر من 35 بالمئة من الشركات تستخدم بالفعل الذكاء الاصطناعي في عملياتها، بينما تستكشف 40 بالمئة من المؤسسات التجارية هذه التقنية بهدف استخدام مستقبلي محتمل لها".

وتستخدم الشركات الذكاء الاصطناعي لأداء مهام، مثل تحليل سلوك المستهلك، وإزالة الأخطاء، وتحسين الإنتاجية، والمزيد من العمليات، كما يقول، تايلر ويتسمان، المؤسس الشريك لشركة "سبيتشفاي"، وهو تطبيق ذكي يستخدم التقنية ذاتها لتحويل المقاطع الصوتية إلى نصوص مكتوبة.

وبناء على تجربته الشخصية في "سبيتشفاي"، يقترح ويتسمان في مقال نشره موقع "فوربس" الأميركي، "مراعاة المخاطر بجانب الفوائد" في عمليات المؤسسات التجارية.

ويوجز ويتسمان مخاطر استخدام الذكاء الاصطناعي بالنسبة للشركات التجارية في 3 نقاط رئيسية، هي "الأخطاء والضعف أمام الهجمات السيبرانية والسلوك اللاإنساني".

ويقول إن "أي أخطاء ترتكبها التقنية من شأنها أن تسبب أضرارا جسيمة للشركة وسمعتها، مما قد يؤثر على أرباحها في نهاية المطاف".

"الخطر الأكبر"

وفي هذا الإطار، يشرح عيتاني ذلك الأمر بقوله، إن "الاتكال على الذكاء الاصطناعي في عمليات الشركات، من الممكن أن يؤثر في جودة العمل، لا سيما في مجالات مثل التسويق وكتابة النصوص".

و"لا تستطيع غالبية أدوات الذكاء الاصطناعي التحقق من صحة المعلومات، لا سيما وأنها مصممة لاستقاء معلوماتها من الإنترنت"، بحسب عيتاني.

ولذلك، وفق عيتاني، قد "تتسبب أي معلومة مغلوطة أيضا في إيقاع الشركات بمشاكل قانونية، إذا تم استخدام بيانات لم يتم التأكد منها عبر عنصر بشري".

وضرب مثالا في إمكانية الطلب من تطبيقات الذكاء الاصطناعي إنشاء نصوص أو صور بناء على طريقة شركة أخرى، مما يثير دعاوى قضائية بسبب حقوق الملكية الفكرية.

كذلك، يمكن لأنظمة الذكاء أن تقدم بيانات تنطوي عليها توصيفات تمييزية، مما يمكن أن تشكل خطرا على سمعة الشركة أو حتى الدخول في قضايا قانونية.

وتستقي تطبيقات الذكاء الاصطناعي التوصيفات التمييزية من خلال الخوارزميات المستخدمة في لغتها البرمجية، وفقا لموقع "ذا سايبر إكسبريس".

ومع ذلك، تعتبر مسائل الخصوصية هي "الخطر الأكبر" على الشركات من استخدامها للذكاء الاصطناعي، خاصة تلك التطبيقات التي تقدم المعلومات اعتمادا على النوع التوليدي، كما يقول عيتاني.

وأضاف: "خطر تسرب المعلومات الخاصة للمؤسسات التجارية يأتي عن طريق استخدامها للتطبيقات التي تتعلم أشياء جديدة بنفسها، لذلك يمكن أن تكون هذه المعلومات الحساسة متاحة للشركات المنافسة".

"الفوائد أكبر"

ولفت عيتاني إلى أن مؤسسات تجارية كبيرة لجأت إلى استخدام روبوتات خاصة فيها، بحيث لا تكون متاحة لجميع الناس، حتى تتجنب تسرب معلوماتها للمنافسين.

وتأتي هذه المخاطر على اعتبار أن التطور في الذكاء الاصطناعي مستمر، مما جعل شهية المستثمرين مفتوحة للعمل في هذا المجال.

وكان أصحاب رؤوس الأموال المغامرة يستثمرون في الشركات الناشئة المتخصصة في مجال الذكاء الاصطناعي بأكثر من 11 مليار دولار خلال شهر مايو الماضي وحده، وفقا لشركة البيانات "بيتشبوك"، بزيادة قدرها 86 بالمئة عن ذات الشهر من العام الماضي. 

ومن شأن تلك الاستثمارات الضخمة أن تزيد نسبة الشركات التي تستخدم التقنية في أعمالها للحصول على فوائدها.

ويصر خبراء على أن فوائد استخدام الذكاء الاصطناعي بالنسبة للشركات أكبر بكثير من خطورته، وهو أمر يمكن تجنبه من خلال الالتزام بالمعايير الأخلاقية، والحفاظ على وجود العنصر البشري للتدقيق على آلية عمل التقنية.

وفي هذا الصدد، قال ويتسمان: "الذكاء الاصطناعي أصبح جزءا لا يتجزأ من العديد من الشركات، سواء قبلنا بالتكنولوجيا أم لا، وهي موجودة لتبقى".

وأضاف: "يمكننا التعامل مع العديد من هذه المخاطر المحتملة للذكاء الاصطناعي، إذا أخذنا في الاعتبار فوائده الكبيرة".

 

المصدر: موقع الحرة

مواضيع ذات صلة

A man wearing an Apple smartwatch uses a smartphone to access the WhatsApp messaging and voice over IP (VOIP) application, in…

أصبح التشفير في السنوات الأخيرة عنصرا حاسما في حماية خصوصية الأفراد على الإنترنت، وخصوصا في الرسائل الإلكترونية وتطبيقات المراسلة.

وبينما يحمي التشفير الأفراد من الجرائم مثل سرقة الهوية أو المراقبة غير القانونية، فإن وكالات إنفاذ القانون والأمن الوطني تجادل بأن التشفير يجعل من الصعب، أو حتى مستحيلاً، على الأجهزة الأمنية التحقيق في الجرائم والتهديدات المتعلقة بالسلامة العامة، وفق موقع مركز سياسة الأمن السيبراني.

وفي تسعينيات القرن الماضي، واجه المبرمجون الذين طوروا أدوات التشفير في الولايات المتحدة صعوبة في تصدير هذه البرمجيات، حيث اعتبرت الحكومة هذه الأدوات كمواد خاضعة لرقابة مماثلة للأسلحة.

وكانت هناك مخاوف بشأن كيفية تأثير هذه التقنيات على الأمن القومي، ما أدى إلى قيود صارمة على تصدير البرمجيات التي توفر تشفيرًا قويًا.

لكن مع مرور الوقت، تغيرت الأمور بشكل ملحوظ، حيث انتصر دعاة الخصوصية، وتمكنت تقنيات التشفير من تحقيق انتشار عالمي، وفق تقرير لـ"الإيكونوميست".

ويستخدم الناس اليوم، أدوات التشفير بشكل واسع، بدءًا من الرسائل المشفرة بين المراهقين وصولاً إلى استخدامها من قبل العسكريين في مناطق النزاع مثل أوكرانيا.

وقد أدى ذلك إلى جدل بل "مواجهة" بين الحكومات والشركات التقنية بشأن التوازن بين الأمان وحقوق الأفراد.

وأحد أبرز التحديات التي تواجه التشفير هو طلبات الحكومات للوصول إلى محتوى الرسائل المشفرة.

فعلى سبيل المثال، طلبت السلطات الفرنسية مؤخرًا من بافيل دوروف، المدير التنفيذي لتطبيق "تيليغرام"، تقديم معلومات حول الرسائل المشفرة.

وبينما نفى دوروف ارتكاب أي مخالفات، فإن القوانين في بلدان مختلفة تتطلب من الشركات التقنية توفير طرق للوصول إلى المحتوى، ما يثير قلقًا بشأن إمكانية استخدام "الأبواب الخلفية" في التشفير.

وأكد دوروف في بيان، الجمعة، أن التطبيق يخطط لمراجعة سياسات مراقبة المحتوى، مشيرا إلى أنه كان يجدر على السلطات الفرنسية نقل شكواها إلى الشركة القائمة على "تيليغرام" دون اللجوء إلى اعتقاله.

وخضع دوروف، الأسبوع الماضي، لتحقيق رسمي في فرنسا فيما يتعلق باستخدام تيليغرام في جرائم مثل الاحتيال وغسل الأموال ونشر صور لاستغلال الأطفال جنسيا.

وكتب دوروف على تيليغرام يقول "99.999 بالمئة من مستخدمي تيليغرام لا علاقة لهم بالجرائم، لكن 0.001 بالمئة متورطون في أنشطة غير مشروعة يخلقون صورة سيئة للمنصة بأكملها، مما يعرض مصالح ما يقرب من مليار مستخدم للخطر".

وفي بعض البلدان، تواجه الحكومات صعوبة في التعامل مع هذه التقنيات، إذ اقترحت المملكة المتحدة تقنيات "معتمدة" لتحديد المحتوى غير القانوني، ولكن لم يتم اعتماد أي منها حتى الآن.

وفي الاتحاد الأوروبي، تم اقتراح نظام "Chat Control 2.0" الذي يجبر منصات الرسائل على مسح المواد المتعلقة بالاعتداء الجنسي على الأطفال، ما أثار جدلاً كبيرًا حول تأثير ذلك على خصوصية المستخدمين.

وفي الهند، تطلب الحكومة من تطبيقات الرسائل تنفيذ "قابلية التتبع" لتحديد مصدر الرسائل، مما أثار مواجهة مع "واتساب"، حيث تقول الشركة إن هذا الأمر يعرض التشفير للخطر، وقد تترك السوق الهندية إذا أصر المسؤولون على هذا الطلب.

وبينما تصر الشركات التقنية على الحفاظ على أمان التشفير، يواصل الخبراء في المجال تقديم حجج ضد أي تعديلات قد تضعف هذه التقنية.

في دراسة حديثة، قدمت مجموعة من الخبراء، بما فيهم ويتفيلد ديفي ورونالد ريفيست، حججًا تفصيلية ضد تقنيات المسح من جانب العميل، مشيرين إلى أن أي تدخل قد يعرض الشخص للخطر ويؤثر سلبًا على الخصوصية الفردية.

في النهاية، تظل معركة التشفير مفتوحة، حيث يتعين على الحكومات والشركات التقنية والمجتمع الدولي العمل معًا لإيجاد توازن بين الأمان والخصوصية.

يذكر أنه في العديد من الدول الاستبدادية، تم حظر التشفير أو تقييده بشدة، أما في معظم الديمقراطيات، فإن هناك تركيزا أكثر حول ما إذا كان يمكن التخفيف من قيود التشفير من عدمه. 

 

المصدر: موقع الحرة