Logos

أصوات مغاربية الآن علي موقع الحرة

اضغط. هنا لزيارة موقع الحرة

تكنولوجيا

تجسس وابتزاز.. كيف جعل الذكاء الاصطناعي عالم الجريمة "أكثر خطرا"؟

13 أغسطس 2023

رغم أن التطور المستمر في التكنولوجيا يسهّل حياة الإنسان، ويمكن أن يقدم خدمات جليلة للبشرية، فإنه يبقى "سلاحا ذو حدين".

وسلطت شبكة "سكاي نيوز" البريطانية في تقرير لها، الضوء على الذكاء الاصطناعي، وكيف يمكن أن يغير من مستقبل الجريمة في العالم.

ومن الهجمات الإرهابية وإساءة معاملة الأطفال إلى مؤامرات الابتزاز والخطف والاحتيال والتجسس على الشركات، تأتي ثورة الذكاء الاصطناعي بخطر كبير، تماما كما هو الحال مع الفوائد العظيمة التي تقدمها هذه التقنية.

وفيما يلي، استعراض للطرق التي يتم بها استغلال الذكاء الاصطناعي في عالم الجريمة، والتي يحذر خبراء حول العالم منها ويدعون إلى اتخاذ الحيطة بشأنها:

محتوى إرهابي

تتيح بعض تطبيقات الذكاء الاصطناعي النقاش مع الأشخاص حتى في المحتوى المتطرف من خلال البرامج التي تتعلم أساليب المستخدمين لتقليدهم، مما يؤدي إلى تبادل الأفكار والنقاشات التي يمكن أن تؤدي إلى أعمال إرهابية.

وتمثل برامج الدردشة باستخدام الذكاء الاصطناعي "المرحلة التالية" بالنسبة للأشخاص الذين يجدون متطرفين متشابهين في التفكير عبر الإنترنت، كما قال المراجع الحكومي المستقل لقانون الإرهاب، جوناثان هول كيه سي، لشبكة "سكاي نيوز".

وحذر من أن التشريع الحكومي الرئيسي للسلامة على الإنترنت - مشروع قانون الأمان على الإنترنت - سيجد أنه "من المستحيل" التعامل مع محتوى الإرهاب الناتج عن الذكاء الاصطناعي.

وسيضع القانون المسؤولية على الشركات لإزالة المحتوى الإرهابي، لكن عملياتها تعتمد عموما على قواعد بيانات المواد المعروفة، والتي لن تلتقط الخطاب الجديد الذي تم إنشاؤه بواسطة روبوت محادثة للذكاء الاصطناعي.

وقال هول كيه سي: "أعتقد أننا نسير نائمين بالفعل في موقف مشابه للأيام الأولى لوسائل التواصل الاجتماعي، حيث تعتقد أنك تتعامل مع شيء منظم، ولكنه ليس كذلك".

وتابع: "قبل أن نبدأ في الحميل ومنحها للأطفال ودمجها في حياتنا (برامج وتطبيقات الذكاء الاصطناعي)، نحتاج إلى معرفة الضمانات في الممارسة العملية - ليس فقط الشروط والأحكام - ولكن من الذي يقوم بتنفيذها وكيف!".

التزييف العميق ومؤامرات الابتزاز

يتم استغلال تقنيات الذكاء الاصطناعي في "التزييف العميق" للصور أو مقاطع الفيديو، والتي يمكن أن تُظهر شخصا ما يفعل شيئا لم يفعله، مما يؤدي إلى تنفيذ مؤامرات ابتزاز.

ويمكن تركيب وجه شخص في مقطع مزيف، بما في ذلك القدرة على وضع وجه جديد على فيديو إباحي.

وقال البروفيسور لويس غريفين، أحد مؤلفي ورقة بحثية نشرها مركز "داوس" للجريمة المستقبلية بجامعة "يونيفيرسيتي كوليدج" لندن عام 2020، والتي صنفت الاستخدامات غير القانونية المحتملة للذكاء الاصطناعي، "إنه أمر مزعج للغاية".

وحذر من أنه يتم استخدام هذه التقنية "لاستغلال الأطفال"، موضحا: "إساءة معاملة الأطفال باستخدام الذكاء الاصطناعي مرعبة، ويمكنهم فعل ذلك الآن".

وأضاف: "يمكنك تخيل أن يرسل شخص ما مقطع فيديو إلى أحد الوالدين، يظهر طفلهما بوضع مخل، ويهدد بنشره".

سرقة الأموال الكبيرة

وقد يكون من الممكن قريبا ظهور "مجموعة جديدة من الجرائم" مع ظهور نماذج لغة كبيرة من برامج الذكاء الاصطناعي، يمكنها الانتقال إلى مواقع الويب والتصرف "كشخص ذكي" بناء على أوامر من المستخدم، من خلال إنشاء حسابات وملء النماذج وشراء أشياء، حسبما يقول غريفين.

وتابع: "بمجرد أن يكون لديك نظام للقيام بذلك، بمجرد أن تقول هذا ما أريدك أن تفعله، فهناك كل أنواع الأشياء الاحتيالية التي يمكن القيام بها على هذا النحو".

وأشار إلى أن سوء الاستخدام قد يدفع البعض للتقدم بطلب للحصول على قروض احتيالية، والتلاعب بالأسعار من خلال الظهور بمظهر "مستثمرين صغار".

حيل الخطف وانتحال الهوية

وباستخدام هذه التقنية أيضا، يمكن للمحتالين أن يستغلوا تقنية تركيب الأصوات لانتحال هوية شخص آخر، لاستخدامها في عمليات خطف وهمية.

على سبيل المثال، قد يستغل المجرمون تركيب بصمة الصوت لشخص ما، للاتصال بذويه وإبلاغهم بأنه مخطوف، مطالبا بدفع مبلغ معين كفدية لإطلاق سراحه.

وأشار غريفين إلى أن انتحال الهوية الصوتية أو المرئية لشخص، "زادت بشكل أسرع بكثير مما كان متوقعا".

وفي عام 2019، قام الرئيس التنفيذي لشركة طاقة مقرها المملكة المتحدة، بتحويل 220 ألف يورو (241.2 ألف دولار أميركي) إلى محتالين يستخدمون الذكاء الاصطناعي لانتحال شخصية رئيسه، وفقا للتقارير.

وقال غريفين إن مثل هذه الحيل "يمكن أن تكون أكثر فاعلية إذا تم دعمها بالفيديو، ويمكن استخدام التكنولوجيا للتجسس على الشركات، مع ظهور موظف مخادع في في اجتماع عبر "زوم" للحصول على معلومات، دون الحاجة إلى قول الكثير.

وأضاف أن عمليات الاحتيال هذه يمكن أن تزداد على نطاق واسع، مع احتمال أن تكون الروبوتات التي تستخدم لهجة محلية أكثر فاعلية في خداع الناس من المحتالين الذين يديرون حاليا المؤسسات الإجرامية التي تعمل من دول آسيوية.

 

المصدر: موقع الحرة

مواضيع ذات صلة

عبارة من البحر إلى النهر تستخدم من قبل متظاهرين مؤيدين للفلسطينيين
عبارة من البحر إلى النهر تستخدم من قبل متظاهرين مؤيدين للفلسطينيين

اعتبر مجلس الإشراف التابع لمجموعة ميتا، الأربعاء، أن الاستخدام المستقل لعبارة "من النهر إلى البحر"، وهو شعار كثيرا ما ينشره مستخدمون مؤيدون للفلسطينيين، لا ينتهك سياسات المحتوى الخاصة بالشركة.

استُخدمت العبارة "من النهر إلى البحر، فلسطين ستكون حرة" شعارا لكثيرين منذ اندلاع الحرب في غزة، وسط اتهام إسرائيل لهم بـ "معاداة السامية".

ومجلس ميتا المستقل هو السلطة العليا في اتخاذ قرارات تعديل المحتوى في ميتا. وراجع المجلس ثلاث حالات تتعلق بمنشورات على فيسبوك تحتوي على العبارة التي تثير جدلا والتي برزت على وقع الحرب والاحتجاجات العالمية ضدها.

وتوصل المجلس إلى أن المحتوى لم يخالف قواعد ميتا بشأن خطاب الكراهية والعنف والتحريض أو المنظمات أو الأفراد الخطيرين، ولا ينبغي أن يؤدي إلى إزالة المنشور على منصاتها.

ورأى أن "في دعم قرارات ميتا بإبقاء المحتوى، لاحظت غالبية المجلس أن العبارة لها معان متعددة ويستخدمها الناس بطرق مختلفة وبنوايا مختلفة".

وأضاف أن "الحالات الثلاث المتعلقة بالمحتوى تحديدا، تشمل إشارات سياقية للتضامن مع الفلسطينيين ولكن لا تحتوي على لغة تدعو إلى العنف أو الإقصاء".

وتشير العبارة "من النهر إلى البحر" إلى منطقة جغرافية بين نهر الأردن والبحر الأبيض المتوسط تشمل إسرائيل والضفة الغربية وغزة.

وكثيرا ما تُستخدم للتعبير عن الدعم للفلسطينيين ليحصلوا على حق تقرير المصير والمساواة في الحقوق، أو للدفاع عن حل الدولة الواحدة في النزاع، مع اليهود والفلسطينيين كمواطنين في البلد نفسه.

لكن، يفسر الكثير من الإسرائيليين واليهود هذه العبارة على أنها دعوة للقضاء بعنف على إسرائيل.

وقال مجلس الإشراف في ميتا إن أقلية من أعضائه  شعروا أنه بالنظر للهجمات التي شنتها حركة حماس في السابع من أكتوبر والتي أشعلت الحرب، فإن استخدام العبارة في منشور ما يجب أن يُؤخذ على أنه يشكل تمجيدا للحركة والعنف "ما لم تكن هناك إشارات واضحة خلاف ذلك".

المصدر: فرانس برس