Logos

أصوات مغاربية الآن علي موقع الحرة

اضغط. هنا لزيارة موقع الحرة

A man wearing an Apple smartwatch uses a smartphone to access the WhatsApp messaging and voice over IP (VOIP) application, in…

أصبح التشفير في السنوات الأخيرة عنصرا حاسما في حماية خصوصية الأفراد على الإنترنت، وخصوصا في الرسائل الإلكترونية وتطبيقات المراسلة.

وبينما يحمي التشفير الأفراد من الجرائم مثل سرقة الهوية أو المراقبة غير القانونية، فإن وكالات إنفاذ القانون والأمن الوطني تجادل بأن التشفير يجعل من الصعب، أو حتى مستحيلاً، على الأجهزة الأمنية التحقيق في الجرائم والتهديدات المتعلقة بالسلامة العامة، وفق موقع مركز سياسة الأمن السيبراني.

وفي تسعينيات القرن الماضي، واجه المبرمجون الذين طوروا أدوات التشفير في الولايات المتحدة صعوبة في تصدير هذه البرمجيات، حيث اعتبرت الحكومة هذه الأدوات كمواد خاضعة لرقابة مماثلة للأسلحة.

وكانت هناك مخاوف بشأن كيفية تأثير هذه التقنيات على الأمن القومي، ما أدى إلى قيود صارمة على تصدير البرمجيات التي توفر تشفيرًا قويًا.

لكن مع مرور الوقت، تغيرت الأمور بشكل ملحوظ، حيث انتصر دعاة الخصوصية، وتمكنت تقنيات التشفير من تحقيق انتشار عالمي، وفق تقرير لـ"الإيكونوميست".

ويستخدم الناس اليوم، أدوات التشفير بشكل واسع، بدءًا من الرسائل المشفرة بين المراهقين وصولاً إلى استخدامها من قبل العسكريين في مناطق النزاع مثل أوكرانيا.

وقد أدى ذلك إلى جدل بل "مواجهة" بين الحكومات والشركات التقنية بشأن التوازن بين الأمان وحقوق الأفراد.

وأحد أبرز التحديات التي تواجه التشفير هو طلبات الحكومات للوصول إلى محتوى الرسائل المشفرة.

فعلى سبيل المثال، طلبت السلطات الفرنسية مؤخرًا من بافيل دوروف، المدير التنفيذي لتطبيق "تيليغرام"، تقديم معلومات حول الرسائل المشفرة.

وبينما نفى دوروف ارتكاب أي مخالفات، فإن القوانين في بلدان مختلفة تتطلب من الشركات التقنية توفير طرق للوصول إلى المحتوى، ما يثير قلقًا بشأن إمكانية استخدام "الأبواب الخلفية" في التشفير.

وأكد دوروف في بيان، الجمعة، أن التطبيق يخطط لمراجعة سياسات مراقبة المحتوى، مشيرا إلى أنه كان يجدر على السلطات الفرنسية نقل شكواها إلى الشركة القائمة على "تيليغرام" دون اللجوء إلى اعتقاله.

وخضع دوروف، الأسبوع الماضي، لتحقيق رسمي في فرنسا فيما يتعلق باستخدام تيليغرام في جرائم مثل الاحتيال وغسل الأموال ونشر صور لاستغلال الأطفال جنسيا.

وكتب دوروف على تيليغرام يقول "99.999 بالمئة من مستخدمي تيليغرام لا علاقة لهم بالجرائم، لكن 0.001 بالمئة متورطون في أنشطة غير مشروعة يخلقون صورة سيئة للمنصة بأكملها، مما يعرض مصالح ما يقرب من مليار مستخدم للخطر".

وفي بعض البلدان، تواجه الحكومات صعوبة في التعامل مع هذه التقنيات، إذ اقترحت المملكة المتحدة تقنيات "معتمدة" لتحديد المحتوى غير القانوني، ولكن لم يتم اعتماد أي منها حتى الآن.

وفي الاتحاد الأوروبي، تم اقتراح نظام "Chat Control 2.0" الذي يجبر منصات الرسائل على مسح المواد المتعلقة بالاعتداء الجنسي على الأطفال، ما أثار جدلاً كبيرًا حول تأثير ذلك على خصوصية المستخدمين.

وفي الهند، تطلب الحكومة من تطبيقات الرسائل تنفيذ "قابلية التتبع" لتحديد مصدر الرسائل، مما أثار مواجهة مع "واتساب"، حيث تقول الشركة إن هذا الأمر يعرض التشفير للخطر، وقد تترك السوق الهندية إذا أصر المسؤولون على هذا الطلب.

وبينما تصر الشركات التقنية على الحفاظ على أمان التشفير، يواصل الخبراء في المجال تقديم حجج ضد أي تعديلات قد تضعف هذه التقنية.

في دراسة حديثة، قدمت مجموعة من الخبراء، بما فيهم ويتفيلد ديفي ورونالد ريفيست، حججًا تفصيلية ضد تقنيات المسح من جانب العميل، مشيرين إلى أن أي تدخل قد يعرض الشخص للخطر ويؤثر سلبًا على الخصوصية الفردية.

في النهاية، تظل معركة التشفير مفتوحة، حيث يتعين على الحكومات والشركات التقنية والمجتمع الدولي العمل معًا لإيجاد توازن بين الأمان والخصوصية.

يذكر أنه في العديد من الدول الاستبدادية، تم حظر التشفير أو تقييده بشدة، أما في معظم الديمقراطيات، فإن هناك تركيزا أكثر حول ما إذا كان يمكن التخفيف من قيود التشفير من عدمه. 

 

المصدر: موقع الحرة

مواضيع ذات صلة

ذكاء اصطناعي- صورة تعبيرية
ذكاء اصطناعي- صورة تعبيرية

قالت شركة أميركية تنشط في مجال التكنولوجيا، إنها "اكتشفت الآلاف من العيوب ونقاط الضعف في أدوات الذكاء الاصطناعي التوليدية الشهيرة"، وأشارت إلى أن تلك الأدوات تنتج محتوى عنيفا أو جنسيا، وفق صحيفة "واشنطن بوست" الأميركية.

وقالت شركة "هييز لابس"، إن "أنشطتها تهدف إلى المساعدة في استئصال عيوب ونقاط ضعف الذكاء الاصطناعي، وتحديد الطرق الآمنة للتعامل مع تلك التقنيات".

وأشارت إلى أن بعض أدوات الذكاء الاصطناعي التوليدية أرشدت بعض المستخدمين لإنتاج أسلحة كيميائية وبيولوجية.

وأضحى الذكاء الاصطناعي مصدر قلق، مع قيام المزيد من الشركات بتوظيف الأدوات التوليدية في أنشطتها وفي إرشاد المستهلكين على منتجاتها. 

واجهت شركة غوغل، الشهر الماضي، موجة من الانتقادات، بسبب إحدى أدوات الذكاء الاصطناعي التوليدية المخصصة للإجابة على أسئلة المستخدمين

إذ أرشدت الأداة إلى أنشطة ضارة، مثل نصحها أحد المستفسرين بتناول صخرة صغيرة يوميا، كنوع من العلاج، أو إضافة الغراء إلى البيتزا، على نحو ما ذكرته الأداة لمستفسر آخر. 

وفي تقرير نشرته نهاية ماي الماضي، ذكرت صحيفة "وول ستريت جورنال" أن "معدل التحسن في أنظمة الذكاء الاصطناعي يتباطأ، وأن عدد التطبيقات أقل مما كان متصورا في الأصل، حتى بالنسبة لأكثرها قدرة".

وأشارت إلى أن معظم التحسينات النوعية والقابلة للقياس في نماذج الذكاء الاصطناعي، مثل "تشات جي بي تي" من "أوبين إيه أي"، و"جيمناي" من  غوغل، تحتاج إلى إدخال المزيد من البيانات إليها.

وفي فبراير، تعرضت شركة طيران كندا لسلسلة من الانتقادات، عندما وعد برنامج الدردشة الآلي الخاص بها، والمزود بتقنية الذكاء الاصطناعي، أحد المسافرين، بخصم مالي وهمي.

ونقلت "واشنطن بوست" عن جاك كلارك، من شركة أبحاث الذكاء الاصطناعي، قوله، إنه "مع انتشار أنظمة الذكاء الاصطناعي على نطاق واسع، سنحتاج إلى مجموعة أكبر من المؤسسات، لاختبار قدرات تلك الأنظمة، ولتجنب مشكلات السلامة".

ويلفت بعض الخبراء إلى أنه على الرغم من الجهود التي تبذلتها شركات الذكاء الاصطناعي الكبرى، إلا أنه لا يزال من السهل للغاية، إقناع هذه الأدوات بالقيام بأشياء، ليس من المفترض أن تفعلها.

ومع ذلك، يتصاعد الاعتماد على الذكاء الاصطناعي. إذ وجدت دراسة أجرتها مايكروسوفت و"لينكد إن"، أن 3 من كل 4 من المديرين والمتخصصين، يستخدمون الذكاء الاصطناعي في العمل.

وقال غراهام نيوبيغ، الأستاذ المشارك في علوم الكمبيوتر بجامعة كارنيغي ميلون، إن أدوات الرقابة الخاصة بالذكاء الاصطناعي التابعة لجهات خارجية مهمة، لأنها محايدة".

ولفت إلى أن أدوات الرقابة والأمان التابعة لجهة خارجية تتمتع بأداء أعلى، فيما يتعلق بالتدقيق، لأنه تم إنشاؤها بواسطة مؤسسة متخصصة، على عكس قيام كل شركة ببناء أدواتها المعنية بالرقابة والتدقيق.