Logos

أصوات مغاربية الآن علي موقع الحرة

اضغط. هنا لزيارة موقع الحرة

موظفو غوغل المتظاهرون خلال مسيرة خارج مكاتب الشركة في سان فرانسيسكو
موظفو غوغل المتظاهرون خلال مسيرة خارج مكاتب الشركة في سان فرانسيسكو

فصلت "ألفابت"، الشركة الأم لـ"غوغل"، 28 موظفا عن العمل بعد مشاركتهم في احتجاجات ضد "مشروع نيمبوس"، وهو عقد مشترك بقيمة 1.2 مليار دولار مع شركة "أمازون" لتزويد الحكومة الإسرائيلية بخدمات الذكاء الاصطناعي والحوسبة السحابية، حسبما نقلته وكالة "بلومبيرغ".

ونظمت الاحتجاجات، التي قادتها منظمة "لا تكنولوجيا للفصل العنصري"، الثلاثاء، في مكاتب غوغل في مدينة نيويورك وسياتل وسانيفيل بولاية كاليفورنيا. 

واعتصم المحتجون في نيويورك وكاليفورنيا لما يقرب من 10 ساعات، وقام آخرون بتوثيق الحدث، بما في ذلك من خلال بث مباشر على منصة تويتش، قبل أن يتم اعتقال تسعة منهم، مساء الثلاثاء، بتهمة التعدي على الممتلكات، وفقا لبلومبيرغ.

وتلقى العديد من العاملين المشاركين في الاحتجاجات، بمن فيهم أولئك الذين لم يشاركوا بشكل مباشر في الاعتصام، رسالة من إدارة الشركة تبلغهم بأنهم قد أُحيلوا إلى إجازة. 

وأعلمت غوغل الموظفين المعنيين بأنها "تحافظ على سرية هذه المسألة قدر الإمكان، وتكشف المعلومات فقط على أساس الحاجة إلى المعرفة"، بحسب ما جاء في بريد إلكتروني اطلعت عليه بلومبيرغ.

ومساء الأربعاء، تم إخطار العمال بفصلهم عن العمل، وفقا لبيان من موظفي غوغل المشاركين بحملة "لا تكنولوجيا للفصل العنصري".

وقالت غوغل في بيان حول المحتجين: "إن إعاقة عمل الموظفين الآخرين جسديا ومنعهم من الوصول إلى مرافقنا هو انتهاك واضح لسياساتنا، وسلوك غير مقبول بتاتا". 

وأضافت في بيانها"بعد رفض طلبات متعددة بمغادرة المبنى، تم إشراك سلطات إنفاذ القانون لإبعادهم لضمان سلامة المكتب. لقد أجرينا حتى الآن تحقيقات فردية أدت إلى إنهاء توظيف 28 موظفا، وسنستمر في التحقيق واتخاذ الإجراءات اللازمة".

وقال اثنان من موظفي غوغل الذين شاركوا في الاحتجاج في كاليفورنيا لبلومبيرغ، إن مجموعة من العمال تجمعت في الطابق السادس من مكتب الشركة في سانيفيل، حيث يقع مكتب المدير التنفيذي لشركة غوغل كلاود (Google Cloud) ، توماس كوريان، لإظهار الدعم لأولئك الذين كانوا يشاركون في الاعتصام. 

ولا يزال من غير الواضح، وفقا لبلومبيرغ، الطريقة التي استطاعت بها الشركة تحديد هوية الموظفين الذين شاركوا في الاحتجاج. فوفقا لما ذكره بعضهم، لم يتم تسجيل جميع المشاركين من خلال مسح شاراتهم الوظيفية من قبل أفراد الأمن، بل إن بعض الذين تم فصلهم كانوا متواجدين خارج مباني الشركة أثناء الاحتجاج.

وأفاد أحد الموظفين بأن شركة غوغل، ربما لجأت إلى وصف قرار وضع الموظفين المحتجين في إجازة مبدئيا بأنه "سري"، وذلك في محاولة لتفادي الحرج والإحراج العلني. 

وأكد الموظف ذاته، أن المحتجين لم ينتهكوا أيا من سياسات الشركة، حيث أنهم غادروا مباني الشركة، فور أن طُلب ذلك منهم، ولم يقوموا بعرقلة أو تعطيل عمل زملائهم الآخرين في الشركة.

ما هو مشروع "نيمبوس"؟

وذكرت صحيفة "هآرتس" في عام 2021، أن عقد المشروع ينص  على قيام غوغل وأمازون بتوفير خدمات الذكاء الاصطناعي والحوسبة السحابية للحكومة الإسرائيلية، وفقا لوزارة المالية الإسرائيلية، التي أعلنت عن الصفقة في العام ذاته.

وبحسب ما ورد تتضمن شراكة "نيمبوس" قيام غوغل بإنشاء مثيل آمن لـ "غوغل كلاود" على الأراضي الإسرائيلية، الأمر الذي من شأنه أن يسمح للحكومة الإسرائيلية بإجراء تحليل للبيانات على نطاق واسع، والتدريب على الذكاء الاصطناعي، واستضافة قواعد البيانات، وأشكال أخرى من الحوسبة القوية باستخدام تكنولوجيا غوغل، مع القليل من الإشراف من قبل الشركة. 

وتشير مستندات غوغل، التي أبلغ عنها موقع "إنترسبت" لأول مرة في عام 2022، إلى أن خدمات الشركة المقدمة لإسرائيل عبر سحابتها تتمتع بقدرات مثل اكتشاف الوجه المدعوم بالذكاء الاصطناعي، والتصنيف الآلي للصور، وتتبع الكائنات.

وتقول مجلة تايم، إنه لا يوجد مزيد من التفاصيل حول العقد، "وإحباط العمال يرجع إلى ما يقولون إنه افتقار غوغل للشفافية حول ما يستلزمه مشروع نيمبوس والطبيعة الكاملة لعلاقة الشركة مع إسرائيل".

ولم تصف غوغل ولا أمازون ولا إسرائيل القدرات المعروضة على إسرائيل بموجب العقد، وفقا للمصدر ذاته. 

المصدر: الحرة / ترجمات

مواضيع ذات صلة

A Chinese army man, right, tests a machine gun equipped on a robot dog before participating in the Golden Dragon military…
جندي في الجيش الصيني يحاول التحكم في روبوت حربي

كشف تقرير لمجلة "ذا إيكونومست" عن سباق تسلح جديد يتعلق باستخدام الذكاء الاصطناعي في تطوير الأسلحة وفي خوض الحروب، وأشار التقرير إلى أن أدوات الذكاء الاصطناعي أسهمت بفاعلية في الحروب الحديثة.

ودلل التقرير على أن الأدوات والأسلحة التي تحتمل توظيف الذكاء الاصطناعي، جرى استخدامها على نطاق متزايد في أماكن مثل غزة وأوكرانيا، في وقت تتصاعد فيه نسبة ومعدلات الصرف على مثل تلك الأنواع من الأسلحة.

وأشار إلى أن هناك إقبالا على نظام ستورم كلاود، كأحد الأنظمة لتطوير الأسلحة وتوظيف الذكاء الاصطناعي في العمليات العسكرية، وعمليات صيانة الطائرات الحربية.

وفي المقابل، يحذر حقوقيون وقانونيون من أن توظيف واستخدام الذكاء الاصطناعي في الأسلحة سيجعل الحرب أكثر فتكا وأقل إنسانية، خاصة مع تزايد احتمال نشوب حرب بين القوى العظمى.

وباتت براعة الجيوش في الحروب تعتمد على الذكاء الاصطناعي كجزء من التقدم التكنولوجي، ما يدفع الولايات المتحدة والصين للدخول في منافسة على التفوق في هذا المجال من أجل رسم المشهد العالمي المستقبلي، بحسب مجلة "ذا ناشيونال إنترست".

ووفقا للمجلة ذاتها، رغم أن الذكاء الاصطناعي اكتسب شعبية كبيرة خلال السنوات القليلة الماضية، كانت القوى العظمى تبحث في التطبيقات العسكرية للذكاء الاصطناعي منذ عقود. ومنذ عام 2014، كانت الولايات المتحدة تعمل على بناء الأساس لدمج الذكاء الاصطناعي في جيشها.

ووجدت دراسة حديثة أجرتها مؤسسة راند، وهي مؤسسة فكرية، أن الذكاء الاصطناعي، يلعب دورا مهما في عمليات تحديث وصيانة الطائرات الحربية، وذلك من خلال التنبؤ بالوقت الذي ستكون فيه تلك الطائرات في حاجة إلى الصيانة.

وبحسب تقرير مجلة "ذا إيكونومست"، يستخدم الجيش الأميركي الخوارزميات للتنبؤ بالوقت الذي ستحتاج فيه مدافع الهاوتزر الأوكرانية إلى براميل جديدة، بينما تستخدم بعض الجيوش الذكاء الصناعي في المساعدة في تقييم وتأهيل الجنود. 

وطورت روسيا وأوكرانيا برمجيات لصنع طائرات مسيرة قادرة على التحليق إلى الهدف بشكل مستقل، حتى في حال أدى التشويش إلى تعطيل تحكم الطيار في الطائرة المسيرة.

وتتنافس دول عدة على تطوير وتصنيع وامتلاك "الأسلحة فرط الصوتية" التي تعتمد على الذكاء الاصطناعي، والتي يمكن أن تغير قواعد اللعبة في الحروب، نظرا لقدراتها على الهجوم بسرعة، وإمكانية إطلاقها من مسافات كبيرة وامتلاكها المقدرة على التهرب من معظم وسائل الدفاع الجوي، وفقا لتقرير لصحيفة "وول ستريت جورنال"، في 16 سبتمبر الماضي.

والأسلحة "الفرط صوتية" قادرة على الهجوم بسرعة كبيرة، ويمكن إطلاقها من مسافات كبيرة والتهرب من معظم الدفاعات الجوية، ويمكنها حمل متفجرات تقليدية أو رؤوس حربية نووية.

لكن مع ذلك، يشير خبراء إلى أن التكنولوجيا وخوارزميات الاستهداف لا تزال تواجه العديد من المشاكل ذاتها التي تواجهها السيارات ذاتية القيادة، مثل الشوارع المزدحمة والأشياء الغامضة.

وفي رأي مجلة "الإيكونومست"، يستطيع الذكاء الاصطناعي معالجة ما هو أكثر من مجرد المكالمات الهاتفية أو الصور.

وتشير المجلة إلى أن البحرية البريطانية أعلنت في مارس الماضي، أن وحدة اكتشاف الألغام التابعة لها أكملت عامًا من التجارب في الخليج العربي، باستخدام قارب صغير ذاتي القيادة، يستطيع البحث عن الألغام في قاع البحر وتنبيه السفن أو الوحدات الأخرى عنها. 

وفي معظم الحالات، يقوم الذكاء الاصطناعي بتحديد إشارة وسط الضوضاء أو جسم وسط الفوضى، ويحدد ما إذا كان ذلك شاحنة أم دبابة، سفينة صيد أم غواصة، ولكن مع ذلك ربما يكون تحديد المقاتلين من البشر أكثر تعقيدا.

وفي أبريل الماضي، زعمت وسائل إعلام إسرائيلية، أن الجيش الإسرائيلي كان يستخدم أداة ذكاء اصطناعي تُعرف باسم لافندر، لتحديد آلاف الفلسطينيين كأهداف، حيث يقوم المشغلون البشريون فقط بفحص سريع لمخرجات النظام قبل الأمر بالضربات. 

لكن الجيش الإسرائيلي رد قائلاً إن لافندر "مجرد قاعدة بيانات تهدف إلى مقارنة مصادر الاستخبارات".

وينقل تقرير مجلة "ذا إيكونومست" عن كلينت هينوت، وهو جنرال أميركي متقاعد، وميك رايان، وهو جنرال أسترالي متقاعد، قولهما إن برنامج "جيس آرتا" الأوكراني، الذي يجمع البيانات عن الأهداف الروسية، لأجهزة المدفعية، "يمكنه بالفعل إنشاء قوائم بالأهداف المحتملة وفقًا لأولويات القائد".

وبحسب الجنرالين هينوت ورايان، فإن أحد أسباب تقدم روسيا في أوكرانيا في الأشهر الأخيرة هو أن أنظمة C2 الروسية تتحسن في معالجة المعلومات من الطائرات من دون طيار، وإرسالها إلى المقاتلين والأسلحة. 

وطلبت القوات الجوية الأميركية مؤخرا من مؤسسة راند تقييم ما إذا كانت أدوات الذكاء الاصطناعي يمكن أن توفر معلومات وخيارات لمقاتلة فضائية، تتعامل مع تهديد محتمل لقمر صناعي. وكانت النتيجة أن الذكاء الاصطناعي يمكنه بالفعل التوصية بإرشادات عالية الجودة. 

ويلفت تقرير مجلة "الإيكونومست" إلى أن الوكالة البحثية للبنتاغون، تعمل على برنامج للاستراتيجيات والتخطيط، لإنتاج إرشادات للقادة أثناء الحرب.

ويقول إريك ديفيس، مدير البرامج في الوكالة إن "الكثير من الأساليب التي يتم استخدامها في مشروع الاستراتيجيات والتخطيط لم تكن موجودة قبل عامين إلى خمسة أعوام". 

ويشير خبراء قانونيون وناشطون إلى أن الدور المتزايد للذكاء الاصطناعي في الحرب محفوف بالمخاطر، إذ إن "الأنظمة الحالية لا يمكنها التعرف على النوايا العدائية للأشخاص". 

ويقول نوام لوبيل، من جامعة إسيكس الأميركية، إن "تلك البرامج لا تستطيع التمييز بين جندي قصير القامة يحمل مسدسا حقيقيا، وبين طفل يحمل مسدسا مصنوعا للترفيه واللعب، أو بين جندي جريح يرقد على بندقية، وقناص مستعد لإطلاق النار من بندقية قنص". 

ويوضح ستيوارت راسل، وهو خبير في مجال الكمبيوتر، أنه "يمكن خداع أدوات الذكاء الاصطناعي من خلال طباعة أو تصميم علامات على أشياء ليست حربية، مثل أعمدة الإنارة مثلا، لإيهام السلاح بأن هذه دبابة".

ويحذر خبراء من أخطاء الأسلحة التي تعتمد على الذكاء الاصطناعي، ويشيرون إلى أن الأخطاء التي تنتج عنها يمكن أن تكون مدمرة وفظيعة، ويطالبون بعدم إخراج الإنسان من قرار التصويب".

ونقل التقرير عن بالمر لوكي، مؤسس شركة أندوريل، إحدى الشركات المشاركة في نظام ستورم كلاود، قوله "إنه أمر مغرٍ حقا، ولكن يمكنك خرق القانون الدولي".

وأقر لوكي بأن الذكاء الاصطناعي سيكون أقل أهمية في المهمة "القذرة، والفوضوية، والفظيعة" لحرب المدن، على غرار حرب غزة".

وكان الأمين العام للأمم المتحدة، أنطونيو غوتيرش، أشار في أبريل الماضي، إلى أن التقارير التي تتحدث عن استخدام الجيش الإسرائيلي الذكاء الاصطناعي في حربه على غزة تثير "قلقا"، من أن تصبح "قرارات الحياة والموت" مرتبطة "بحسابات تجريها الخوارزميات".

وكان نص لمجلس حقوق الإنسان التابع للأمم المتحدة دان "استخدام إسرائيل أسلحة متفجرة ذات أثر واسع النطاق في مناطق غزة المأهولة" واستخدام الذكاء الاصطناعي "للمساعدة في عملية اتخاذ القرار العسكرية" باعتبار أن ذلك "قد يساهم في جرائم دولية".

 

المصدر: موقع الحرة