Logos

أصوات مغاربية الآن علي موقع الحرة

اضغط. هنا لزيارة موقع الحرة

تكنولوجيا

الذكاء الاصطناعي والتسجيل الصوتي.. إمكانات هائلة ومحاذير أخلاقية

15 مايو 2023

يثير الذكاء الاصطناعي مخاوف على مستقبل وظائف العاملين بمجال التسجيل الصوتي، إذ أصبح تركيب الصوت في ألعاب الفيديو مثلا نموذجا لهذا التأثير، وفق تقرير مطول لصحيفة "الغارديان"، نشر السبت.

ووفقا للتقرير فإن التطورات التقنية التي تسهل إعادة تكوين الأصوات البشرية تثير أيضا تساؤلات أخلاقية بشأن حقوق العاملين بمجال التسجيل الصوتي، والموسيقيين.

وفي مثال توضيحي، عندما تم تطوير لعبة Red Dead Redemption 2 عام 2013، استغرق الأمر 2200 يوم لتسجيل 1200 صوت في اللعبة عبر 700 ممثل صوتي، قاموا بقراءة 500 ألف سطر من الحوار المكتوب.

واعتبر ذلك إنجاز هائل، ويكاد يكون من المستحيل على أي استوديو آخر تقليده. ولكن مع التقدم في الذكاء الاصطناعي، أصبح من السهل إعادة إنشاء الأصوات البشرية، بالإضافة إلى توفر خيارات حوار غير محدودة تقريبا، لكن هذه التكنولوجيا تثير تساؤلات بشأن أخلاقيات تركيب الأصوات.

ويقول شرياس نيفاس، الرئيس التنفيذي لشركة استديوهات Replica، "نأمل أن يكون هناك المئات، إن لم يكن الآلاف من الاستوديوهات الأخرى التي يمكن أن تنجز ألعابا مثل [Red Dead Redemption 2] لأن الجميع يريد القيام بذلك".

وأضاف نيفاس أن "تسجيل كل سطر من الحوار على حدة غير فعال للغاية من منظور التكلفة، ومن منظور زمني، ويحتاج إلى وجود فرق ضخمة".

وقامت الشركة الأسترالية بترخيص أصوات 120 ممثلا لاستخدامها في ألعاب الفيديو، وبتطوير برنامج يمكنه استيعاب نحو 1000 نغمة صوتية مختلفة.

ويرى نيفاس أن تركيب الصوت باستخدام الذكاء الاصطناعي هو المستقبل، ولكن كما هو الحال مع العديد من التطورات في هذا المجال، فإن هناك معضلات أخلاقية.

وتلفت الصحيفة إلى وجود أدوات تركيب صوت مجانية عبر الإنترنت يمكن استخدامها لتقليد أصوات المشاهير أو الشخصيات السينمائية والتلفزيونية، غالبا من دون إذن هؤلاء الفنانين.

وأفادت "بلومبرغ" في تقرير نشر بشهر أبريل الماضي أن بعض الممثلين الصوتيين "صدموا" عندما اكتشفوا أن أصواتهم تستخدم في محتوى لم يشاركوا فيه، وعلموا لاحقا أن شروط عقدهم كانت واسعة بما يكفي لتغطية مثل هذه الاستخدامات.

ويشير التقرير إلى وجود مخاوف لدى العاملين بمجال التسجيل الصوتي من أن يؤثر الذكاء الاصطناعي على أعمالهم.

وفي اليابان عقدت جمعية عمال الفنون المسرحية مؤتمرا صحفيا في وقت سابق من هذا الشهر، أثارت خلاله مخاوف بشأن تأثير الذكاء الاصطناعي على التمثيل الصوتي والموسيقى. ودعت المجموعة التي تضم نحو 52 ألف عامل إلى تشريعات لحماية وظائفهم.

مواضيع ذات صلة

تكنولوجيا

باحثون يستخدمون الذكاء الاصطناعي لتفنيد نظريات المؤامرة

15 سبتمبر 2024

أشارت دراسة نشرتها مجلة "ساينس"الأميركية مؤخرا إلى نجاح باحثين في تطوير روبوت يعتمد على الذكاء الاصطناعي، للدخول في نقاش مع أشخاص يصدقون نظريات مؤامرة منتشرة على الإنترنت، وإقناعهم بتغيير آرائهم.

الدراسة التي نشرت الخميس، مولها معهد ماساتشوستس للتكنولوجيا بالتعاون مع مؤسسة جون تمبلتون، وأثبتت أنه بإمكان استخدام الذكاء الاصطناعي، أن يلمع صورته التي أصبحت مرتبطة بنشر المعلومات المضللة، كي يتمكن من محاربتها.

وقام فريق الباحثين الذي قاده أستاذ علم النفس في الجامعة الأميركية، توماس كوستيلو، بتصميم روبوت محاور، "تشات بوت"، باستخدام برمجية "تشات جي بي تي 4"، وهي أحدث إصدارات النماذج اللغوية لشركة "أوبن إيه آي"، ومقرها سان فرانسيسكو، شمال ولاية كاليفورنيا.

وفي مرحلة موالية تم تدريب ذلك الروبوت على الحوار والنقاش، باستخدام قاعدة بيانات ضخمة، تتضمن معلومات متنوعة في عدة مجالات، مثل الصحة والتغير المناخي والأفكار السياسية المتطرفة.

شملت الدراسة عينة تتضمن أكثر من ألفي شخص، تم اختيارهم طبقا لمعطيات مركز الإحصاء الوطني الأميركي، حتى تعكس الخصائص الأساسية للمجتمع الأميركي، من النواحي العرقية والثقافية والفئة العمرية وغيرها.

وأجاب المشاركون على سؤال يتعلق بفحوى الأفكار والمفاهيم التي توصف بأنها نظريات مؤامرة مخالفة للواقع، والتي يؤمنون بها. وبناء على تلك الإجابات، دخل الروبوت الجديد في حوار مع جميع الأشخاص المشاركين في الدراسة.

يشير كوستيلو إلى أن حواراً قصيراً مع برنامج محاورة يعتمد على الذكاء الاصطناعي، يمكن أن يقلص مصداقية نظريات المؤامرة، بنسبة قد تصل إلى 20 في المئة. ويأتي هذا التأكيد بعد تحليل لنتائج الحوار الذي خاضه الروبوت مع المشاركين في الدراسة، والآراء التي خرجوا بها بعد انتهاء التجربة.

لكن العلماء أشاروا إلى الحاجة لمزيد من الأبحاث المماثلة، تهدف إلى تصميم نماذج معيارية للذكاء الاصطناعي، بإمكانها تفنيد نظريات المؤامرة التي ظهرت حديثاً أو منذ مدة قصيرة، ولم يتم تداول الكثير من المعلومات حولها. إذ يعتمد نجاح الروبوت المحاور على قاعدة البيانات الضخمة، التي تمكنه من تقديم أدلة ملموسة أثناء النقاش، قصد مواجهة الأفكار المضللة، والمعلومات المزيفة. وهو ما قد يقلل من فرص نجاح الروبوت في تفنيد الأفكار البسيطة أو تلك التي تنتشر بسرعة عقب ظهورها.

تأتي هذه الدراسة بالتزامن مع تصاعد المخاوف من الاستخدام المتزايد للذكاء الاصطناعي لإنتاج محتوى مزيف، يتم نشره للتأثير على الرأي العام. إذ يمكن الذكاء الاصطناعي من جعل عمليات التضليل الإعلامي تدار بطريقة آلية، ما يمنحها زخما أكبر، وانتشاراً أوسع.  

وكانت صحيفة نيويورك تايمز أشارت إلى الاستخدام المتزايد للروبوتات المعتمدة على الذكاء الاصطناعي في الحملات الدعائية على وسائل التواصل الاجتماعي.

وتمكنت تلك الروبوتات من التفاعل مع أعداد كبيرة من الأشخاص عبر توجيه أسئلة وتعليقات مباشرة، وخلال حيز زمني قصير، في محاكاة ردود الفعل البشرية.

تتزايد المخاوف أيضاً من استخدام دول وحكومات للذكاء الاصطناعي في حملاتها الدعائية، مثل الاتهامات الموجهة لروسيا وإيران بمحاولة التأثير على الانتخابات الأميركية، والتي أثارت الكثير من الجدل السياسي في الولايات المتحدة. 

 

المصدر: موقع الحرة