رأي: إليك ما هو معرض للخطر إذا لم تعالج شركات التكنولوجيا الكبرى محتوى الذكاء الاصطناعي المخادع

متفرقات
نشر
7 دقائق قراءة
رأي: إليك ما هو معرض للخطر إذا لم تعالج شركات التكنولوجيا الكبرى محتوى الذكاء الاصطناعي المخادع
Credit: JOSEP LAGO/AFP via Getty Images

تيموثي كار هو مدير في Free Press، منظمة غير حزبية وغير ربحية تدعو إلى نظام إعلامي أكثر عدلاً وديمقراطية. الآراء الواردة أدناه تعبر عن رأي الكاتب ولا تعكس بالضرورة رأي شبكة CNN.

وافقت 20 منصة تكنولوجية، قبل حوالي أسبوع، على تصنيف وتقليص المعلومات المضللة التي ينتجها الذكاء الاصطناعي والتي يتم نشرها عبر الإنترنت لخداع الناخبين خلال عام انتخابي مزدحم. وتعهدوا بتقديم "ردود سريعة ومتناسبة" على محتوى الذكاء الاصطناعي المخادع حول الانتخابات، بما في ذلك مشاركة المزيد من المعلومات حول "الطرق التي يمكن للمواطنين من خلالها حماية أنفسهم من التلاعب أو الخداع".

هذا الالتزام الطوعي، الموقع من قبل غوغل، مايكروسوفت، ميتا، "أوبن أيه آي"، تيك توك و"إكس"، تويتر سابقا، من بين شركات أخرى، لا يحظر تمامًا استخدام ما يسمى بخاصية "التزييف العميق" (Deep Fake) - مقاطع فيديو أو مقاطع صوتية زائفة - للمرشحين والقادة وغيرهم من الشخصيات العامة المؤثرة. كما أن المنصات لا توافق على اعادة الفرق الكبيرة التي كانت موجودة لديها لحماية نزاهة الانتخابات في عام 2020. وحتى عند تلك المستويات السابقة، كافحت هذه الفرق لوقف انتشار المعلومات المضللة حول نتيجة الانتخابات، مما ساعد على تأجيج العنف في مبنى الكابيتول الأمريكي بينما كان يستعد الكونغرس للتصديق على فوز الرئيس جو بايدن.

ردًا على ذلك، تعهدت المنصات بوضع توقعات عالية في عام 2024 حول كيفية "إدارة المخاطر الناشئة عن محتوى الذكاء الاصطناعي الخادع المرتبط بالانتخابات"، وفقًا للاتفاقية المشتركة. وستسترشد أعمالهم بعدة مبادئ، بما في ذلك الوقاية والكشف والتقييم والتوعية العامة.

إذا كانت المنصات ترغب في منع تكرار ما حدث في عام 2020، فيتعين عليها أن تفعل المزيد الآن بعد أن أصبح بإمكان التكنولوجيا خداع الناخبين بهذه الصور المطابقة الخادعة التي يمكن تصديقها. وعليهم أن يطابقوا تعهداتهم بأداء أفضل في عام 2024 مع التنفيذ الفعلي وفضح الزيف الذي يمكن توثيقه ومشاركته مع الجمهور، وهو أمر فشلوا في القيام به بأي اتساق في الماضي.

في ديسمبر/كانون الأول، وجدت "فري برس" أنه في الفترة بين نوفمبر/تشرين الثاني 2022 ونوفمبر/تشرين الثاني 2023، قامت "ميتا" و"إكس" و"يوتيوب" بإلغاء ما مجموعه 17 سياسة مهمة عبر منصاتهم. وشمل ذلك التراجع عن سياسات المعلومات الخاطئة المتعلقة بالانتخابات المصممة للحد من محتوى "الأكذوبة الكبيرة" حول تصويت عام 2020. خلال الفترة الزمنية نفسها تقريبًا، قامت شركات غوغل وميتا وإكس مجتمعة بتسريح ما يقرب من 40 ألف موظف، مع حدوث تخفيضات كبيرة في فئات الإشراف على المحتوى والثقة والسلامة. في ذلك الوقت، وصفت المنصات التخفيضات في عدد الموظفين بأنها ضرورية لمواءمة شركاتها مع "واقع اقتصادي مختلف" (غوغل) أو لأن النفقات الرأسمالية السابقة "لم تسر كما هو متوقع" (ميتا).

يؤدي هذا التراجع إلى تعزيز قدر أقل من المساءلة عبر المنصات البارزة، حيث تدير شركات التكنولوجيا ظهرها لسنوات من الأدلة التي تشير إلى الدور الضخم الذي تلعبه في تشكيل الخطاب العام الذي يؤثر على المشاركة المدنية والديمقراطية. ومن المرجح أن يتزايد دورها كقنوات للمعلومات المضللة مع تزايد إتاحة أدوات الذكاء الاصطناعي المتطورة اللازمة لإنشاء صور مزيفة للسياسيين على نطاق أوسع لمستخدمي وسائل التواصل الاجتماعي. وبدون قيام المنصات بإنفاذ هذه القواعد بشكل واضح وحتى قواعد أقوى ضد انتشار معلومات مضللة للناخبين، سنواجه المزيد من الجهود عالية التقنية لاختطاف الانتخابات في جميع أنحاء العالم.

إن الأمر يحدث بالفعل. في العام الماضي، في سباق رئاسة بلدية شيكاغو، تم تداول تسجيل صوتي مزيف يهدف إلى تقليد المرشح بول فالاس على "إكس". وادعى التسجيل الصوتي كذبًا أن فالاس كان يدعم عنف الشرطة في المدينة.

وفي نهاية عام 2023، حثت Free Press شركات مثل غوغل وميتا وإكس على تنفيذ مجموعة مفصلة من حواجز الحماية ضد إساءة الاستخدام المتفشية لأدوات الذكاء الاصطناعي خلال عام الانتخابات 2024. ويشمل ذلك إعادة الاستثمار في أناس حقيقيين، وخاصة أولئك اللازمين لحماية الناخبين، والإشراف على المحتوى. ويجب عليها أيضًا أن تصبح أكثر شفافية من خلال تبادل بيانات أساسية بانتظام مع الباحثين والمشرعين والصحفيين.

وفي الوقت نفسه، طالبنا المشرعين بوضع قواعد واضحة ضد إساءة استخدام تكنولوجيا الذكاء الاصطناعي، خاصة في ضوء الاستخدام المتزايد للتزييف العميق في الولايات المتحدة وخارجها. يتضمن ذلك إصدار قوانين تتطلب من منصات التكنولوجيا نشر تقارير شفافية منتظمة حول أدوات الفحص والإشراف الخاصة بالذكاء الاصطناعي والكشف عن عملية صنع القرار عند إزالة الإعلانات السياسية المشكوك فيها.

لقد كان هناك الكثير من النشاط حول هذا الموضوع في الكونغرس، بما في ذلك العديد من الإحاطات والمنتديات وجلسات الاستماع، ولم يحقق سوى عدد قليل جدًا من النتائج القابلة للتنفيذ. وقد قدم أعضاء مجلس الشيوخ والنواب العشرات من مشاريع القوانين - بعضها جيد، وبعضها سيئ - ولكن لم يصل أي منها إلى التصويت. وفي الوقت نفسه، تتدخل لجنة التجارة الفيدرالية لملء الفراغ التنظيمي، حيث اقترحت الأسبوع الماضي قاعدة جديدة تجعل من غير القانوني استخدام الذكاء الاصطناعي لانتحال شخصية أي شخص، بما في ذلك المسؤولين المنتخبين. قد تقوم الوكالة بالتصويت على قاعدة جديدة في وقت مبكر من فصل الربيع بعد دعوة ومراجعة التعليقات العامة حول هذه القضية.

مع الاستخدام واسع النطاق للذكاء الاصطناعي، تغير مشهد الإنترنت بشكل كبير منذ عام 2020. ولكن الحقيقة تظل: لا يمكن للديمقراطية أن تستمر من دون مصادر موثوقة للأخبار والمعلومات الدقيقة. بعد تصويت عام 2020، هناك عواقب خطيرة وواقعية عندما تتراجع شركات المنصات عن التزاماتها باستئصال المعلومات المضللة.

ويجب أن تكون التعهدات الطوعية أكثر من مجرد ممارسة للعلاقات العامة. فما لم تعمل الشركات بشكل دائم على استعادة فرق نزاهة الانتخابات وفرض القواعد فعليا ضد إساءة الاستخدام المتفشية لأدوات الذكاء الاصطناعي، فإن الديمقراطية في جميع أنحاء العالم يمكن أن تظل على المحك.

نشر