
أصدرت هيئة رقابة داخلية تابعة لشركة ميتا في حكمٍ نُشر أمس الثلاثاء، قراراً يفيد بأن تصنيف الشركة للمحتوى المُولّد بواسطة الذكاء الاصطناعي "غير متسق". وأعرب مجلس الرقابة (هيئة داخلية لمراجعة قرارات الشركة حول المحتوى) عن قلقه من أنه على الرغم من "الانتشار المتزايد للمحتوى المُتلاعب به عبر مختلف الصيغ، فإن تطبيق ميتا لسياسة الوسائط المُتلاعب بها غير متسق". وطالب القرار بأن تُعطي الشركة الأولوية للاستثمار في التكنولوجيا لرصد وتصنيف الصوت والفيديو المُتلاعب به.
وفي فبراير/شباط 2024، بدأت "ميتا" بوضع علامات مائية أو علامات مرئية على المحتوى المُولّد بواسطة الذكاء الاصطناعي، وذلك في محاولة لمساعدة المستخدمين على التمييز بين المحتوى الحقيقي والمُزيّف على منصات التواصل الاجتماعي التابعة لها، "فيسبوك" و"إنستغرام" و"ثريدز". ويُلزم قانون الذكاء الاصطناعي للاتحاد الأوروبي، وهو تشريع يُنظّم أدوات الذكاء الاصطناعي وفقاً للمخاطر التي تُشكّلها على المجتمع، الشركات التي تُنتج محتوى معدّلاً بأدوات توليد المحتوى بوضع علامة على هذا المحتوى تقول إنه مُولّد واصطناعي.
وصدر حكمٌ في إحدى الحالات التي قرّرت فيها "ميتا" عدم تصنيف مقطع صوتي يُحتمل أنه مُتلاعب به لسياسيين كرديين عراقيين يناقشان تزوير الانتخابات البرلمانية، قبل أسابيع من فتح باب الاقتراع. ونصّ الحكم على أن عدم تطبيق الشركة تلقائياً لتصنيف جميع حالات المحتويات المُتلاعب بها هو أمر "غير مُتماسك وغير مُبرر". كما شدّد على ضرورة أن تُتيح "ميتا" تصنيفات المحتويات المُتلاعب بها باللغة المحلية على منصاتها.
وكانت شركة مارك زوكربيرغ قد أبلغت المجلس بأنها لا تستطيع رصد وتصنيف منشورات الصوت والفيديو تلقائياً، بل فقط "الصور الثابتة". وهذا يعني أن النسخ المتعددة من المقطع الصوتي نفسه أو الفيديو قد لا تحظى بالمعاملة نفسها، وهو ما يُشير المجلس إلى أنه قد يُسبب مزيداً من الالتباس.
ضد اعتماد "ميتا" على جهات خارجية
وأعرب المجلس أيضاً عن قلقه إزاء اعتماد الشركة على جهات خارجية للتقييم الفني للمحتوى المُحتمل التلاعب به، وأضاف أنه ينبغي أن تُتاح هذه الخبرة داخلياً لـ"ميتا". وكتب المجلس: "نظراً إلى كون ميتا إحدى شركات التكنولوجيا والذكاء الاصطناعي الرائدة عالمياً، بمواردها والاستخدام الواسع لمنصات ميتا، يُؤكد المجلس مجدداً ضرورة إعطاء ميتا الأولوية للاستثمار في تكنولوجيا رصد وتصنيف مقاطع الفيديو والصوت المُتلاعب بها". وأضاف: "ليس من الواضح للمجلس لماذا تُسند شركة بهذه الخبرة التقنية والموارد إلى جهات خارجية مهمة تحديد الوسائط التي يُحتمل أن تكون مُتلاعباً بها في المواقف عالية الخطورة إلى وسائل إعلام أو شركاء موثوق بهم".
وفي توصياته، قال المجلس إنه ينبغي للشركة اعتماد "إجراءات واضحة" لتصنيف "المحتوى المتطابق أو المشابه" باستمرار في حال إضافة تصنيف "عالي الخطورة" إلى منشور. كما أوصى المجلس بأن تظهر هذه التصنيفات بلغة تتوافق مع بقية إعداداتها على "فيسبوك" و"إنستغرام" و"ثريدز".
