عربي
عند إدخال خبرٍ صادرٍ عن وكالةٍ إيرانية أو حتى عملٍ أدبيٍّ كلاسيكيٍّ في بعض أدوات كشف النصوص، تكون النتيجة واحدة: "مُولّد بواسطة الذكاء الاصطناعي". ثم يأتي العرض: الدفع مقابل "إضفاء طابع بشري" على النص، وهو نمطٌ يرى خبراء أنّه يحمل سمات الاحتيال.
ومع انتشار المعلومات المضلّلة المرتبطة بالذكاء الاصطناعي على وسائل التواصل الاجتماعي، وغالباً بوتيرةٍ تفوق قدرة المدقّقين المحترفين على التحقّق، تُسهم هذه الأدوات الوهمية في إضافة طبقةٍ جديدةٍ من التضليل إلى بيئةٍ معلوماتيةٍ متصدّعة أساساً.
ورغم أنّ حتى أدوات الكشف الموثوق بها قد تُنتج نتائج خاطئة، يؤكّد باحثون أنّ مجموعةً من الأدوات الاحتيالية ظهرت على الإنترنت، ويمكن استخدامها بسهولةٍ لتشويه مصداقية محتوى أصيل والإضرار بسمعة أصحابه.
حدّد فريق التحقّق في وكالة فرانس برس ثلاث أدواتٍ من هذا النوع تدّعي تقدير نسبة المحتوى المُنشأ بالذكاء الاصطناعي. هذه الأدوات، التي جرى اختبارها بأربع لغات، لم تكتفِ بتصنيف نصوصٍ بشريةٍ على أنّها مُولّدة آلياً، بل سعت أيضاً إلى تحقيق أرباحٍ من تلك الأخطاء.
إحدى هذه الأدوات، "جاست دون إيه آي" (JustDone AI)، عالجت تقريراً مكتوباً بواسطة إنسان حول الحرب بين الولايات المتحدة وإيران، وخلصت بشكلٍ خاطئ إلى أنّه يحتوي على "88% محتوى بالذكاء الاصطناعي"، قبل أن تعرض إزالة أي أثرٍ للذكاء الاصطناعي مقابل رسوم. وادّعى الموقع أنّ "نصّك المُنشأ بالذكاء الاصطناعي يجري تحويله إلى صيغةٍ بشرية"، مع توجيه المستخدم إلى صفحةٍ تُخفي نصاً "فريداً بنسبة 100%" خلف جدارٍ مدفوعٍ تصل كلفته إلى 9.99 دولارات.
وأظهرت أداتان أخريان، "تكست غارد" (TextGuard) و"ريفاينلي" (Refinely)، نتائج إيجابية كاذبة مشابهة، مع محاولاتٍ مماثلة لتحقيق أرباح. وفي ردودها على نتائج وكالة فرانس برس، أوضحت "تكست غارد" أنّ نظامها "يعتمد على نماذج ذكاء اصطناعي حديثة، وتُعد نتائجه دقيقة ضمن حدود التقنية المستخدمة"، لكنها أقرت في الوقت نفسه بعدم قدرتها على ضمان النتائج أو مقارنتها بأنظمةٍ أخرى.
من جانبها، شدّدت "جاست دون" (JustDone) على أنّ "أي أداة كشف للذكاء الاصطناعي لا يمكنها ضمان دقةٍ بنسبة 100%"، مع اعترافها بأن النسخة المجانية قد تكون أقل دقةً بسبب "الطلب المرتفع واستخدام نموذجٍ أخفّ يهدف إلى سرعة الوصول".
وفي ما يعزّز هذه النتائج، اشتكى أحد المستخدمين على منصة مراجعات من أنّ "جاست دون" يصنّف حتى النصوص المكتوبة بالكامل من قبل بشر على أنّها مُولّدة بالذكاء الاصطناعي.
وقد اختبرت وكالة فرانس برس هذه الأدوات باستخدام نصوصٍ بشريةٍ بلغاتٍ عدّة، منها الهولندية واليونانية والمجرية والإنكليزية، فجاءت النتائج خاطئةً في جميع الحالات، بما في ذلك مقاطع من عملٍ أدبيٍّ مجريٍّ شهير يعود إلى عام 1916. كما أظهرت الأدوات نتائج متشابهة بغضّ النظر عن طبيعة النص المُدخل، حتى في حال إدخال نصوصٍ غير منطقية.
ولوحظ أنّ أداتي "جاست دون إيه آي" (JustDone AI) و"ريفاينلي" (Refinely) تعملان حتى من دون اتصالٍ بالإنترنت، ما يشير إلى أنّ نتائجهما قد تكون مُعدّة مسبقاً وليست ناتجةً عن تحليلٍ تقنيٍّ فعلي.
وفي هذا السياق، أوضحت الباحثة الألمانية ديبورا فيبر-فولف، المتخصصة في دراسة أدوات الكشف، أنّ "هذه ليست أدوات كشفٍ للذكاء الاصطناعي، بل عمليات احتيال تهدف إلى بيع أدوات إضفاء الطابع البشري، والتي غالباً ما تُنتج ما نسمّيه عبارات معذّبة، أي مصطلحات غير مترابطة أو بدائل لغوية غير منطقية".
ويبرز خطر هذه الأدوات أيضاً في استخدامها لتشويه السمعة، إذ ادّعى مؤثرون موالون للحكومة في المجر مطلع هذا العام أنّ وثيقةً تتعلق بحملة المعارضة الانتخابية جرى إعدادها بالكامل بواسطة الذكاء الاصطناعي. ولدعم هذا الادّعاء غير المثبت، تداولوا لقطات شاشة على وسائل التواصل الاجتماعي تُظهر نتائج صادرة عن "جاست دون".
كما سعت الأدوات التي اختبرتها وكالة فرانس برس إلى استقطاب طلابٍ وأكاديميين، حيث زعمت اثنتان منها أنّ مستخدميها ينتمون إلى مؤسساتٍ مرموقة مثل جامعة كورنيل. لكن الجامعة نفت وجود أي علاقةٍ رسميةٍ لها مع شركات أدوات كشف الذكاء الاصطناعي، مشيرةً إلى أنّ "الذكاء الاصطناعي التوليدي قد يزيد من خطر تقديم الطلاب أعمالاً ليست من إنتاجهم"، لكنها شدّدت في المقابل على أنّ تقنيات الكشف "من غير المرجّح أن توفّر حلاً عملياً، نظراً لصعوبة التمييز بدقة بين المحتوى البشري والمولّد آلياً".
ويعتمد مدقّقو الحقائق على أدواتٍ متخصّصة لكشف الصور المولّدة بالذكاء الاصطناعي، والتي تبحث عادةً عن علاماتٍ رقميةٍ خفية أو دلائل تقنية أخرى، غير أنّ هذه الأدوات قد تُخطئ أحياناً، ما يفرض الاستعانة بأدلةٍ إضافية مثل بيانات المصادر المفتوحة.
وتزداد خطورة هذه المسألة مع احتمال أن تؤدي النتائج الخاطئة الصادرة عن أدوات غير موثوق بها إلى تقويض الثقة في تقنيات التحقق من الذكاء الاصطناعي بشكلٍ عام، وتعزيز ما يُعرف بـ"عائد الكاذب" (Liar's Dividend)، وهو تكتيكٌ تضليلي يقوم على إنكار صحة محتوى حقيقي واعتباره مفبركاً بالذكاء الاصطناعي.
وفي هذا الإطار، أوضح وقار رضوي من منصة "نيوزغارد" (NewsGuard) المتخصصة في تتبّع المعلومات المضلّلة: "غالباً ما نرصد جهاتٍ مضلّلة تستخدم الذكاء الاصطناعي لفبركة صورٍ ومقاطع فيديو مزيفة، لكننا نراقب الآن ظاهرةً معاكسة لا تقل خطورة، تتمثل في الادّعاء بأن محتوى بصرياً ما صُنِع بالذكاء الاصطناعي، بينما هو في الواقع حقيقي".

أخبار ذات صلة.
مدرب الحزم: أنا غاضب
الشرق الأوسط
منذ 6 دقائق
كأس العالم 2026.. ثمن باهظ لأفضل المقاعد
العين الإخبارية
منذ 10 دقائق
3 أفكار لبرنامج هالة سرحان المرتقب
العين الإخبارية
منذ 19 دقيقة