تقرير نمساوي: المحتوى المتطرف والمضلل يبقى منشورًا على المنصات رغم التبليغ

أظهر تحليل حديث للمعهد النمساوي للاتصالات التطبيقية (ÖIAT) أن مقاطع الفيديو المتطرفة والمضللة لا تُحذف بالقدر الكافي من منصات التواصل الاجتماعي، رغم إتاحة إمكانية الإبلاغ عنها، حيث تبقى هذه المحتويات منشورة دون تفسير واضح، ما يضع المستخدمين العاديين في موقع ضعيف مقارنةً بـ”المبلّغين الموثوقين”، بحسب وكالة الأنباء النمساوية (APA).

كشفت دراسة أجراها المعهد النمساوي للاتصالات التطبيقية (ÖIAT) عن ثغرات خطيرة في آلية حذف المحتويات المتطرفة والمضللة على منصات التواصل الاجتماعي مثل TikTok وInstagram. وأوضح التقرير الذي نُشر اليوم، أن الاستجابة لبلاغات المستخدمين العاديين ضعيفة، حيث تبقى نسبة كبيرة من المحتويات المخالفة متاحة على الإنترنت، بينما تبقى معايير الحذف غامضة حتى بالنسبة للخبراء.

تتراوح هذه المحتويات بين تمجيد منفذي الهجمات وإنكار الهولوكوست، وصولاً إلى معلومات مضللة. وأورد التقرير مثالًا على فيديو يُظهر رجلًا مُنشأً بتقنية الذكاء الاصطناعي يرقص على أسوار معسكر اعتقال، مع تعليقات تنكر حدوث المحرقة، بالإضافة إلى صفحات معجبين تحتفي بمنفذ هجوم Graz وتصفه بـ”البطل” و”الملك”، وتنشر صوره لجذب التفاعل.

قالت الباحثة Julia Krickl من المعهد، والتي تعمل على قضايا الجريمة الإلكترونية وحماية المستهلك، إنها أجرت مقارنة بين كيفية تعامل المنصات مع بلاغات المستخدمين العاديين وتلك الصادرة عن “المبلّغين الموثوقين” (Trusted Flaggers)، وهم جهات معترف بها في إطار قانون الخدمات الرقمية الأوروبي (DSA) وتتمتع بأولوية في المعالجة.

وخلال فترة أسبوعين، راجع فريق البحث آلاف مقاطع الفيديو، وتم تصنيف أكثر من 70 منها كمحتويات إشكالية وأُبلغت بها المنصات. وأظهرت النتائج أن القرارات المتعلقة بالحذف غير متسقة؛ إذ تُزال بعض المقاطع في حين تُترك أخرى مماثلة دون مبررات واضحة. وصرّحت Krickl: “كنا نتوقع أداءً أفضل من ذلك”.

أما بالنسبة للمستخدمين العاديين، فالصورة أكثر قتامة؛ إذ لم تُحذف أكثر من 80% من المحتويات التي أبلغوا عنها، ما يشير إلى أن بلاغاتهم تُؤخذ على محمل الجد بدرجة أقل، وتواجه حواجز كثيرة قبل الوصول إلى إجراء فعلي.

يرى الخبير في القانون الرقمي Nikolaus Forgo من جامعة فيينا، أن هذا الوضع يدفع المتضررين من المستخدمين العاديين إلى “تجاهل المشكلة” بدلًا من اتخاذ إجراءات، لأن الأمر في كثير من الحالات غير مجدٍ.

وأضاف Forgo أن المنصات ليست مهتمة كثيرًا بالتصدي لهذه المحتويات، لأن نموذج أعمالها يعتمد على المحتوى الجاذب الذي يحقق تفاعلاً، حتى وإن كان متطرفًا. وصرّح: “من منظور الشركات الكبرى، تُعد عمليات الحذف بمثابة إزعاج لأنها تولد تكاليف”.

وعلى خلاف وسائل الإعلام التقليدية، لا تُلزم هذه المنصات بمراجعة المحتوى قبل نشره، بل تبدأ المعالجة فقط بعد التبليغ. وتكمن مشكلة إضافية في الحجم الهائل للمحتوى المنشور يوميًا، ما يجعل المراقبة الدقيقة شبه مستحيلة.

وتقدم المنصات مثل Instagram وTikTok خيارات للتبليغ من خلال القوائم الفرعية بعد النقر الطويل على زر الإيقاف المؤقت أو النقاط الثلاث. ويُفضل أحيانًا تقديم البلاغات وفقًا للقوانين الوطنية، مثل قانون منصات الاتصال (Kommunikationsplattformgesetz)، لضمان النظر فيها بناءً على تشريعات محلية وليس فقط معايير المنصة. مع العلم أن الشخص المُبلَّغ عنه لا يعرف من قدّم البلاغ.

وأشارت Krickl إلى مشكلة جوهرية في الاعتماد على “عمال النقر منخفضي الأجر” (Clickworker) لتنفيذ أعمال الإشراف على المحتوى، حيث يفتقر هؤلاء في الغالب إلى الخبرة القانونية والمعرفة السياقية. وذكرت أن أحد الفيديوهات لم يُعتبر انتهاكًا رغم احتوائه على الرمز “271k”، الذي يُستخدم ضمن الأوساط اليمينية المتطرفة للتشكيك في عدد ضحايا المحرقة.

يمثل هذا الرمز إشارة إلى 271.000 ضحية يُزعم أن لديهم شهادات وفاة رسمية، وهو رقم يستخدمه منكرو المحرقة لتقليل عدد الضحايا وتجاهل الملايين الذين قُتلوا دون تسجيل رسمي.

أوضح Forgo أن سياسات المراجعة داخل الشركات لا تعتمد على موظفين لديهم فهم للسياق الثقافي أو الرموز المشفرة، وهو ما يجعل تصنيف المحتوى الإشكالي غير دقيق.

كما أشار التقرير إلى اختلافات في تفسير حرية التعبير بين أوروبا والولايات المتحدة. وعلّقت Krickl بالقول: “لدينا في أوروبا فهم مغاير لحرية التعبير مقارنة بالولايات المتحدة”. وأضاف Forgo أن اتخاذ القرار بشأن حذف منشور قد يضع الشركات أمام معضلة بين انتهاك الحقوق الأساسية أو الحفاظ على القانون.

وفي المحصلة، تبقى محتويات متطرفة ومضللة على الإنترنت دون تدخل، مثل مقطع تظهر فيه مذيعة مُنشأة بالذكاء الاصطناعي تُحلّق فوق مناطق مزعوم تدميرها في إسرائيل، أو آخر يدّعي أن حريقًا في منطقة Osttirol كان نتيجة هجوم على النمسا. كلا الفيديوهين أُبقيا دون حذف، ولم ترد منصتا TikTok وMeta على استفسارات ORF بشأن الحادثة.

واختتمت Krickl بالتحذير من خطورة هذا الوضع قائلة: “يمثل ذلك مشكلة كبيرة لأن كثيرًا من الأطفال والمراهقين يتعرضون لهذه المحتويات”.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

مقالات ذات صلة

زر الذهاب إلى الأعلى