تغيّرت طبيعة الرقابة في العالم الرقمي من الحذف المباشر إلى الخوارزميات الصامتة التي تدير ما نراه وما يُخفى عنا. لم تعد السيطرة على المعلومة نتيجة أوامر رقابية تقليدية، بل أصبحت نتاج برمجيات معقدة تدّعي الحياد بينما تُعيد تشكيل الوعي الجمعي من خلال ترتيب النتائج والتوصيات. في العالم العربي، حيث تتقاطع مصالح الحكومات مع مصالح الشركات الرقمية الكبرى، أصبحت الرقابة الخوارزمية أداة فعالة لضبط الخطاب العام دون الحاجة إلى رقابة قانونية معلنة.
تعتمد هذه الممارسات على أنظمة ذكاء اصطناعي تُصمم لرصد المحتوى “الحسّاس”، وغالبًا ما يشمل ذلك الخطاب السياسي والحقوقي. النتيجة هي بيئة رقمية تتحكم فيها الأكواد والخوارزميات بما يُنشر ويُشاهد، مما يخلق شكلًا جديدًا من الهيمنة الرقمية يختلط فيه القرار السياسي بالمنطق التقني.
أولًا: مفهوم الرقابة الخوارزمية
الرقابة الخوارزمية هي عملية آلية تُستخدم فيها أنظمة الذكاء الاصطناعي لمعالجة وتصفية المحتوى وفق معايير محددة مسبقًا. تعمل هذه الخوارزميات على تحليل النصوص والصور ومقاطع الفيديو باستخدام تقنيات التعلم العميق ومعالجة اللغة الطبيعية، لتحديد ما يُعتبر مخالفًا أو غير مرغوب فيه.
في السياق العربي، تُصبح هذه الأنظمة جزءًا من منظومة أوسع للرقابة الرقمية، حيث يُعاد تعريف “المحتوى المسموح” بناءً على توازن حساس بين سياسات المنصات وضغوط الدول. فبينما تبرر الشركات قراراتها بضرورة الحد من خطاب الكراهية أو المعلومات المضللة، تُستخدم الأدوات نفسها أحيانًا لكبح الأصوات الحقوقية والسياسية التي تنتقد الأنظمة.
ثانيًا: البنية التقنية لتصفية المحتوى
تعتمد خوارزميات التصفية على مراحل تحليلية متسلسلة:
- جمع البيانات والتدريب: يتم تدريب النماذج على مجموعات ضخمة من البيانات التي تشمل محتوى سياسيًا وإعلاميًا متنوعًا. إذا كانت بيانات التدريب غير متوازنة أو متأثرة بخلفيات ثقافية معينة، فإن نتائجها ستعكس هذا الانحياز.
- التحليل الدلالي (Semantic Analysis): تُحلل الخوارزميات المعاني والسياقات داخل النصوص. في الحالات السياسية، يمكن أن تؤدي هذه التحليلات إلى تصنيف محتوى حقوقي أو نقدي باعتباره “مثيرًا للجدل” أو “حساسًا”، ما يؤدي إلى خفض وصوله.
- آليات التصنيف التلقائي (Automated Labeling): تحدد الأنظمة تلقائيًا درجة الخطورة أو الملاءمة لكل منشور. تعتمد هذه العملية على نماذج احتمالية، ما يجعلها عرضة للأخطاء خاصة في اللغات غير المهيمنة كاللغة العربية.
- تطبيق الإجراءات التقنية: بمجرد تصنيف المحتوى، يمكن للخوارزمية اتخاذ إجراءات متعددة مثل تقليل الانتشار، حجب الظهور في نتائج البحث، أو إزالة المنشور كليًا. هذه الإجراءات تُنفذ دون إشعار المستخدم في كثير من الأحيان.
ثالثًا: تحديات اللغة العربية في النماذج الخوارزمية
اللغة العربية تُعد من أكثر اللغات تعقيدًا للمعالجة الآلية. تعدد اللهجات، وتنوع التراكيب، واستخدام الرموز المختصرة أو الكتابة الثنائية (العربية-الإنجليزية) يجعل من الصعب على الخوارزميات فهم المعنى الحقيقي للنصوص السياسية.
بسبب ذلك، تميل أنظمة تصفية المحتوى إلى اعتماد معايير مبسطة، ما يؤدي إلى تصنيف خاطئ للمنشورات الحقوقية على أنها “عدائية” أو “مخلة”. كما أن ضعف تمثيل النصوص العربية في مجموعات التدريب يجعل الخوارزميات أقل قدرة على التمييز بين النقد السياسي المشروع والدعوات إلى العنف. هذا الخلل التقني يتحول عمليًا إلى أداة قمعية عندما يُستغل من قبل الحكومات أو الجهات المؤثرة.
رابعًا: التأثير السياسي والاجتماعي للرقابة الخوارزمية
الرقابة الخوارزمية لا تحذف الخطاب فقط، بل تعيد هندسة المجال العام من خلال توجيه الانتباه نحو محتوى معين وإخفاء محتوى آخر. عندما تُخفض رؤية المنشورات الحقوقية أو التقارير الصحفية المستقلة، يفقد الجمهور تدريجيًا القدرة على الوصول إلى روايات بديلة.
في بعض الحالات، يُستخدم نظام “الترتيب الخفي” (Shadow Ranking) لتقليل ظهور الحسابات المعارضة من دون حظرها. هذا الشكل من الرقابة غير المرئية أخطر من الحذف المباشر لأنه يخلق انطباعًا زائفًا بالحرية، بينما يُدار تدفق المعلومات ضمن حدود مرسومة مسبقًا.
على المستوى الاجتماعي، تساهم هذه الممارسات في خلق “فقاعات معرفية” يستهلك فيها المستخدمون محتوى متجانسًا يتماشى مع الخطاب الرسمي، مما يعزز الانقسام ويضعف المساءلة العامة.
خامسًا: العلاقة بين المنصات والحكومات
تعمل الشركات المشغّلة للمنصات الكبرى وفق مبدأ “الامتثال المحلي” لضمان استمرارها في الأسواق. في العديد من الدول العربية، تُطالب السلطات بحذف أو تقييد المحتوى الذي يُعتبر مخالفًا للقوانين الوطنية أو “الأمن العام”. نتيجة لذلك، تُجري الشركات تعديلات على خوارزمياتها أو أنظمتها الداخلية بما ينسجم مع هذه الطلبات.
تتخذ العلاقة أحيانًا طابعًا تعاونيًا من خلال مكاتب إقليمية أو بروتوكولات للتواصل الأمني، ما يجعل الخوارزميات تتصرف كأذرع رقمية للرقابة الحكومية. هذه الترتيبات لا تكون شفافة دائمًا، مما يصعّب على المستخدمين والباحثين معرفة حدود تأثيرها على حرية التعبير.
سادسًا: الأبعاد الأخلاقية والقانونية
تثير الرقابة الخوارزمية أسئلة أخلاقية عميقة تتعلق بالمساءلة والشفافية. من يحدد ما هو “غير مناسب”؟ هل يحق لنظام آلي اتخاذ قرار يؤثر على المجال العام؟ في ظل غياب الإشراف المستقل، تتحول الخوارزميات إلى قضاة غير مرئيين.
قانونيًا، لا توجد حتى الآن معايير دولية واضحة تحكم استخدام الذكاء الاصطناعي في الرقابة على المحتوى. بعض المبادرات مثل “مبادئ سانتا كلارا” أو “مدونة الممارسات الأوروبية للمحتوى غير القانوني” تحاول وضع ضوابط، لكنها تظل محدودة خارج نطاقها الإقليمي. أما في العالم العربي، فالقوانين الوطنية غالبًا ما تُستخدم لتبرير الرقابة وليس لتقييدها.
سابعًا: نحو خوارزميات شفافة ومسؤولة
البديل الممكن لا يكمن في إلغاء الخوارزميات، بل في ضمان شفافيتها وقابليتها للمساءلة. يجب أن تُنشر معايير التصنيف بشكل علني، وأن يُتاح للمستخدمين حق الاعتراض على قرارات الحجب أو خفض الانتشار. كما يمكن للمجتمع المدني والمراكز البحثية تطوير أدوات مستقلة لرصد أنماط التصفية وكشف الانحيازات الخفية.
إضافة إلى ذلك، ينبغي الاستثمار في تطوير نماذج لغوية عربية مفتوحة المصدر تراعي التنوع اللغوي والثقافي، بما يحد من الأخطاء الناتجة عن الترجمة الآلية أو الفهم الخاطئ للسياقات المحلية. هذه المقاربة التقنية تُسهم في حماية حرية التعبير دون الإضرار بالأمن الرقمي.
وفي النهاية
إن الرقابة الخوارزمية تمثل الوجه الجديد للسيطرة المعلوماتية في العصر الرقمي. فهي لا تعمل من خلال الحظر المباشر، بل من خلال إعادة تشكيل البيئة المعرفية بوسائل دقيقة وصامتة. في العالم العربي، تتحول هذه الخوارزميات إلى امتداد للسلطة السياسية عندما تُستخدم لتقييد المحتوى الحقوقي أو إسكات النقاش العام. بناء فضاء رقمي حرّ يتطلب إدراك أن الحياد التقني وهم، وأن الشفافية والمساءلة يجب أن تكونا مبدأين أساسيين في تصميم أنظمة الذكاء الاصطناعي التي تُدير الخطاب العام.





