مرحبًا بكم في ChainSoldier – تابع آخر أخبار العملات الرقمية!

ارتفاع الرقابة في ظل اعتماد الذكاء الاصطناعي

تتسبب تكنولوجيا الذكاء الاصطناعي في أزمة أخلاقية تتعلق بالرقابة، حيث تزداد قدرة الحكومات والشركات على التحكم في الحوار العام. تشير التقارير إلى أن الذكاء الاصطناعي يعزز الرقابة التي تقودها الدولة، مما يهدد حرية التعبير ويدعو إلى ضرورة وضع معايير قائمة على حقوق الإنسان.

مقالة ضيف من هودل إكس  قدّم مقالك

 

تخلق الذكاء الاصطناعي أزمة أخلاقية تتعلق بالرقابة الخوارزمية. من خلال تجاهل هذه المشكلة، نعرض أنفسنا لخطر السماح للحكومات والشركات بالتحكم في الحوار العالمي.

لقد أصبحت تكنولوجيا الذكاء الاصطناعي والصناعة في حالة تصاعدية. يصبح احتمال الرقابة أكبر كل يوم.

منذ عام 2010، زادت القدرة الحاسوبية لتدريب أنظمة الذكاء الاصطناعي كل عام إلى عامين بمقدار 10 مرات، مما يجعل تهديد الرقابة والتحكم في الخطاب العام أكثر واقعية من أي وقت مضى.

تحتل الشركات في جميع أنحاء العالم الخصوصية وحوكمة البيانات كأعلى مخاطر الذكاء الاصطناعي، بينما لم تسجل الرقابة على رادارها.

يمكن للذكاء الاصطناعي الذي يمكنه معالجة ملايين نقاط البيانات في ثوانٍ أن يمارس الرقابة من خلال وسائل مختلفة، بما في ذلك تعديل المحتوى والتحكم في المعلومات.

يمكن لنماذج اللغة الكبيرة (LLMs) وتوصيات المحتوى تصفية أو قمع أو مشاركة المعلومات بشكل جماعي على نطاق واسع.

في عام 2023، أبرزت منظمة فريدوم هاوس أن الذكاء الاصطناعي يعزز الرقابة التي تقودها الدولة.

في الصين، دمجت إدارة الفضاء السيبراني (CAC) استراتيجية الرقابة في أدوات الذكاء الاصطناعي التوليدية، مما يتطلب من الروبوتات الدردشة دعم “القيم الاشتراكية الأساسية” وحظر المحتوى الذي ترغب الحزب الشيوعي في رقابته.

تقوم نماذج الذكاء الاصطناعي الصينية، مثل R1 من DeepSeek، بممارسة الرقابة بالفعل على مواضيع مثل مذبحة ساحة تيانانمن، من أجل نشر الروايات الحكومية.

“لحماية الإنترنت الحر والمفتوح، يجب على صانعي السياسات الديمقراطيين العمل جنبًا إلى جنب مع خبراء المجتمع المدني من جميع أنحاء العالم تأسيس معايير قوية قائمة على حقوق الإنسان لكل من الجهات الفاعلة الحكومية وغير الحكومية التي تطور أو تستخدم أدوات الذكاء الاصطناعي”، تخلص فريدوم هاوس.

في عام 2021، وجدت جامعة كاليفورنيا في سان دييغو أن خوارزميات الذكاء الاصطناعي المدربة على مجموعات بيانات خاضعة للرقابة، مثل بايدو بايكي في الصين، تربط الكلمة الرئيسية “الديمقراطية” بـ “الفوضى”.

بينما ربطت النماذج المدربة على مصادر غير خاضعة للرقابة “الديمقراطية” بـ “الاستقرار”.

في عام 2023، وجدت تقرير “الحرية على الإنترنت” من فريدوم هاوس أن حرية الإنترنت العالمية انخفضت للسنة الثالثة عشر على التوالي. ونسبت جزءًا كبيرًا من الانخفاض إلى الذكاء الاصطناعي.

توجد قوانين في اثنتين وعشرين دولة تتطلب من شركات وسائل التواصل الاجتماعي استخدام أنظمة آلية لتعديل المحتوى، والتي يمكن استخدامها لقمع النقاشات والتظاهرات.

على سبيل المثال، استخدمت الحكومة العسكرية في ميانمار الذكاء الاصطناعي لمراقبة مجموعات تيليجرام واحتجاز المعارضين وتنفيذ أحكام الإعدام بناءً على منشوراتهم. وقد حدث نفس الشيء في إيران.

بالإضافة إلى ذلك، في بيلاروسيا ونيكاراغوا، حكمت الحكومات على الأفراد بأحكام سجن صارمة بسبب خطابهم عبر الإنترنت.

وجدت فريدوم هاوس أن ما لا يقل عن 47 حكومة استخدمت التعليقات لتوجيه المحادثات عبر الإنترنت نحو رواياتها المفضلة.

وجدت أنه في العام الماضي، تم استخدام تكنولوجيا جديدة في ما لا يقل عن 16 دولة لزرع بذور الشك، أو تشويه سمعة المعارضين، أو التأثير على النقاش العام.

تتطلب ما لا يقل عن 21 دولة من المنصات الرقمية استخدام التعلم الآلي لحذف الخطابات السياسية والاجتماعية والدينية.

حذرت تقرير رويترز لعام 2023 من أن التزييف العميق والمعلومات المضللة التي يتم إنشاؤها بواسطة الذكاء الاصطناعي قد “تضعف الثقة العامة في العمليات الديمقراطية”، مما يمنح الأنظمة التي تسعى إلى تشديد السيطرة على المعلومات قوة.

في انتخابات الرئاسة الأمريكية لعام 2024، أظهرت الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي توحي بشكل خاطئ بأن تايلور سويفت تؤيد دونالد ترامب أن الذكاء الاصطناعي يقوم بالفعل بالتلاعب بالرأي العام.

تقدم الصين المثال الأكثر بروزًا للرقابة المدفوعة بالذكاء الاصطناعي.

كشف مجموعة بيانات مسربة حللتها TechCrunch في عام 2025 عن نظام ذكاء اصطناعي متطور مصمم لممارسة الرقابة على مواضيع مثل فضائح التلوث، والنزاعات العمالية، والقضايا السياسية المتعلقة بتايوان.

على عكس التصفية التقليدية المعتمدة على الكلمات الرئيسية، يستخدم هذا النظام نماذج اللغة الكبيرة (LLMs) لتقييم السياق وإشارة السخرية السياسية.

لاحظ الباحث شياو تشيانغ أن مثل هذه الأنظمة “تحسن بشكل كبير من كفاءة ودقة السيطرة على المعلومات التي تقودها الدولة.”

اتهم تقرير لجنة القضاء في مجلس النواب لعام 2024 مؤسسة العلوم الوطنية (NSF) بتمويل أدوات الذكاء الاصطناعي لمكافحة “المعلومات المضللة” حول كوفيد-19 وانتخابات 2020.

وجد التقرير أن NSF مولت أدوات الرقابة والدعاية المعتمدة على الذكاء الاصطناعي.

“باسم مكافحة المعلومات المضللة المزعومة المتعلقة بكوفيد-19 وانتخابات 2020، كانت NSF تصدر منحًا بملايين الدولارات لفرق البحث الجامعية وغير الربحية”، يقرأ التقرير.

“الغرض من هذه المشاريع الممولة من دافعي الضرائب هو تطوير أدوات الرقابة والدعاية المعتمدة على الذكاء الاصطناعي التي يمكن استخدامها من قبل الحكومات والتكنولوجيا الكبرى لتشكيل الرأي العام من خلال تقييد وجهات نظر معينة أو تعزيز أخرى.”

اكتشف تقرير WIRED لعام 2025 أن نموذج R1 من DeepSeek يتضمن فلاتر رقابة على كل من مستوى التطبيق ومستوى التدريب، مما يؤدي إلى حظر المواضيع الحساسة.

في عام 2025، وجدت دراسة لمركز بيو للأبحاث أن 83% من البالغين في الولايات المتحدة كانوا قلقين بشأن المعلومات المضللة المدفوعة بالذكاء الاصطناعي، مع إظهار العديد منهم قلقهم بشأن تداعياتها على حرية التعبير.

أجرى بيو مقابلات مع خبراء الذكاء الاصطناعي، الذين قالوا إن بيانات تدريب الذكاء الاصطناعي يمكن أن تعزز بشكل غير مقصود الهياكل القائمة للسلطة.

معالجة الرقابة المدفوعة بالذكاء الاصطناعي

دعت مراجعة المعلومات المضللة لعام 2025 من HKS إلى تحسين التقارير لتقليل الدعوات المدفوعة بالخوف للرقابة.

وجدت الدراسة أن 38.8% من الأمريكيين يشعرون بالقلق إلى حد ما، و44.6% يشعرون بالقلق الشديد، بشأن دور الذكاء الاصطناعي في نشر المعلومات المضللة خلال انتخابات الرئاسة الأمريكية لعام 2024، بينما لم يكن لدى 9.5% أي قلق، و7.1% لم يكونوا على علم بالمشكلة تمامًا.

إن إنشاء نظام بيئي مفتوح المصدر للذكاء الاصطناعي هو من الأهمية بمكان. وهذا يعني أن الشركات يجب أن تكشف عن مصادر مجموعات بيانات التدريب والتحيزات.

يجب على الحكومات إنشاء أطر تنظيمية للذكاء الاصطناعي تعطي الأولوية للتعبير الحر.

إذا كنا نريد مستقبلًا إنسانيًا، بدلاً من دكتاتورية تكنوقراطية تديرها الذكاء الاصطناعي، يجب على صناعة الذكاء الاصطناعي والمستهلكين أن يتحلوا بالشجاعة لمواجهة الرقابة.


مانوك تيرماتين هو رائد أعمال، وخبير في الذكاء الاصطناعي، ومؤسس ومدير تنفيذي لـ Vertical Studio AI. يهدف إلى جعل الذكاء الاصطناعي متاحًا للجميع. مع خلفية في الهندسة والمالية، يسعى إلى إحداث تغيير في قطاع الذكاء الاصطناعي من خلال أدوات تخصيص متاحة وأجهزة كمبيوتر بأسعار معقولة.

 

الصورة المولدة: DALLE3

ظهرت المقالة الرقابة في تزايد وسط اعتماد الذكاء الاصطناعي أولاً على The Daily Hodl.

المؤلف الأصلي: مانوك تيرماتين

Source: https://dailyhodl.com/2025/05/23/censorship-on-the-rise-amid-ai-adoption/

إخلاء المسؤولية: الآراء الواردة في هذه المقالة تعبر عن رأي المؤلف فقط ولا تُعد نصيحة استثمارية. يرجى إجراء البحث الخاص بك قبل القيام بأي استثمار عالي المخاطر، بما في ذلك العملات الرقمية. جميع القرارات الاستثمارية والتجارية تقع على مسؤوليتك الخاصة. لا توصي ChainSoldier.com بشراء أو بيع أي عملة رقمية محددة ولا تقدم خدمات استشارية. نشارك في برامج التسويق بالعمولة وقد نحصل على عمولة.

[cs_latest_category][cs_most_viewed]
Twitter Facebook Telegram LinkedIn WhatsApp Email

اترك ردّاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *