حظر ترامب على "الذكاء الاصطناعي المستيقظ"!
لن تتمكن الدولة بعد الآن من استخدام الذكاء الاصطناعي مع محتوى مستيقظ. يتعين على الشركات العملاقة مثل جوجل ومايكروسوفت إثبات أن روبوتات الدردشة الآلية ليست أيديولوجية! هل الرقابة قادمة للذكاء الاصطناعي؟ أم أنها خطوة لحماية القيم الأمريكية؟

اتخذ الرئيس الأمريكي دونالد ترامب خطوة لافتة في مجال الذكاء الاصطناعي. فمن خلال الأمر التنفيذي الجديد الذي وقعه في 24 يوليو، ألزم ترامب الوكالات الفيدرالية بالعمل فقط مع نماذج الذكاء الاصطناعي "المحايدة أيديولوجيًا". وهذه هي المرة الأولى التي تتدخل فيها الحكومة بشكل مباشر في المحتوى الأيديولوجي لأنظمة الذكاء الاصطناعي.
تشمل الأنظمة التي يعرّفها ترامب على أنها "ذكاء اصطناعي محايد أيديولوجيًا" النماذج التي تراعي قضايا مثل التنوع والمساواة والإدماج وحقوق المثليين والمثليات ومزدوجي الميول الجنسية والمتحولين جنسيًا ومزدوجي الجنس والمتحولين جنسيًا ونظرية العرق النقدي. ووفقًا للائحة الجديدة، لا يمكن استخدام نماذج الذكاء الاصطناعي التي تعالج مثل هذه القضايا أو تدعو إلى مثل هذه القيم في العقود الفيدرالية.
من بين البنود التي تضمنها الأمر التنفيذي، تم التأكيد على أن أنظمة الذكاء الاصطناعي يجب أن "تُظهر الولاء للدقة والواقع التاريخي والقيم الأمريكية". يُطلب من شركات التكنولوجيا أن تضمن كتابيًا أن نماذجها لا تحتوي على أي توجه أيديولوجي.
تم الإعلان عن خطوة ترامب كجزء من "خطة عمل أوسع نطاقاً للذكاء الاصطناعي" تهدف إلى منح الولايات المتحدة ميزة تكنولوجية على الصين. وتتضمن الأهداف الرئيسية للخطة الحد من البيروقراطية وجعل أدوات الذكاء الاصطناعي الأمريكية أكثر قدرة على المنافسة على نطاق عالمي.
ومع ذلك، فقد أثار الحكم نقاشات كبيرة من الناحيتين القانونية والأخلاقية. يؤكد الخبراء على أن مفاهيم مثل "الحياد" يصعب تعريفها وتطبيقها من الناحية الفنية، ويلفتون الانتباه إلى المخاطر التي تهدد مبادئ حرية التعبير والاستقلال الأكاديمي.
وإذ يشير الخبراء إلى أنه من غير الممكن وجود هيكل خالٍ تمامًا من الأيديولوجيات نظرًا لأن نماذج الذكاء الاصطناعي يتم تدريبها على البيانات التي يتم تغذيتها من المجتمع البشري، يحذر الخبراء من أن القرار قد يخلق بيئة من الرقابة والرقابة الذاتية.
قد تضطر العديد من الشركات، بما في ذلك شركات التكنولوجيا العملاقة مثل جوجل (جيميني) ومايكروسوفت (كوبيلوت)، إلى إعادة هيكلة نماذجها من أجل مواصلة العمل مع الحكومة الفيدرالية. ومع ذلك، لم يصدر حتى الآن بيان رسمي من الشركات بشأن الأمر التنفيذي.
من ناحية أخرى، تدافع إدارة ترامب عن القرار على أساس أن "الأنظمة الممولة من ضرائب الشعب الأمريكي يجب ألا تنتج محتوى يتعارض مع القيم الأمريكية".
ومن المتوقع أن يواجه الأمر التنفيذي تحديات قانونية في الأسابيع المقبلة، مع احتمال رفع قضايا أمام المحكمة الدستورية.
ما هو "الذكاء الاصطناعي اليقظ"؟
تشير إدارة ترامب بمصطلح "الذكاء الاصطناعي اليقظ" إلى روبوتات الدردشة التي تتبنى قيمًا مثل المساواة بين الجنسين والمساواة العرقية وحقوق المثليين والمثليات ومزدوجي الميل الجنسي والمتحولين جنسيًا ومغايري الهوية الجنسية ومزدوجي الجنس والمتحولين جنسيًا ومزدوجي الميول الجنسية والمتحولين جنسيًا ومغايري الهوية الجنسانية ومزدوجي الجنس، والنزعة البيئية والتنوع والشمول، وتنتج ردودًا وفقًا لذلك.
ومن المعروف أن هذه الأنظمة، وخاصة النماذج اللغوية الكبيرة (LLMs) - مثل ChatGPT وGemini وCobilot - معروفة بتقديم إجابات تعطي الأولوية لحقوق الإنسان وتراعي التهميش.
ولكن وفقًا لترامب وبعض الدوائر المحافظة، فإن هذه الأنظمة
تقمع وجهات النظر المحافظة,
وتتعارض مع بنية الأسرة الأمريكية والقيم التقليدية,
وأحيانًا تدعم "الأيديولوجية اليسارية".
ولذلك فمن غير المرغوب فيه استخدام هذه الأنظمة في المؤسسات الفيدرالية.
ماذا يقول الأمر التنفيذي لترامب؟
أعطى ترامب التعليمات التالية بالأمر التنفيذي الذي وقعه في 24 يوليو 2025
ستستخدم الوكالات الفيدرالية أنظمة الذكاء الاصطناعي المحايدة أيديولوجيًا فقط.
المحتوى الذي تم تحديده على أنه "مستيقظ" (حقوق المتحولين جنسيًا، وسياسات مكافحة التمييز العنصري، والعدالة العرقية
النحل، وما إلى ذلك) لا ينبغي إدراجها في الذكاء الاصطناعي.
يجب على مطوري الذكاء الاصطناعي توثيق أن نماذجهم لا تحمل أي تحيز أيديولوجي.
يجب أن يكون الذكاء الاصطناعي "واقعيًا ودقيقًا تاريخيًا ويحترم القيم الأمريكية".
وهذا لا يعني تدخلًا تكنولوجيًا فحسب، بل أيديولوجيًا أيضًا.
ما هو رد فعلك؟






