جابرييلا راموس : الرئيسة الـمُشارِكة لفريق العمل المعني بدراسة فجوات التفاوت وأوجه الإفصاح المالي المرتبطة بالشؤون الاجتماعية، مديرة عامة مساعدة للعلوم الاجتماعية والإنسانية في منظمة اليونيسكو سابقا، حيث تولت الإشراف على وضع وتطوير “التوصية بشأن أخلاقيات الذكاء الاصطناعي”، رئيسة أركان سابقة لمنظمة التعاون الاقتصادي والتنمية (OECD)، ومبعوثة قادة الدول الشخصية إلى قمم مجموعة العشرين، ومجموعة السبع، ومنتدى التعاون الاقتصادي لدول آسيا والمحيط الهادئ (APEC).
يكشف النزاع القائم بين شركة Anthropic وإدارة الرئيس الأميركي دونالد ترمب عن أمر مقلق للغاية بشأن الوضع الحالي لإدارة الذكاء الاصطناعي. فمن الواضح أن شركة خاصة تهتم بالضوابط الأخلاقية أكثر من أقوى مؤسسة عسكرية في العالم.
في وقت سابق من هذا الشهر، صنفت وزارة الدفاع الأميركية شركة Anthropic على أنها تندرج ضمن “مخاطر سلاسل التوريد”. جاءت هذه الخطوة غير المعتادة في أعقاب إصرار الشركة على وضع ضمانات تمنع استخدام تكنولوجياتها في المراقبة الجماعية للأميركيين أو في الأسلحة الذاتية التشغيل بالكامل. ردا على ذلك، أدرجت وزارة الدفاع الأميركية (البنتاجون) شركة Anthropic على قائمة تُخصَّص عادة للكيانات الأجنبية التي تُعتبر تهديدا للأمن القومي. ومنذ ذلك الحين، أقامت شركة Anthropic دعوى قضائية للطعن في هذا التصنيف.
أياً كان رأي المرء في دوافع شركة Anthropic، فإن هذه الواقعة تسلط الضوء على مدى الانحراف الذي أصبحت عليه أطر الحوكمة. عندما تقع مسؤولية الإصرار على الحدود الأخلاقية الأساسية على عاتق الشركات الخاصة، فإن الأنظمة التي كان المقصود منها حماية المصلحة العامة من التكنولوجيات التي قد تشكل خطرا تصبح فاشلة بوضوح.
من المشجع أن قمة تأثير الذكاء الاصطناعي التي عُقدت في فبراير/شباط في الهند أظهرت أن الأوان لم يفت بعد لتغيير المسار. في مختلف أنحاء العالم، تعمل شركات بادئة على تطوير أنظمة مصممة خصيصا للتطبيق الآمن والأخلاقي، وتستخدم منظمات المجتمع المدني الذكاء الاصطناعي لمعالجة تحديات اجتماعية ملحة، بما في ذلك العنف ضد النساء والفتيات. من ناحية أخرى، انخفضت تكاليف تطبيقات الذكاء الاصطناعي بنسبة تصل إلى 90% في السنوات الأخيرة، في حين ساعد نمو النظم البيئية المفتوحة المصدر في جعل أدوات قوية في متناول قوى فاعلة أصغر حجما.
هذه هي ثورة الذكاء الاصطناعي التي طالما تمنّاها كثيرون منا، حيث يوجَّه التقدم التكنولوجي بالقيم الديمقراطية واحترام حقوق الإنسان. وقد استرشدتُ بهذه الرؤية ذاتها في عملي على توصية اليونسكو بشأن أخلاقيات الذكاء الاصطناعي ــ أول إطار عالمي من نوعه ــ وعلى مبادئ الذكاء الاصطناعي التي أقرتها منظمة التعاون الاقتصادي والتنمية (OECD).
تقدم تجربة الهند نموذجا مفيدا للبلدان التي تسعى إلى تسخير الذكاء الاصطناعي بطرق تخدم المصلحة العامة. من خلال الاستثمار بكثافة في البنية الأساسية الرقمية العامة ــ وخاصة نظام الهوية البيومترية “أدهار” (Aadhaar) وواجهة الدفع الموحدة ــ أظهرت البلاد كيف يمكن نشر التكنولوجيا على نطاق ضخم لتلبية احتياجات المواطنين اليومية.
لكن النزاع حول شركة Anthropic يسلط الضوء على توتر متزايد بين حوكمة الذكاء الاصطناعي السليمة ورغبة الحكومات في جذب الاستثمارات. تتشكل نماذج أعمال قِـلة من الشركات الأميركية التي تهيمن حاليا على مجال الذكاء الاصطناعي بفعل المنافسة الشديدة، سواء فيما بينها أو مع نظيراتها الصينية، ويحجم صُـنّاع السياسات عن فرض قواعد قد تدفعها إلى الرحيل.
كانت هذه الديناميكية واضحة خلال قمة عمل الذكاء الاصطناعي التي عقدت العام الماضي في باريس، حيث ركزت التغطية الإعلامية على التزامات الاستثمار التي حصلت عليها فرنسا من شركات التكنولوجيا الكبرى بدلا من المبادرات التي تهتم بالمصلحة العامة مثل Current AI أو التحالف من أجل التنمية المستدامة من خلال الرياضة.
نتيجة لهذا، تعمل هذه القمم على نحو متزايد كمنصات للحكومات للإعلان عن الاستثمارات وصفقات مراكز البيانات. وعلى نحو لا يخلو من دلالات مهمة، كانت الصورة المميزة لقمة تأثير الذكاء الاصطناعي في الهند لرئيس الوزراء ناريندرا مودي محاطا برؤساء تنفيذيين في مجال التكنولوجيا، بما في ذلك سوندار بيتشاي من شركة Alphabet، وسام ألتمان من OpenAI، وداريو أمودي من Anthropic.
كان الغرض الأصلي من هذه التجمعات تعزيز التعاون المتعدد الأطراف بشأن إدارة التكنولوجيات التحويلية. ويوضح تحولها إلى منصات لتشجيع الاستثمار مدى الصعوبة التي أصبح عليها الحفاظ على رقابة جادة. وقد جرب صُـنّاع السياسات أساليب متعددة، بدءا من مبادئ طوعية وصولا إلى تشريعات ملزمة مثل قانون الذكاء الاصطناعي في الاتحاد الأوروبي. ومع ذلك، لا تزال المنافسة الجيوسياسية والضغوط التجارية تدفع الحكومات إلى سباق نحو القاع.
بكل تأكيد، لا تحتاج كل دولة إلى مواجهة شركات التكنولوجيا الكبرى على الساحة العالمية. لكن الحكومات يجب أن ترتب أوضاعها الداخلية من خلال وضع قواعد واضحة وبناء القدرات اللازمة لإنفاذها.
تُـعَد المشتريات العامة أداة قوية في هذا الصدد، حيث تمثل ما يقرب من 13% من الناتج المحلي الإجمالي في دول منظمة التعاون الاقتصادي والتنمية. من الممكن أن تشترط عقود المشتريات توطين البيانات وشفافية الخوارزميات، ومن الممكن أيضا أن تنشئ آليات فعّالة للطعن في القرارات الخوارزمية الضارة. كما يمكنها فرض اختبارات السلامة على الأنظمة العالية المخاطر قبل نشرها، في حين تكافئ الشركات التي تلتزم بالمعايير الأخلاقية وتستبعد تلك التي لا تلتزم بها.
لكن المشتريات وحدها لا تكفي؛ يجب أن يتبعها تشريع. تتمثل إحدى الخطوات الأكثر أهمية التي يمكن للحكومات اتخاذها في ضمان عدم منح أنظمة الذكاء الاصطناعي شخصية اعتبارية أبدا، بحيث تقع المسؤولية دائما على عاتق إنسان أو مؤسسة. كما ينبغي لها فرض حظر صارم على استخراج البيانات دون موافقة، والمراقبة الجماعية، واستخدام الذكاء الاصطناعي للتنميط والتلاعب السياسي.
ليس بمقدور كل دولة بناء نماذج الذكاء الاصطناعي الأساسية الخاصة بها، ولا ينبغي لها أن تحاول ذلك. الطريق الأكثر عملية هو الاستثمار في نماذج أصغر حجما ومفتوحة المصدر مصممة خصيصا لتناسب اللغات، والاحتياجات، والقيم المحلية. ورغم أن مثل هذه الاستراتيجية لا تزال تتطلب استثمارات، ومؤسسات، وبنية أساسية، وحوافز مناسبة، فإنها تنطوي على إمكانية تحقيق نتائج على نطاق واسع.
يمثل قانون الذكاء الاصطناعي الأوروبي المحاولة الأكثر طموحا حتى الآن لتطبيق هذا النهج. يرفضه النقاد باعتباره بيروقراطيا ومرهقا، وتخضع المفوضية الأوروبية لضغوط متنامية لحملها على تأجيل تنفيذه. لكن القانون يؤكد ببساطة مبدأ أساسيا: التكنولوجيا ليست فوق القانون. يتعين على شركات الأدوية تلبية معايير السلامة قبل طرح أدوية جديدة، ويجب على شركات البناء التصديق على سلامة الجسور التي تبنيها هيكليا. وينبغي أن تخضع أنظمة الذكاء الاصطناعي العالية المخاطر لذات القدر من التدقيق.
تؤكد وتيرة تطور الذكاء الاصطناعي على مدى إلحاح هذه المهمة. فالبلدان التي تفشل في بناء هذه الأسس لن تتخلف عن الركب في السباق التكنولوجي الحالي فحسب؛ بل إنها تجازف، في عالم حيث تحدد القوة على نحو متزايد النتائج وتصبح المساءلة اختيارية، بفقدان السيطرة على الكيفية التي تُـسـتَخدَم بها التكنولوجيات الجديدة.
النبأ السار هنا هو أن الحكومات والمستهلكين لا يزالون يتمتعون بالنفوذ. يمنح الوصول إلى الأسواق الدول نفوذا حقيقيا على كيفية نشر منتجات الذكاء الاصطناعي، وقد أظهرت منظمات المجتمع المدني مرارا وتكرارا أن الضغط العام المنسق من الممكن أن يغير سلوك الشركات.
الحق أن المجتمعات الديمقراطية من غير الممكن أن تعهد بالدفاع عن قيمها إلى شركات خاصة. بل يتعين عليها أن تبني المؤسسات والقوانين والقدرات التي تجعل مثل هذه الاتكالية غير ضرورية قبل أن تصبح تكلفة التقاعس عن العمل باهظة للغاية.
ترجمة: مايسة كامل Translated by: Maysa Kamel
![]()




















