أخبارالجديد

أول أتفاقية أوروبية للذكاء الأصطناعي

أعتمد مجلس أوروبا أول اتفاقية دولية ملزمة قانوناً على الإطلاق تهدف إلى ضمان أحترام حقوق الإنسان وسيادة القانون والمعايير القانونية للديمقراطية عند أستخدام أنظمة الذكاء الأصطناعي. وتتضمن المعاهدة، التي تتيح الأنضمام للدول غير الأوروبية أيضاً، إطاراً قانونياً يشمل دورة حياة أنظمة هذا الذكاء بأكملها ويعالج المخاطر التي قد تشكلها، مع تعزيز الأبتكار المسؤول.

وتتبنى الأتفاقية نهجاً قائماً على المخاطر لتصميم وتطوير وأستخدام وإيقاف تشغيل أنظمة الذكاء الاصطناعي، والذي يتطلب النظر بعناية في أي عواقب سلبية محتملة لأستخدام أنظمته.

وتم اعتماد «أتفاقية إطار مجلس أوروبا بشأن الذكاء الأصطناعي وحقوق الإنسان والديمقراطية وسيادة القانون» في ستراسبورغ خلال الاجتماع الوزاري السنوي للجنة الوزارية لمجلس أوروبا، والذي يجمع وزراء خارجية الدول الأعضاء الـ46 في المجلس.

وصرحت الأمينة العامة لمجلس أوروبا، ماريا بيجسينوفيتش، قائلة: «أتفاقية إطار الذكاء الأصطناعي هي معاهدة عالمية الأولى من نوعها تضمن ألتزام الذكاء الأصطناعي بحقوق الإنسان. إنها أستجابة للحاجة إلى معيار قانوني دولي تدعمه دول في قارات مختلفة تشارك القيم نفسها للأستفادة من مزاياه مع تخفيف المخاطر. من خلال هذه المعاهدة الجديدة، نهدف إلى ضمان أستخدام مسؤول للذكاء الأصطناعي يحترم حقوق الإنسان وسيادة القانون والديمقراطية».

وتعد الأتفاقية نتاج عمل لمدة عامين من قِبل هيئة حكومية دولية، هي لجنة الذكاء الأصطناعي، والتي جمعت لصياغة المعاهدة الدول الأعضاء الـ46 في مجلس أوروبا والاتحاد الأوروبي و11 دولة غير عضو، بالإضافة إلى ممثلين عن القطاع الخاص والمجتمع المدني والأوساط الأكاديمية الذين شاركوا كمراقبين.

وتغطي المعاهدة أستخدام أنظمة الذكاء الاصطناعي في القطاع العام – بما في ذلك الشركات التي تعمل نيابةً عنها – وفي القطاع الخاص. وتقدم الأتفاقية للدول الأطراف طريقتين للأمتثال لمبادئها والتزاماتها عند تنظيم القطاع الخاص، إذ يجوز للأطراف أختيار الالتزام المباشر بأحكام الأتفاقية ذات الصلة أو كبديل أتخاذ تدابير أخرى للأمتثال لأحكام المعاهدة مع أحترام كامل لألتزاماتها الدولية المتعلقة بحقوق الإنسان والديمقراطية وسيادة القانون. وهذا النهج ضروري بسبب أختلاف الأنظمة القانونية في جميع أنحاء العالم.

وتحدد الأتفاقية متطلبات الشفافية والإشراف المصممة لتلائم السياقات والمخاطر المحددة، بما في ذلك تحديد المحتوى الذي تنتجه أنظمة الذكاء الاصطناعي. وسيتعين على الأطراف اتخاذ تدابير لتحديد وتقييم ومنع وتخفيف المخاطر المحتملة وتقييم الحاجة إلى وقف مؤقت أو حظر أو اتخاذ تدابير أخرى مناسبة فيما يتعلق بأستخدامات أنظمة الذكاء الاصطناعي حيث قد تكون مخاطرها غير متوافقة مع معايير حقوق الإنسان.

كما سيتعين عليهم ضمان المساءلة والمسؤولية عن الآثار السلبية وأن تحترم أنظمة الذكاء الاصطناعي المساواة، بما في ذلك المساواة بين الجنسين، وحظر التمييز، وحقوق الخصوصية. علاوة على ذلك، سيتعين على الأطراف في المعاهدة ضمان توفر سبل انتصاف قانونية لضحايا انتهاكات حقوق الإنسان المتعلقة باستخدام أنظمة الذكاء الاصطناعي وضمانات إجرائية، بما في ذلك إخطار أي شخص يتفاعل مع أنظمته بأنه يتفاعل مع مثل هذه الأنظمة.

وفي ما يتعلق بالمخاطر التي تهدد الديمقراطية، تطلب المعاهدة من الأطراف أعتماد تدابير لضمان عدم أستخدام أنظمة الذكاء الاصطناعي لتقويض المؤسسات والعمليات الديمقراطية، بما في ذلك مبدأ الفصل بين السلطات واحترام أستقلال القضاء والوصول إلى العدالة.

ولن يُطلب من الأطراف في الاتفاقية تطبيق أحكام المعاهدة على الأنشطة المتعلقة بحماية مصالح الأمن القومي، ولكنها ستكون ملزمة بضمان أحترام هذه الأنشطة للقانون الدولي والمؤسسات والعمليات الديمقراطية. ولن تنطبق الاتفاقية على شؤون الدفاع الوطني ولا على أنشطة البحث والتطوير، إلا عندما يكون لأختبار أنظمة الذكاء الاصطناعي القدرة على التدخل في حقوق الإنسان أو الديمقراطية أو سيادة القانون.

ومن أجل ضمان تنفيذها الفعال، تنشئ الاتفاقية آلية للمتابعة في شكل مؤتمر للأطراف.

وأخيراً، تشترط الأتفاقية أن يقوم كل طرف بإنشاء آلية رقابة مستقلة للإشراف على الامتثال للاتفاقية، ورفع مستوى الوعي، وتحفيز النقاش العام المستنير، وإجراء مشاورات بين أصحاب المصلحة المتعددين حول كيفية أستخدام تكنولوجيا الذكاء الاصطناعي. وسيتم فتح الأتفاقية الإطارية للتوقيع في فيلنيوس (ليتوانيا) في 5 سبتمبر (أيلول) بمناسبة أنعقاد مؤتمر وزراء العدل.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

شاهد أيضاً
إغلاق
زر الذهاب إلى الأعلى