خبراء يدعون إلى قيود صارمة على تطوير الذكاء الاصطناعي الخارق

أصدر تحالف يضم مئات الخبراء التقنيين والمسؤولين السابقين وثيقة شاملة تتضمن خارطة طريق لتنظيم تطوير تقنيات الذكاء الاصطناعي وضمان سلامتها، في خطوة تهدف إلى الحد من المخاطر المرتبطة بالتوسع السريع في هذه التقنيات.

وتدعو الوثيقة إلى فرض قيود تشريعية صارمة، من بينها المنع التام لتطوير أنظمة الذكاء الاصطناعي الخارق دون وجود إجماع علمي واضح حول سلامتها، إلى جانب إلزام الشركات التقنية بدمج مفاتيح إيقاف فعالة داخل النماذج المتقدمة لضمان بقاء السيطرة البشرية على هذه الأنظمة.

وبحسب ما أورده موقع “بيتس ديك” الإخباري، فإن استطلاعات رأي حديثة أظهرت رفضًا واسعًا من الجمهور لسباق غير منظم نحو تطوير الذكاء الخارق، كما تدعو الخارطة المقترحة إلى حظر تصميم خوارزميات قادرة على الاستنساخ الذاتي أو التطوير المستقل، وفرض اختبارات سلامة إلزامية قبل إطلاق المنتجات الذكية الموجهة للأطفال لتجنب مخاطر التلاعب النفسي.

ويأتي هذا التحرك في ظل غياب أطر تنظيمية حكومية مواكبة للتطور السريع في تقنيات الذكاء الاصطناعي التوليدي، حيث يرى الخبراء أن التنظيم المبكر ضروري لتفادي المخاطر المجتمعية المحتملة وضمان توجيه الابتكار نحو مسارات آمنة ومستدامة.

ويُقصد بالذكاء الخارق مستوى متقدمًا من الذكاء الاصطناعي يتجاوز القدرات البشرية في مختلف المجالات العلمية والمعرفية، ما يدفع الخبراء إلى المطالبة بتضمين آليات تقنية تسمح بإيقاف هذه الأنظمة فورًا في حال خروجها عن السيطرة أو ظهور سلوك غير آمن.

أخبار ذات صلة

أحدث الأخبار