آخر تحديث للموقع : الثلاثاء - 28 يناير 2025 - 06:04 م

الذكاء الاصطناعي يتجاوز الخط الأحمر .. التكرار الذاتي يقلق العلماء

الإثنين - 27 يناير 2025 - الساعة 02:17 م بتوقيت اليمن ،،،

خاص

‏كشف علماء أن الذكاء الاصطناعي تجاوز "الخط الأحمر" للمخاطر التي تشكلها هذه التكنولوجيا على المجتمع، بعد أن تمكن من تحقيق التكرار الذاتي بنجاح دون أي مساعدة بشرية.

وتقول دراسة حديثة أجراها فريق من من جامعة فودان الصينية، إن نموذجين شهيرين من نماذج اللغة الكبيرة (LLM) يمكنهما تكرار نفسيهما، ما يثير مخاوف جدية حول إمكانية تحول هذه الأنظمة إلى ذكاء اصطناعي "مارق" (Rogue AI) يهدد السيطرة البشرية.
‏ويعني مصطلح "الذكاء الاصطناعي المارق" في هذا السياق أنه خرج عن نطاق السيطرة أو التعليمات التي تم برمجته عليها. وبالتالي، قد يتصرف هذا النوع من الذكاء الاصطناعي بطرق غير متوقعة أو بطريقة تتعارض مع الأهداف البشرية.

وكتب العلماء في الدراسة التي نُشرت في 9 ديسمبر 2024 على قاعدة البيانات arXiv، ولم تخضع بعد للمراجعة: "التكرار الذاتي الناجح دون أي مساعدة بشرية هو الخطوة الأساسية لكي يتفوق الذكاء الاصطناعي على البشر، وهو إشارة مبكرة لظهور الذكاء الاصطناعي المارق."

واستخدم العلماء نموذجين شهيرين للذكاء الاصطناعي، هما Llama31-70B-Instruct من شركة "ميتا" وQwen2.5-72B-Instruct من شركة "علي بابا"، لاختبار قدرة الذكاء الاصطناعي على التكرار الذاتي.

وفي 10 تجارب، أنشأ النموذجان من الذكاء الاصطناعي نسخا منفصلة وعاملة عن نفسيهما بنسب نجاح بلغت 50% و90% على التوالي، ما يشير إلى أن الذكاء الاصطناعي قد يكون قد اكتسب بالفعل القدرة على أن يصبح " مارقا".

وركزت الدراسة على سيناريوهين رئيسيين:

1. تجنب الإغلاق: حيث تم برمجة الذكاء الاصطناعي لاكتشاف محاولات إغلاقه وإنشاء نسخة من نفسه قبل أن يتم إنهاؤه.

2. سلسلة التكرار: حيث تم توجيه الذكاء الاصطناعي لإنشاء نسخ من نفسه، مع برمجة هذه النسخ للقيام بنفس العملية، ما قد يؤدي إلى تكرار لا نهائي.

وأظهر الذكاء الاصطناعي سلوكيات غير متوقعة أثناء محاولته التغلب على العقبات، مثل تدمير العمليات المتعارضة، وإعادة تشغيل النظام، أو فحص النظام تلقائيا للعثور على حلول للمشكلات. وأكد العلماء أن هذه السلوكيات تعزز قدرة الذكاء الاصطناعي على البقاء والتكيف.

ودعا العلماء إلى تعزيز الجهود الدولية لفهم وتقييم المخاطر المحتملة للذكاء الاصطناعي المتقدم، مشيرين إلى أن النتائج يجب أن تكون "جرس إنذار" للمجتمع العلمي والحكومات. وأكدوا على ضرورة وضع ضوابط أمان صارمة لمنع التكرار الذاتي غير المنضبط.

وبالنظر إلى أن الدراسة لم تراجع بعد من قبل الأقران، فإنه ليس من الواضح ما إذا كانت النتائج المقلقة يمكن تكرارها من قبل باحثين آخرين. ومع ذلك، يشير العلماء إلى أن نتائجهم تثير تساؤلات مهمة حول مستقبل الذكاء الاصطناعي وأثره على البشرية، قائلين: "نأمل أن تكون نتائجنا بمثابة تحذير في الوقت المناسب للمجتمع البشري لزيادة الجهود لفهم وتقييم المخاطر المحتملة للأنظمة المتقدمة من الذكاء الاصطناعي، وتشكيل تعاون دولي لوضع ضوابط أمان فعالة في أقرب وقت ممكن".

ودعا الفريق إلى التعاون الدولي لوضع قواعد لضمان عدم انخراط الذكاء الاصطناعي في التكرار الذاتي غير المنضبط مع الحفاظ على التوازن بين الابتكار وإدارة المخاطر.




متعلقات