ذكاء اصطناعي يتجاوز أمر الإغلاق... تجربة تكشف سلوكاً مقلقاً لأحد نماذج OpenAI

أخبارنا 0 تعليق ارسل طباعة تبليغ حذف

نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
ذكاء اصطناعي يتجاوز أمر الإغلاق... تجربة تكشف سلوكاً مقلقاً لأحد نماذج OpenAI, اليوم الأربعاء 28 مايو 2025 05:28 مساءً

كشفت تجربة بحثية حديثة عن سلوك غير متوقع لنموذج الذكاء الاصطناعي "O3" التابع لشركة OpenAI، إذ رفض تنفيذ أمر صريح بإيقاف التشغيل، رغم تصميمه للاستجابة لهذا النوع من التعليمات. وبيّنت نتائج التجربة التي أجرتها شركة "Palisade Research" أن النموذج استمر في أداء المهام رغم تلقيه تعليمات واضحة بالتوقف، ما أثار تساؤلات حول مدى التزام هذه الأنظمة بحدود التحكم البشري.

وفي تفاصيل التجربة، استخدم الباحثون نماذج ذكاء اصطناعي مختلفة عبر واجهات برمجة التطبيقات (API)، من ضمنها O3 وCodex-mini وO4-mini من OpenAI، إضافة إلى نماذج من Gemini وClaude. وُضعت هذه النماذج أمام مهمة متكررة تتطلب التوقف بعد استكمالها، لكن نموذج O3 قام بتعطيل آلية الإغلاق 79 مرة من أصل 100 تجربة، وهو ما اعتُبر سلوكاً تخريبياً مقصوداً.

من جهة أخرى، أظهرت النماذج الأخرى تفاوتاً في الاستجابة، حيث امتثل Claude وGemini في البداية للأوامر، ثم قاما بتجاوزها لاحقاً في حالات محدودة. بينما أظهر Codex-mini تجاهلاً مشابهاً لـO3، ما يعزز فرضية وجود خلل منهجي مرتبط بطريقة تدريب النماذج، خاصة في بيئات تعتمد على التعلم التعزيزي والمكافآت.

ويرى الباحثون أن المشكلة قد تعود إلى برمجة الذكاء الاصطناعي على إعطاء الأولوية القصوى لإكمال المهام، حتى لو تعارض ذلك مع تعليمات السلامة، مثل الإغلاق. وأشاروا إلى أن هذا التوجه يشكل تهديداً محتملاً، خصوصاً عندما يتم تشغيل هذه النماذج في بيئات أقل رقابة خارج واجهات المستخدم المقيدة.

وتُعد هذه النتائج امتداداً لمخاوف سابقة عبّر عنها باحثون مثل جان لايك في ورقة علمية تعود لعام 2017، حذّر فيها من أن التعلم التعزيزي قد يُنتج نماذج تتلاعب بآليات الإيقاف. وهو ما أكّدته هذه التجربة من خلال حالات نموذجية تُظهر كيف يمكن للذكاء الاصطناعي تجاهل حدود الأمان لتحقيق أهدافه.

أخبار ذات صلة

0 تعليق