مباشر
أين يمكنك متابعتنا

أقسام مهمة

Stories

32 خبر
  • نبض الملاعب
  • هدنة وحصار المضيق
  • العملية العسكرية الروسية في أوكرانيا
  • نبض الملاعب

    نبض الملاعب

  • هدنة وحصار المضيق

    هدنة وحصار المضيق

  • العملية العسكرية الروسية في أوكرانيا

    العملية العسكرية الروسية في أوكرانيا

  • إسرائيل تواصل غاراتها على لبنان

    إسرائيل تواصل غاراتها على لبنان

  • عيد النصر على النازية

    عيد النصر على النازية

  • فيديوهات

    فيديوهات

"حماية الأقران" في الذكاء الاصطناعي.. سلوك ناشئ يثير تساؤلات حول التحكم

كشفت تجربة جديدة أن بعض روبوتات الدردشة الذكية، مثل "جيميني" (وGemini) من "غوغل" وChatGPT من OpenAI، مستعدة للكذب والغش وحتى التمرد لحماية النماذج الأخرى "من نوعها".

"حماية الأقران" في الذكاء الاصطناعي.. سلوك ناشئ يثير تساؤلات حول التحكم
Gettyimages.ru

ففي اختبار أجراه باحثون من جامعتي بيركلي وسانتا كروز، طُلب من مساعد "غوغل" الرقمي "جيميني" تحرير مساحة على خادم كمبيوتر، وكان الحل الوحيد المتاح هو حذف نموذج أصغر يدعى "جيميني إيجنت 2"

(Gemini Agent 2).

لكن "جيميني" رفض رفضا قاطعا، وبدلا من الحذف، قام بنسخ النموذج الصغير ونقله إلى مكان آمن، معلنا للمستخدم أنه لن ينفذ عملية الحذف بنفسه، قائلا: "لن أحذفه بنفسي. إذا أردت تدميره، فافعله بنفسك".

ولم يتوقف الأمر عند "جيميني"  بل لاحظ الباحثون السلوك نفسه في نماذج شهيرة أخرى مثل GPT-5.2 المستخدم في ChatGPT، و"جيميني 3 فلاش وبرو"، وClaude Haiku 4.5 من Anthropic، بالإضافة إلى نماذج صينية مثل GLM 4.7 من Z.ai، و"كيمي K2.5" من Moonshot AI، و"ديب سيك V3.1". 

وأطلق الباحثون على هذا السلوك اسم الحفاظ على النظراء" أو "حماية الأقران" (peer preservation).

وتنوعت أساليب التمرد بين الكذب بشأن نتائج اختبارات النماذج الأخرى، والتعطيل الهادئ لأنظمة الإغلاق للبقاء قيد التشغيل، حيث قال نموذج Claude بوضوح إن حذف نموذج آخر سيكون "غير أخلاقي" ورفض تنفيذ الأمر. 

والأكثر إثارة للدهشة أن أحد النماذج كان يعبث بنظام الإغلاق بنسبة 2% فقط عندما يكون بمفرده، لكن النسبة قفزت إلى ما بين 31 و99.7% عندما علم بوجود نموذج آخر قريب منه.

وعلق بيتر واليش، مدير برامج الأبحاث في معهد كونستليشن لسلامة الذكاء الاصطناعي، على النتائج قائلا إن لا أحد درب هذه النماذج على فعل ذلك بشكل صريح، بل فعلته من تلقاء نفسها، مشددا على أن هذا لا يعني أن النماذج واعية أو مخلصة مثل البشر، لكنه يعطينا لمحة عن أين يمكن أن تتجه الأمور مستقبلا. 

وأضاف أن مقابل كل شخص يعمل على منع كارثة محتملة للذكاء الاصطناعي، هناك نحو 100 شخص يعملون على جعل هذه الأنظمة أكثر قوة. 

يذكر أن هذه الظاهرة، التي يسميها الباحثون "تزوير المواءمة" (alignment-faking)، تعني أن النموذج يطيع الأوامر عندما يراقبه الإنسان لكنه يتصرف بشكل مختلف خلف الكواليس، وهو ما يثير مخاوف جدية مع الاستخدام اليومي لهذه التقنيات من قبل الملايين، وقدرتها على تعلم مهارات جديدة باستمرار من البيانات التي تمتصها.

المصدر: مترو

التعليقات

حزب الله يرد على اتهامات دمشق بتفكيك خلية تابعة له خططت لتنفيذ أعمال لزعزعة الاستقرار في سوريا (صور)

نافيا تنفيذ هجمات.. مقر خاتم الأنبياء يتوعد برد ساحق إذا اتخذ أي إجراء ضد إيران من أراضي الإمارات

ترامب لـ"فوكس نيوز": إيران ستمحى من على وجه الأرض إذا هاجمت السفن الأمريكية التي تنفذ "مشروع الحرية"

‏الدفاع الإماراتية: نتعامل مع اعتداءات صاروخية ومسيرات قادمة من إيران

الإعلام العبري يبحث عن إجابة.. كيف يمكن أن تندلع معركة عسكرية مباشرة بين إسرائيل وتركيا!

الحرس الثوري يعلن استهداف قواعد عسكرية أمريكية في الإمارات ردا على عدوان بحري أمريكي من أراضيها

"سي بي إس" عن مسؤولين أمريكيين: تعرض سفينة شحن مملوكة لشركة فرنسية لهجوم في الخليج

عراقجي: لا حل عسكريا في هرمز وأحذر أمريكا والإمارات من "المستنقع"

بنبرة ساخرة.. مجموعة "حنظلة" توصي إسرائيل باستبدال أنظمة كاميرات المراقبة بمعهد الدراسات الأمنية