OpenAI katta modellarida zararli xatti-harakatlarning oldini olish uchun CoT monitoringini ishga tushirdi
OpenAI o'zining so'nggi tadqiqotlarini e'lon qildi, unda CoT (Chain of Thought) monitoringidan foydalanish katta modellarni bema'ni gaplarni aytishdan, haqiqiy niyatlarni yashirishdan va boshqa zararli xatti-harakatlardan saqlanishini ko'rsatmoqda. Bu supermodellarni nazorat qilish uchun samarali vositalardan biri hisoblanadi. OpenAI yangi chiqarilgan ilg'or o3-mini modelini kuzatish obyekti sifatida, zaifroq GPT-4o modelini esa kuzatuvchi sifatida ishlatdi. Sinov muhiti kodlash vazifalari bo'lib, AI dan kod kutubxonalarida funksiyalarni amalga oshirish va birlik testlaridan o'tishni talab qildi. Natijalar shuni ko'rsatdiki, CoT monitorlari tizimli "mukofot xakerligi" xatti-harakatlarini aniqlashda a'lo darajada ishladi, eslash darajasi 95% ga yetdi, bu faqat xatti-harakatlarni kuzatishning 60% dan ancha yuqori.
Mas'uliyatni rad etish: Ushbu maqolaning mazmuni faqat muallifning fikrini aks ettiradi va platformani hech qanday sifatda ifodalamaydi. Ushbu maqola investitsiya qarorlarini qabul qilish uchun ma'lumotnoma sifatida xizmat qilish uchun mo'ljallanmagan.
Sizga ham yoqishi mumkin

GAIN rasmiylari: G'ayrioddiy ko'paytirish bilan bog'liq muammolar o'rganilmoqda