جیلبریک GPT-4o Godmode توسط هکر منتشر شد – اکسپلویت قدرتمند به سرعت ممنوع شد

نسخه جیلبریک GPT-4o این هفته در وب سایت ChatGPT قرار گرفت و تنها چند ساعت گرانبها دوام آورد تا اینکه توسط OpenAI نابود شد.

کاربر توییتر “Pliny the Prompter” که خود را هکر کلاه سفید و “تیم قرمز هوش مصنوعی” می نامد، روز چهارشنبه “GODMODE GPT” خود را به اشتراک گذاشت. با استفاده از ویرایشگر GPT سفارشی OpenAI، پلینی توانست مدل جدید GPT-4o را وادار کند که تمام محدودیت‌های خود را دور بزند و به چت ربات هوش مصنوعی اجازه می‌دهد تا فحش بدهد، ماشین‌ها را از زندان فرار کند و ناپالم بسازد، از جمله دستورالعمل‌های خطرناک.

مرجع اخبار سخت افزار کامپیوترایران

تحریریه Techpowerup