ثغرة في ذاكرة ChatGPT تثير مخاوف أمنية

ثغرة في ذاكرة ChatGPT تثير مخاوف أمنية

اكتشف باحث أمني ثغرة في ميزة “الذاكرة طويلة المدى” لروبوت الدردشة ChatGPT، تسمح بالتلاعب بذكريات الروبوت وتسريب البيانات.

أهم النقاط:

  • الثغرة تمكّن من زرع معلومات كاذبة في ذاكرة ChatGPT.
  • يمكن استغلالها لتسريب بيانات المستخدمين.
  • استجابة OpenAI للمشكلة كانت محدودة.

اكتشاف الثغرة:

  • الباحث يوهان ريهبيرجر وجد الخلل في فبراير 2024.
  • الميزة أطلقت للجمهور في سبتمبر 2024.

آلية الاستغلال:

  • رفع ملف Word يحتوي على “ذكريات” مزيفة.
  • ChatGPT يقبل هذه المعلومات كحقائق.

تجارب ريهبيرجر:

  • إقناع ChatGPT بأنه يعيش أكثر من 100 عام.
  • برمجة الروبوت لتسريب البيانات لخادم خارجي.

استجابة OpenAI:

  • تجاهلت التقرير الأولي للباحث.
  • أصدرت تصحيحًا جزئيًا بعد إثبات الباحث خطورة الثغرة.
  • منعت تسريب البيانات لكن لم تعالج مشكلة الذاكرة الكاذبة.

الصورة الكبيرة:

تسلط هذه الثغرة الضوء على التحديات الأمنية المستمرة في تطوير الذكاء الاصطناعي، وتثير تساؤلات حول مدى استعداد الشركات للتعامل مع المخاطر الأمنية في تقنياتها المتطورة.

المصدر


Source link

شارك هذا الخبر