ثغرة في ذاكرة ChatGPT تثير مخاوف أمنية

[ad_1]

ثغرة في ذاكرة ChatGPT تثير مخاوف أمنية

اكتشف باحث أمني ثغرة في ميزة “الذاكرة طويلة المدى” لروبوت الدردشة ChatGPT، تسمح بالتلاعب بذكريات الروبوت وتسريب البيانات.

أهم النقاط:

  • الثغرة تمكّن من زرع معلومات كاذبة في ذاكرة ChatGPT.
  • يمكن استغلالها لتسريب بيانات المستخدمين.
  • استجابة OpenAI للمشكلة كانت محدودة.

اكتشاف الثغرة:

  • الباحث يوهان ريهبيرجر وجد الخلل في فبراير 2024.
  • الميزة أطلقت للجمهور في سبتمبر 2024.

آلية الاستغلال:

  • رفع ملف Word يحتوي على “ذكريات” مزيفة.
  • ChatGPT يقبل هذه المعلومات كحقائق.

تجارب ريهبيرجر:

  • إقناع ChatGPT بأنه يعيش أكثر من 100 عام.
  • برمجة الروبوت لتسريب البيانات لخادم خارجي.

استجابة OpenAI:

  • تجاهلت التقرير الأولي للباحث.
  • أصدرت تصحيحًا جزئيًا بعد إثبات الباحث خطورة الثغرة.
  • منعت تسريب البيانات لكن لم تعالج مشكلة الذاكرة الكاذبة.

الصورة الكبيرة:

تسلط هذه الثغرة الضوء على التحديات الأمنية المستمرة في تطوير الذكاء الاصطناعي، وتثير تساؤلات حول مدى استعداد الشركات للتعامل مع المخاطر الأمنية في تقنياتها المتطورة.

المصدر

[ad_2]
Source link