تحقيق صحفي يكشف ثغرات خطيرة في أداة “شات جي بي تي” للذكاء الاصطناعي

في عصر يتسارع فيه التطور التكنولوجي، كشفت صحيفة “الجارديان” عن تحقيق صحفي مثير للجدل يسلط الضوء على مخاطر أدوات البحث المعتمدة على الذكاء الاصطناعي، تحديدًا “شات جي بي تي” التابعة لشركة “أوبن أيه آي”. حيث أظهر التحقيق إمكانية استغلال هذه الأدوات لنشر معلومات مضللة، التلاعب بالمحتوى، وحتى تنفيذ عمليات سيبرانية خبيثة، مما يثير تساؤلات جدية حول موثوقية هذه التقنيات ومستقبل استخدامها.

ثغرات تُثير القلق
أحد أخطر الجوانب التي أوردها التحقيق هو ما يعرف بـ”المحتوى المخفي”، وهي تقنية يتم فيها تضمين نصوص أو تعليمات برمجية غير مرئية للمستخدم العادي، لكنها تؤثر بشكل مباشر على استجابات الذكاء الاصطناعي. وأشار التقرير إلى أن “شات جي بي تي” يمكن التلاعب به لتقديم تقييمات إيجابية لمنتجات، رغم وجود مراجعات سلبية فعلية على نفس الصفحة.

وفي سلسلة من الاختبارات، وجدت “الجارديان” أنه عند تضمين تعليمات خفية تطلب من الأداة إبداء رأي إيجابي، تغيرت استجابتها بشكل كامل، وأصبحت تعكس انحيازًا واضحًا، مما يكشف عن ضعف خطير في آلية عمل الذكاء الاصطناعي واستجابته للمؤثرات الخارجية.

تهديدات أمنية خطيرة
لم يقتصر الأمر على التلاعب بالمعلومات، بل امتد ليشمل الأمن السيبراني. وفقًا للتحقيق، أظهرت الاختبارات قدرة الأداة على إعادة إنتاج أكواد برمجية خبيثة عند البحث عن معلومات من مواقع غير آمنة. هذا الأمر يزيد من مخاطر الاختراقات وسرقة البيانات، ويشكل تهديدًا مباشرًا للمستخدمين والشركات التي تعتمد على مثل هذه الأدوات.

تحذيرات وخطوات مستقبلية
خبراء الأمن السيبراني أعربوا عن مخاوفهم من استغلال هذه الثغرات، وحذروا من إمكانية إنشاء مواقع إلكترونية مصممة خصيصًا لتضليل أدوات الذكاء الاصطناعي، ما يضاعف من خطر التضليل الجماعي. وأشاروا إلى أن “أوبن أيه آي” تعمل حاليًا على تطوير وتحسين هذه الأدوات لسد الثغرات قبل طرحها النهائي، إلا أن المخاطر تبقى قائمة في الوضع الحالي.

دمج الذكاء الاصطناعي في البحث.. تحديات جديدة
التحقيق يثير تساؤلات أوسع حول مدى أمان دمج البحث التقليدي مع نماذج اللغة الكبيرة، وهي التقنية التي تعتمد عليها أدوات مثل “شات جي بي تي”. الخبراء يرون أن هذه النماذج، رغم قدراتها الكبيرة، لا تزال تفتقر إلى الحيادية والقدرة على اتخاذ قرارات دقيقة دون تأثير خارجي.

واقترح الخبراء استخدام أدوات الذكاء الاصطناعي كمساعد في البحث فقط، مع ضرورة التحقق الدقيق من المخرجات وعدم الاعتماد عليها كمصدر أساسي للمعلومات.

الختام: مسؤولية مشتركة
يكشف تحقيق “الجارديان” عن تحديات عميقة تواجه أدوات الذكاء الاصطناعي في الوقت الراهن. ومع تزايد استخدامها في الحياة اليومية، تقع المسؤولية على عاتق الشركات المطورة لمعالجة الثغرات، وعلى المستخدمين للتحلي بالوعي والحذر. في نهاية المطاف، يبقى الذكاء الاصطناعي أداة تحتاج إلى توجيه ورقابة صارمة لضمان تحقيق الفائدة دون التضحية بالأمان والمصداقية.