مايكروسوفت تكتشف ثغرة أمنية في روبوتات الدردشة التي تعمل بالذكاء الاصطناعي والتي قد تكشف عن مواضيع المحادثات
تعاني روبوتات الدردشة الذاتية الشائعة اليوم التي تعمل بالذكاء الاصطناعي من خلل تشفيري مقلق ما يعني إمكانية هجمات القراصنة للرسائل و إعتراضها بسهولة حيث إكتشف باحثو الأمن السيبراني ثغرة أمنية حرجة في بنية نماذج لغات الذكاء الاصطناعي التوليدي ، و لكن ما مدى خطورة هذا الخلل ؟؟ و هذا من شأنه تجاوز التشفير المصمم للحفاظ على خصوصية المحادثات .
و قد لا تكون محادثاتك مع أدوات الذكاء الإصطناعي بعد اليوم ، مثل ChatGPT وGoogle Gemini، تتمتع بالخصوصية التي تظنها بعد الكشف عن خلل خطير في نماذج اللغات الكبيرة (LLMs) التي تشغل هذه الخدماتومما قد يكشف عن موضوع محادثاتك معها ، كما أطلق الباحثون على هذه الثغرة إسم "تسريب الهمس" (Whisper Leak) و وجدوا أنها تؤثر على جميع النماذج التي اختبروها تقريبآ .
عند الدردشة مع أدوات الذكاء الاصطناعي المدمجه في محركات البحث أو التطبيقات الرئيسية تكون المعلومات محمية بواسطة TLS (أمان طبقة النقل)، و هو نفس التشفير المستخدم في الخدمات المصرفية عبر الإنترنت ، حيث تمنع هذه الإتصالات الآمنة المتنصتين المحتملين من قراءة الكلمات التي تكتبها و مع ذلك إكتشفت مايكروسوفت أن البيانات الوصفية تظل مرئية ، كما لا يكسر هذا الخلل الذي عرف ب "تسريب الهمس" التشفير الأمني TLS ، لكنه يستغل ما لا يمكن للتشفير إخفاؤه .
حيث لا تكمن المشكلة في التشفير نفسه بل في كيفية نقل الاستجابات "هذه ليست ثغرة تشفيرية في TLS نفسه، بل هي إستغلال للبيانات الوصفية التي يكشفها TLS بطبيعته حول بنية حركة المرور المشفرة وتوقيتها." و نظرآ لخطورة التسريب و سهولة تنفيذ الهجوم يؤكد الباحثون في ورقتهم البحثية على ضرورة تأمين القطاع للأنظمة المستقبلية .

0 تعليقات