أفضل طريقة لكي لا يخبر الذكاء الاصطناعي أسرارك

يتم تطبيق استخدام الذكاء الاصطناعي في العديد من الاستخدامات ، ولا يزال يتعين تحديد حدوده وقيوده. أحد الاهتمامات التي يمكن أن تنشأ ، خاصة في حالة الذكاء الاصطناعي للمحادثة من نوع ChatGPT ، هو كم يجب أن يحسبوا وكم يجب أن يكونوا صامتين ... ويبدو أن الخط الأحمر أوضح مما نعتقد.

هناك قول مأثور يقول "أنا أقدر على ما أبقى هادئًا أكثر من ما أتحدث عنه" وهذا هو بالضبط القيمة المضافة الجديدة التي يجب منحها للذكاء الاصطناعي: لتجنب الكشف عن الأسرار.

أفضل طريقة لكي لا يخبر الذكاء الاصطناعي أسرارك

كيفية منع الذكاء الاصطناعي من مشاركة الأسرار

أخذ Github على سبيل المثال ، الذين قاموا بتحديث نموذج AI لـ Copilot ، مساعد برمجة يقوم بإنشاء التعليمات البرمجية المصدر في الوقت الفعلي وتوصيات الميزات في Visual Studio ، بدعوى أنه الآن أكثر أمانًا وقوة.

الذكاء الاصطناعي

للقيام بذلك ، سيقدم نموذج الذكاء الاصطناعي الجديد ، الذي سيتم إصداره للمستخدمين هذا الأسبوع ، اقتراحات جودة أفضل في وقت أقل ، مما يزيد من تحسين كفاءة مطوري البرامج من خلال زيادة معدل القبول. سيقدم Copilot مع هذا التحديث نموذجًا جديدًا يسمى "Fill-In-the-Middle" ، والذي يستخدم مكتبة من أوامر التعليمات البرمجية المعروفة و يترك فراغ لأداة الذكاء الاصطناعي لملئه ، مما يجعلها أكثر صلة بالموضوع واتساقًا مع البقية. من كود المشروع.

من أبرز التحسينات في تحديث Copilot هذا إدخال نظام جديد لتصفية الثغرات الأمنية والذي سيساعد في تحديد التلميحات غير الآمنة ومنعها مثل بيانات الاعتماد المختلطة ، وإدخالات المسار ، وإدخالات SQL . تقول شركة البرمجيات إن برنامج Copilot يمكنه إنشاء أسرار مثل المفاتيح وبيانات الاعتماد وكلمات المرور التي تبحث في بيانات التدريب على سلاسل جديدة. ومع ذلك ، لا يمكن استخدامها لأنها خيالية تمامًا وسيتم حظرها بواسطة نظام التصفية الجديد.

انتقاد شديد لكشف الأسرار

ظهور هذه الأسرار في تلميحات تعليمات مساعد الطيار رسم انتقادات شديدة من مجتمع تطوير البرمجيات ، مع اتهامات كثيرة Microsoft باستخدام مجموعات البيانات الكبيرة المتاحة للجمهور لتدريب نماذج الذكاء الاصطناعي الخاصة بها بغض النظر عن الأمان ، حتى بما في ذلك المجموعات التي تحتوي على أسرار عن طريق الخطأ .

Código سر مساعد مساعد الطيار

من خلال حظر الاقتراحات غير الآمنة في محرر الوقت الفعلي ، يمكن أن يوفر GitHub أيضًا بعض المقاومة ضد هجمات تسمم مجموعة البيانات التي تهدف إلى تدريب مساعدي الذكاء الاصطناعي سرًا على تقديم اقتراحات تحتوي على حمولات ضارة.

في هذا الوقت ، لا يزال يجري تدريب نماذج التعلم الطويلة (نماذج التعلم الطويلة) Copilot على التمييز بين أنماط التعليمات البرمجية الضعيفة وغير المعرضة للخطر ، لذلك من المتوقع أن يتحسن أداء نموذج الذكاء الاصطناعي على هذه الجبهة تدريجيًا في المستقبل القريب. .