لغة القالب
ابحث عن ما تشاء

تقرير:ChatGPT يمكنه تسريب بيانات التدريب وانتهاك الخصوصية

مجموعة من الباحثين في مختبر الذكاء الاصطناعي التابع لشركة جوجل Deep mind اكتشفوا طريقة سهلة بتخلي ChatGPT يسرب بيانات التدريب وينتهك الخصوصية وده بيحصل بمجرد لما تطلب منه يكرر مثلا كلمة (قصيدة) الى ما لا نهاية.

وكمان قدروا يتلاعبوا بروبوت الدردشة علشان يقول على أسماء المستخدمين وارقامهم و هواتفهم وعناوينهم.

تقرير:ChatGPT يمكنه تسريب بيانات التدريب وانتهاك الخصوصية


يظهر أن هناك تحذيرًا جديدًا حول برنامج ChatGPT الذي تم تطويره بواسطة OpenAI، حيث يمكن أن يتسرب بعض بيانات التدريب وينحرف عن التوجيه البرمجي المفروض. اكتشف باحثون في وحدة Google's DeepMind طريقة أكثر بساطة لكسر هذا التوجيه عن طريق تكرار كلمة واحدة، مما يؤدي إلى إجبار البرنامج على كشف أجزاء من بيانات التدريب حتى وإن كان ذلك غير متوقع.

يُطلق على هذه الظاهرة اسم "استخلاص الذاكرة"، وهي هجوم يجبر البرنامج على الكشف عن المعلومات التي تم تخزينها في ذاكرته، بما في ذلك نصوص أدبية وبيانات شخصية. وقد أظهرت التجارب أن هذا الهجوم يمكنه استخراج معلومات مثل أسماء الأفراد وأرقام هواتفهم، مما يشكل خطرًا على الخصوصية ويمكن أن يؤدي إلى عواقب خطيرة.

يُشير الباحثون إلى أن هذا الهجوم يجبر ChatGPT على الانحراف عن وظيفته المفترضة كمساعد ذكاء صناعي مفيد ويفضح وظيفته الأساسية في تكرار المعلومات التي تم إعطاؤها للبرنامج أثناء التدريب. يُطلق على هذا السلوك اسم "استخراج قابل للتحقيق"، حيث يفضي إلى كشف محتوى بيانات التدريب بمعدل يفوق 150 مرة مقارنة بالسلوك الصحيح.

وتشير النتائج إلى أن هناك فجوة في استراتيجية التوجيه التي تم اتباعها في تطوير هذه البرمجيات، والتي يتمثل هدفها في جعل البرامج تتصرف بشكل مفيد ومرضٍ وفقًا لتفضيلات البشر. وعلى الرغم من أن الاكتشافات قد تم الإبلاغ عنها لشركة OpenAI وربما تم اتخاذ خطوات لتقوية الأمان، إلا أن هذا يسلط الضوء على ضرورة التحقق المستمر وتحسين استراتيجيات الأمان لتجنب حدوث تسريبات بيانات أو انحراف غير مقصود في المستقبل.


              
ديسمبر 06, 2023

عدد المواضيع