▪︎ مجلس نيوز
على السطح ، قد يبدو وكأنه أداة يمكن أن تكون مفيدة لمجموعة من مهام العمل. ولكن قبل أن تطلب من chatbot تلخيص المذكرات المهمة أو التحقق من عملك بحثًا عن الأخطاء ، يجدر بنا أن نتذكر أن أي شيء تشاركه مع ChatGPT يمكن استخدامه لتدريب النظام وربما يظهر في ردوده على المستخدمين الآخرين. هذا شيء ربما كان يجب أن يكون العديد من الموظفين على دراية به قبل أن يُقال إنهم يشاركون المعلومات السرية مع برنامج الدردشة الآلي.
بعد فترة وجيزة من بدء قسم أشباه الموصلات في سامسونج السماح للمهندسين باستخدام ChatGPT ، سرب العمال معلومات سرية إليه في ثلاث مناسبات على الأقل ، وفقًا لـ (كما رصدتها ). وبحسب ما ورد طلب أحد الموظفين من chatbot التحقق من شفرة مصدر قاعدة البيانات الحساسة بحثًا عن الأخطاء ، وطلب آخر تحسين الكود ، وقام ثالث بتغذية اجتماع مسجل في ChatGPT وطلب منه إنشاء دقائق.
تشير إلى أنه بعد التعرف على الأخطاء الأمنية ، حاولت Samsung الحد من مدى الأخطاء المستقبلية من خلال تقييد طول رسائل ChatGPT للموظفين إلى كيلوبايت ، أو 1024 حرفًا من النص. يقال أيضًا أن الشركة تحقق مع الموظفين الثلاثة المعنيين وتبني روبوت الدردشة الخاص بها لمنع حوادث مماثلة. اتصلت Engadget بشركة Samsung للتعليق.
ChatGPT’s ينص على أنه ما لم ينسحب المستخدمون صراحةً ، فإنه يستخدم مطالباتهم لتدريب نماذجه. أوبن إيه آي مالك روبوت الدردشة عدم مشاركة المعلومات السرية مع ChatGPT في المحادثات لأنه “غير قادر على حذف مطالبات معينة من سجلك.” الطريقة الوحيدة للتخلص من معلومات التعريف الشخصية على ChatGPT هي حذف حسابك – وهي عملية .
تعد ملحمة Samsung مثالًا آخر على سبب كونها كما ينبغي مع كل أنشطتك على الإنترنت. أنت لا تعرف حقًا أين ستنتهي بياناتك.
ظهر هذا المقال في الأصل على Engadget على https://www.engadget.com/three-samsung-employees-reportedly-leaked-sensitive-data-to-chatgpt-190221114.html؟src=rss