محتوى حساس يتحول إلى مادة عامة
وبحسب التقرير، ظهرت نحو 4500 محادثة شخصية ضمن نتائج البحث، وهو عدد قد يكون أكبر بكثير، ويشمل محتوى حساسًا مثل الاعتراف بالإدمان، وقصص عن العنف الأسري، واضطرابات نفسية، وتفاصيل عن العلاقات الشخصية والعائلية.
ورغم أن هويات المستخدمين لا تُعرض بشكل مباشر، فإن بعض المحادثات تتضمن معلومات دقيقة مثل الأسماء، الأماكن، وسياقات خاصة قد تكشف عن هوية أصحابها.
زر “المشاركة” قد يكون بوابة لانتهاك الخصوصية
يحدث ذلك عند استخدام زر “مشاركة” داخل موقع ChatGPT، حيث يُطلب من المستخدم إنشاء رابط لمحادثته، ويظهر مربع حواري يحتوي على خيار يتيح فهرسة الرابط في محركات البحث إذا تم تفعيله يدويًا.
لكن المثير للقلق أن هذا الخيار لا يظهر عند استخدام تطبيق ChatGPT على أجهزة أندرويد وiOS، ما يمنع المستخدم من معرفة ما إذا كانت المحادثة التي شاركها ستكون مرئية على الإنترنت.
تحذيرات من فجوة الوعي الرقمي
وصف خبراء الخصوصية هذا التطور بأنه “خطير ومروع”، في وقت تشير فيه استطلاعات إلى أن نصف الأميركيين يستخدمون روبوتات الذكاء الاصطناعي لأغراض الدعم النفسي، مما يزيد من خطورة تسرب هذه التفاعلات الحساسة.
وتشير البيانات إلى أن:
75% من المستخدمين بحثوا عن مساعدة في القلق
60% طلبوا دعماً لمواجهة الاكتئاب
66% استخدموا ChatGPT للحصول على نصائح شخصية
مايكرو تسريب معلومات بسبب الإهمال
استخدام خيار “المشاركة” دون إدراك حقيقته قد يؤدي إلى تسريب معلومات حساسة على نطاق واسع، خاصة مع تصاعد الاعتماد على الذكاء الاصطناعي في مناقشة أمور شخصية وعاطفية ونفسية.
وقد شملت المحادثات المفهرسة موضوعات مثل الاضطرابات السيكولوجية لدى الأطفال، البرمجة النفسية، والناجين من الإساءة، ما يسلّط الضوء على الخطر الحقيقي لهذا النوع من التسريبات.
OpenAI: التحذير موجود.. ولكن!
من جهتها، تحذر OpenAI المستخدمين من مشاركة معلومات حساسة وتمنحهم القدرة على حذف روابط المحادثات متى أرادوا. لكن في تصريحات سابقة، أقرّ الرئيس التنفيذي للشركة، سام ألتمان، بأن الشركة قد تُجبر على تسليم بيانات المستخدمين بأمر قضائي، دون أن يتطرق لمسألة الفهرسة عبر جوجل.
جوجل تفهرس المحتوى المتاح علنًا فقط
تشير “جوجل” إلى أنها تفهرس أي محتوى متاح علنيًا، ما يعني أن فهرسة روابط محادثات ChatGPT لا تتم إلا إذا جعلها المستخدم متاحة للبحث بشكل يدوي عند إنشاء الرابط من خلال الموقع.
لكن غياب هذا الخيار في تطبيقات الهاتف، وعدم معرفة المستخدمين به، يُعزز فجوة الوعي الرقمي ويزيد من فرص انتهاك الخصوصية دون قصد.
ليست الواقعة الأولى
حادثة فهرسة محادثات ChatGPT ليست سابقة، فقد واجهت شركة “ميتا” انتقادات مشابهة بعد أن ظهرت استفسارات المستخدمين من روبوتاتها داخل خلاصة تطبيقاتها الاجتماعية.
وأكد خبراء الأمان الرقمي أن الوعي المحدود بكيفية عمل أدوات الذكاء الاصطناعي لا يزال يشكل تهديدًا حقيقيًا لخصوصية المستخدمين حول العالم.