تقارير: فهرسة محادثات خاصة من ChatGPT عبر غوغل تثير مخاوف بشأن الخصوصية الرقمية

تحرير: ماهر الرفاعي

كشفت تقارير  أن محرك البحث غوغل بدأ في فهرسة عدد من محادثات مستخدمي نموذج الذكاء الاصطناعي “ChatGPT”، بعد أن قام بعضهم بمشاركتها عبر الإنترنت من خلال خاصية “الرابط العام”. ووفق تحليل نشره موقع “Fast Company”، بات بالإمكان الوصول إلى آلاف المحادثات عبر نتائج البحث، ما أثار مخاوف متزايدة بشأن الخصوصية الرقمية، خاصة أن هذه التفاعلات غالبا ما تتضمن محتوى شخصيا ذا طابع حميمي أو حساس.

تشير المعطيات إلى أن المستخدمين الذين يشاركون روابط محادثاتهم قد لا يدركون أن خيار إدراج هذه الروابط في نتائج البحث يكون مفعلا يدويا عند إنشاء الرابط عبر الموقع الإلكتروني لـ “ChatGPT”، في حين أن هذا الخيار لا يظهر في تطبيقات الهواتف الذكية. وتتضمن بعض المحادثات المفهرسة تفاصيل دقيقة عن أوضاع صحية، تجارب نفسية، علاقات شخصية، وحتى آراء حساسة، ما قد يتيح إمكانية التعرف على أصحابها رغم غياب الأسماء الصريحة. ويفاقم هذا الوضع ما وصفه خبراء الأمن الرقمي بغياب الوعي التقني الكافي لدى شريحة واسعة من المستخدمين حول كيفية عمل أنظمة الذكاء الاصطناعي وتوزيع المحتوى الناتج عنها.

يأتي هذا التطور في سياق تشهد فيه أدوات الذكاء الاصطناعي التوليدي توسعا كبيرا في الاستخدام، لا سيما في مجالات الدعم النفسي والمشورة الشخصية، وهو ما يطرح تحديات أخلاقية وتقنية متزايدة بشأن حماية الخصوصية. وبالرغم من أن “OpenAI”، الشركة المطورة لـ “ChatGPT”، تتيح إمكانية حذف الروابط المشتركة وتحذر من مشاركة معلومات حساسة، إلا أن الحادثة تبرز الحاجة إلى تعزيز الحماية الافتراضية والتثقيف الرقمي، خصوصا مع تصاعد اعتماد المستخدمين على هذه الأدوات في التعبير عن ذواتهم والتعامل مع حالات إنسانية معقدة.

واتساب تابع آخر الأخبار على واتساب تليجرام تابع آخر الأخبار على تليجرام أخبار جوجل تابع آخر الأخبار على جوجل نيوز نبض تابع آخر الأخبار على نبض