tgoop.com/ibbfree/162035
Last Update:
الذكاء الاصطناعي بين الفرص والتحديات.. محادثات مؤرشفة ومخاوف مفتوحة
كانت دعاء، 25 عامًا، تعتبر ChatGPT مختصها النفسي وحافظ أسرارها. تقول: "كنت أتشارك معه كل شيء، مشاكلي الشخصية، أسراري العائلية، صوري الخاصة وضغوطات العمل،وأحيانًا كنت أجعله يكتب يومياتي!".
قصة دعاء ليست استثناءً، بل تعكس واقعًا يعيشه كثير من الأشخاص الذين وجدوا في روبوتات الدردشة مساحة آنية للبوح والتنفيس. غير أن هذه المساحة تفتح بابًا واسعًا للقلق حول من يملك هذه المحادثات، وكيف تُستخدم بيانات المستخدمين، خصوصًا في بيئة هشّة مثل اليمن، حيث قد يؤدي تسرب البيانات الشخصية، خاصة بالنسبة للنساء، إلى تهديد حياتهن بشكل مباشر.
"لم يكن لدي أي وعي رقمي ومحاذير لاستخدام الذكاء الاصطناعي، لم أكن أعلم أنني أرسل بيانات خاصة وحساسة جدًا إلى المجهول!"، تقول دعاء.
#محادثات_مؤرشفة
كشف تحقيق لـ digital digging نُشر في شهر يوليو من العام الجاري أن جوجل قامت بفهرسة محادثات "ChatGPT" التي أرسلها المستخدمون إلى الأصدقاء أو العائلات أو الزملاء، ما حوّل التبادلات الخاصة إلى نتائج بحث مرئية لملايين الأشخاص. ورغم أن ChatGPT لا يكشف عن هويات المستخدمين، إلا أن بعضهم عرّف عن نفسه بمشاركة معلومات شخصية بالغة الدقة.
بعد ذلك عملت شركة "OpenAI" مع "جوجل" على حذف هذه المحادثات، لكن قلق المستخدمين استمر، خصوصًا مع وجود مواقع للأرشفة الرقمية مثل Wayback Machine التي تؤرشف نسخ من المحتوى المنشور على الإنترنت!.
وكان قد حذر سام ألتمان، المدير التنفيذي لشركة "OpenAI" ضمن مقابلة معه في برنامج "This Past Weekend" في يوليو 2025، "إن محادثات "ChatGPT" لا تتمتع بالحماية القانونية"، واصفًا استخدامه بحذر بأنه "أمر منطقي".
هذا ما أثار ذعر منال 28 عامًا، التي تقول:"عندما أخبرتني صديقتي التي تعمل في تدقيق المعلومات عن تصريحات ألتمان، ندمت على مشاركة "ChatGPT" معلومات حساسة، فتسرب بيانتي الشخصية يعني تعرض حياتي للخطر".
#وعي_رقمي_متدنٍ
استخدام الإنترنت دون وعي بأمن المعلومات يمثل خطراً كبيراً، حيث يعاني كثير من المستخدمين من ضعف في الثقافة الرقمية. يظهر ذلك في عدم القدرة على التمييز بين الرسائل الإلكترونية العادية ورسائل التصيّد، أو في استخدام البرامج المكركة والأنظمة المعدلة التي تشكل تهديداً مباشراً لأمن الأجهزة والبيانات ناهيك عن مشاركة بيانات حساسة أثناء محادثاتهم مع الذكاء الاصطناعي، بحسب مهندس الأمن الرقمي عزمي الصلوي.
ويضيف الصلوي: "إحدى المخاطر الأساسية تكمن في عدم معرفة الجهات التي تطور نماذج الذكاء الاصطناعي ، وإلى أين تذهب هذه المحادثات.."بعض المستخدمين يرسلون ملفات حساسة، وصور خاصة، دون إدراك أن هذه البيانات قد تُستغل لاحقًا للابتزاز أو البيع"، معقبًا:" ربما تظهر مثل هذه القضايا الابتزازية المرتبطة بالذكاء الاصطناعي في المستقبل، وقد نشهد قضايا ابتزاز من قبل شركات بدلا من أفراد!".
ويحذر من تطبيقات الذكاء الاصطناعي التي تحول الصور إلى رسوم كارتونية أو إنمي والتي تلقى رواجًا بين النساء: "البعض يرسل صورًا خاصة ولكنه في هذه الحالة لا يعرف إلى أين تم إرسال هذه الصور وهل الشركة آمنة أم لا. قد تكون بعض هذه الشركات وهمية وتحتفظ بالصور على سيرفراتها، ثم تستخدم لاحقًا في الابتزاز".
ويتابع "من الأخطاء الشائعة أن تتم مشاركة الذكاء الاصطناعي بيانات شخصية مثل الإيميل الشخصي والاسم وعنوان السكن أو أرقام الهواتف، مضيفًا:" أي بيانات خاصة وحساسة لا ترغب أن يطلع عليها أحد، لا ترسلها، هذا الحل الأمثل لحماية خصوصيتك". مضيفًا أن استخدام المحادثات المؤقتة مع هذه التطبيقات قد يمثل أمن أعلى:" على الأقل إذا تم اختراق الجهاز لا يمكن الوصول إلى نسخ من هذه المحادثات الحساسة"، يوضح الصلوي.
#بين_الدعم_والقلق
رغم ما يتيحه الذكاء الاصطناعي من فرص واسعة، إلا أن مخاوف النساء من انتهاك الخصوصية، إلى جانب ضعف وصولهن إلى التكنولوجيا الذي يعيق تعلمهن استخدامها، ما يزال يحرم كثيرات من الاستفادة الكاملة منها. هذه التحديات تظهر بوضوح من خلال تجارب النساء الفعلية مع هذه الأدوات.
تقول وفاء (33 عامًا): "تستخدم صديقتي مراسلات شات جي بي تي لأنه ينصت إليها ويرحب بأسئلتها على الدوام ويقدم لها نصائح رائعة جعلت صحتها النفسية تتحسن". وتضيف: "نصحتني مرارًا باستخدامه لحل مشكلاتي لكنني أخشى دائمًا مشاركته بياناتي، لهذا اكتفيت باستخدامه بشكل سطحي!".
BY شبكة إب الإخبارية
Share with your friend now:
tgoop.com/ibbfree/162035