Home » إختيارات المحرر » لماذا لا يجب عليك استخدام ChatGPT للعلاج

هل تعتقد أن محادثات ChatGPT الخاصة بك خاصة؟ وهم غير محميين بموجب القانون. اكتشف كيفية حماية بياناتك واستخدام الذكاء الاصطناعي بشكل أكثر أمانًا.

مع لجوء المزيد من الأشخاص إلى الذكاء الاصطناعي للحصول على المشورة والدعم وحتى الراحة العاطفية، يعد البيان الأخير للرئيس التنفيذي لشركة OpenAI سام ألتمان بمثابة تذكير صارخ: محادثات الذكاء الاصطناعي الخاصة بك ليست سرية.

وفي حديثه في بودكاست This Past Weekend الذي يقدمه ثيو فون، حذر ألتمان صراحة من أن الدردشات الشخصية مع ChatGPT يمكن استدعاؤها واستخدامها كدليل قانوني في المحكمة. “إذا ذهبت للتحدث إلى ChatGPT حول الأشياء الأكثر حساسية لديك، ثم حدثت دعوى قضائية أو أي شيء آخر، فقد يُطلب منا تقديم ذلك”، كما قال. “وأعتقد أن هذا أمر سيء للغاية.”

أثار تعليق ألتمان أسئلة مهمة حول الخصوصية الرقمية والصحة العقلية وكيف يستخدم الأشخاص أدوات الذكاء الاصطناعي للدعم العاطفي في كثير من الأحيان دون إدراك المخاطر. ولكن بدلاً من التركيز فقط على المشكلة، دعونا نحول الأضواء إلى ما يهم حقًا: ما الذي يجب على المستخدمين فعله لحماية أنفسهم عند التفاعل مع أدوات الذكاء الاصطناعي مثل ChatGPT؟

فيما يلي تفصيل عملي للخطوات التي يمكنك اتخاذها الآن.

الذكاء الاصطناعي ليس معالجًا

من المهم أن نبدأ بهذه الحقيقة الأساسية: ChatGPT ليس معالجًا. ورغم أنه يمكنه محاكاة التعاطف وتقديم النصائح استناداً إلى مجموعات كبيرة من البيانات، فإنه لا يخضع للأخلاقيات الطبية ولا يرتبط بسرية العلاقة بين الطبيب والمريض.

تتم حماية المحادثات مع المعالجين بموجب قوانين مثل قانون HIPAA في الولايات المتحدة أو لوائح خصوصية الرعاية الصحية المماثلة في أماكن أخرى. ChatGPT لا يندرج تحت أي من هذه. وهذا يعني أن أي شيء تشاركه يمكن، في ظل ظروف معينة، الوصول إليه من قبل أطراف ثالثة، خاصة في الإجراءات القانونية.

إذا كنت لا تريد ظهور شيء ما في محضر المحكمة أو التحقيق، فلا تشاركه مع برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي.

لا تُفرِط في المشاركة

يشعر العديد من المستخدمين بالأمان عند مشاركة أفكارهم الحميمة مع برامج المحادثة الآلية، ففي النهاية لا يوجد إنسان على الطرف الآخر ليحكم عليك. لكن السلامة العاطفية لا تساوي أمن البيانات.

تجنب إدخال تفاصيل شخصية محددة مثل:

  • الأسماء الكاملة
  • عناوين المنزل أو العمل
  • أسماء الشركاء أو الأطفال أو الزملاء
  • المعلومات المالية
  • أوصاف السلوك غير القانوني
  • الاعتراف بالذنب أو ارتكاب المخالفات

حتى لو بدت محادثتك مجهولة المصدر، فلا يزال بإمكان البيانات الوصفية أو أنماط الاستخدام ربطها بك مرة أخرى.

استخدم ChatGPT للحصول على أفكار وعصف ذهني ونصائح عامة، وليس للاعترافات أو الانهيارات العاطفية أو الإفصاحات الشخصية التي لا يمكنك قولها في مكان عام.

إيقاف تشغيل سجل الدردشة

يتيح OpenAI للمستخدمين إيقاف تشغيل سجل الدردشة، مما يمنع استخدام المحادثات لتدريب النماذج المستقبلية أو تخزينها على المدى الطويل.

على الرغم من أن هذه الميزة لا توفر حماية مطلقة (قد تظل بعض البيانات مخزنة مؤقتًا)، إلا أنها خطوة قوية نحو تقليل ما يتم الاحتفاظ به في الملف.

وإليك كيف يمكنك تعطيله:

  • انتقل إلى الإعدادات
  • انقر فوق عناصر التحكم في البيانات
  • قم بإيقاف تشغيل سجل الدردشة والتدريب

يمنحك تعطيل السجل تحكمًا أكبر في ما يتم الاحتفاظ به، حتى لو لم يمحو كل المخاطر.

ابق مجهولاً

إذا كنت تختبر أفكارًا أو تستكشف موضوعات حساسة من خلال الذكاء الاصطناعي، فتجنب تسجيل الدخول عبر الحسابات التي تستخدم اسمك الحقيقي أو بريدك الإلكتروني أو بيانات اعتماد العمل. يؤدي هذا إلى إنشاء طبقة من المسافة بين هويتك والبيانات.

لمزيد من الأمان، تجنب مناقشة الأحداث الخاصة بالموقع أو أي شيء يمكن أن يربط استخدامك بمواقف العالم الحقيقي.

كلما كانت بياناتك أقل قابلية للتحديد، أصبح من الصعب إرجاعها إليك في السيناريوهات القانونية أو التحقيقية.

لا تعتمد على الذكاء الاصطناعي عندما تكون أكثر عرضة للخطر

الذكاء الاصطناعي غير مجهز للتعامل مع الأزمات العاطفية في الوقت الحقيقي. على الرغم من أنه قد يبدو مستجيبًا، إلا أنه غير مدرب على التعرف على المشكلات التي تهدد الحياة أو تصعيدها مثل التفكير في الانتحار أو سوء المعاملة أو الصدمة كما هو الحال مع المعالجين المرخصين أو خطوط المساعدة في الأزمات.

إذا كنت في مكان ضعيف عاطفياً، فمن الأفضل أن:

  • اتصل بالخط الساخن للأزمات
  • تحدث إلى المعالج
  • تحدث إلى صديق موثوق به أو أحد أفراد العائلة

يجب أن يأتي الدعم العاطفي من متخصصين مدربين، وليس من الخوارزميات.

اقرأ الطباعة الجميلة

قد لا تكون القراءة مثيرة، لكن سياسة الخصوصية الخاصة بـ OpenAI توضح كيفية التعامل مع بياناتك. قد يكون لدى المنصات الأخرى التي تستخدم روبوتات الدردشة التي تعمل بالذكاء الاصطناعي سياسات مماثلة.

الأشياء المهمة التي يجب البحث عنها تشمل:

  • كم من الوقت يتم تخزين بياناتك
  • ما إذا كانت المحادثات تُستخدم لتدريب النموذج
  • تحت أي ظروف يمكن مشاركة البيانات مع أطراف ثالثة
  • حقوقك في حذف بياناتك

إن معرفة القواعد تساعدك على البقاء مسيطرًا على بصمتك الرقمية.

هل تريد التغيير؟ الدفع نحو قوانين خصوصية الذكاء الاصطناعي

مع استمرار تطور أدوات الذكاء الاصطناعي، يتخلف النظام القانوني عن الركب. لا توجد معايير عالمية واضحة حول كيفية حماية محادثات الذكاء الاصطناعي، خاصة عند استخدامها لأغراض علاجية زائفة.

إذا كنت تعتقد أن هذه الأدوات يجب أن تكون أكثر خصوصية، فادعم الجهود الرامية إلى الدفع نحو أطر أخلاقية للذكاء الاصطناعي، وقوانين أقوى لحماية البيانات، وهياكل موافقة أكثر وضوحًا. وكلما زاد عدد المستخدمين الذين يطالبون بالشفافية والحماية، كلما زاد الضغط على شركات التكنولوجيا والجهات التنظيمية للتحرك.

لا تكن مجرد مستخدم سلبي. كن جزءا من التغيير.

قبل أن تضغط على “إرسال”، اسأل نفسك هذا السؤال

إن ملاحظة سام ألتمان الصريحة هي أكثر من مجرد تحذير، بل هي دعوة للعمل حتى يكون المستخدمون على علم ومتعمدين. يمكن أن تكون روبوتات الدردشة التي تعمل بالذكاء الاصطناعي مثل ChatGPT أدوات مفيدة، لكنها ليست خاصة، وليست معالجين، وليست فوق القانون.

على الرغم من أنه قد يكون من المغري التعامل مع الذكاء الاصطناعي كمجلة أو شخص موثوق به، إلا أن المسار الرقمي الذي تتركه قد يكون له عواقب في العالم الحقيقي. من خلال إدراك المخاطر واتخاذ خطوات استباقية، لا يزال بإمكانك الاستفادة من قوة الذكاء الاصطناعي، دون وضع نفسك في موقف قانوني أو شخصي ضعيف.

لذا، في المرة القادمة التي تبدأ فيها بكتابة شيء شخصي للغاية، توقف للحظة واسأل نفسك:

هل هذا شيء سأكون مرتاحًا لشرحه في قاعة المحكمة؟

إذا كانت الإجابة لا، فمن الأفضل عدم قولها، على الأقل لروبوت الدردشة.