أولئك الذين يروون حياتهم الخاصة للذكاء الاصطناعي معرضون للخطر
أدلى سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بتصريح هام يتعلق بمستخدمي ChatGPT. ذكر ألتمان أن المحادثات الشخصية مع تطبيق الذكاء الاصطناعي لا تخضع قانوناً لحماية الخصوصية.

في الوقت الذي تجد فيه تطبيقات الذكاء الاصطناعي مساحة أكبر في جميع مجالات الحياة، أصبح أمن المعلومات الخاصة التي تتم مشاركتها مع هذه التقنيات موضع جدل. وبينما لا يشكك ملايين الأشخاص الذين يستخدمون روبوتات الدردشة مثل ChatGPT كمستشار أو معالج نفسي في خصوصية هذه المحادثات، إلا أن تصريح الرئيس التنفيذي لشركة OpenAI سام ألتمان لفت الانتباه إلى هذه النقطة.
ليست ملزمة قانوناً بالإخفاء
قال ألتمان في البودكاست "This Past Weekend w w w ثيو فون" إن العديد من المستخدمين ينظرون إلى ChatGPT كمعالج أو مستشار، ولكن هذا الاستخدام لا يخلق حقًا قانونيًا في الخصوصية.
"في الوقت الحالي، عندما تتحدث عن هذه القضايا مع معالج أو محامٍ أو طبيب، هناك امتياز قانوني لذلك. ولكننا لم نتوصل بعد إلى ما يجب فعله في السيناريو الذي تتحدث عنه مع ChatGPT"، قال ألتمان، مضيفًا أن هذا النقص يخلق فجوة قانونية مهمة.
تحذير من مخاطر المحكمة
ذكر ألتمان أيضًا أن هذا قد يشكل خطرًا على المستخدمين في عمليات التقاضي. وقال إن OpenAI قد تكون ملزمة بموجب التزامات قانونية بتقديم مثل هذه المحادثات إلى المحاكم إذا لزم الأمر.
"هذا وضع غريب للغاية. فالناس ينظرون إلى الذكاء الاصطناعي على أنه كاتم أسرار، ولكن هذه المحادثات لا تخضع بعد لأي حماية قانونية"، كما قال ألتمان، مؤكداً على ضرورة زيادة الوعي بهذه المسألة.
إن الاستخدام الشخصي المتزايد لأنظمة الذكاء الاصطناعي يجلب معه الحاجة إلى التنظيم القانوني. فوفقاً لألتمان، قد تتطلب المحادثات الخاصة مع نماذج مثل ChatGPT لوائح قانونية مماثلة للسرية بين المعالج والمريض في المستقبل.
ومع ذلك، فحتى الآن، لا تتمتع المعلومات الخاصة التي يشاركها المستخدمون مع هذه الأنظمة بأي درع قانوني للخصوصية.
ما هو رد فعلك؟






