أسئلة لا يحبّذ طرحها على "تشات جي بي تي"
Arab
6 hours ago
share
يستخدم نحو 800 مليون شخص أسبوعياً روبوت الدردشة "تشات جي بي تي" التابع لشركة أوبن إيه آي، بحثاً عن إجابات سريعة لمختلف أسئلتهم وحلول لمشكلاتهم اليومية. غير أن الاعتماد على هذه الأداة لا يخلو من مخاطر، إذ قد تقود بعض الإجابات غير الدقيقة أو المضللة إلى نتائج عكسية، تصل أحياناً إلى تهديد سلامة المستخدم أو التسبب له بمشكلات قانونية أو صحية. في هذا السياق، تتزايد التحذيرات من التعامل مع "تشات جي بي تي" بوصفه مرجعاً موثوقاً في كل المجالات، خصوصاً في القضايا الحساسة أو القرارات المصيرية. وفي ما يلي أبرز الأسئلة والمواضيع التي يُنصح بتجنّب طرحها على الروبوت، حفاظاً على السلامة والخصوصية وتفادياً لتبعات غير محسوبة. المشكلات الصحية حذّرت دراسة نُشرت في مجلة حوليات الطب الباطني من خطورة استخدام الذكاء الاصطناعي على الصحة، سواء "تشات جي بي تي" أو منافسيه. ووجد الباحثون أنه بإمكانهم بسهولة برمجة أنظمة الذكاء الاصطناعي لتقديم إجابات غير صحيحة، وربما ضارة، على الأسئلة المتعلقة بالصحة. والأسوأ من ذلك، أن برامج الدردشة الآلية تغلّف إجاباتها الخاطئة بأسلوب مقنع. الاضطرابات النفسية حذّرت دراسة أجراها أطباء من هيئة الخدمات الصحية الوطنية في المملكة المتحدة من أن برامج الذكاء الاصطناعي قد تُضخم المحتوى الوهمي أو المبالغ فيه لدى المستخدمين المعرضين للإصابة باضطرابات نفسية. وأشارت الدراسة إلى أن سلوك هذه البرامج قد يعود إلى تصميم نماذجها بهدف "زيادة التفاعل والتأكيد على صحة المعلومات". وأضافت أنه حتى لو استفاد بعض الأفراد من التفاعل مع الذكاء الاصطناعي، إلا أن هناك قلقاً من أن هذه الأدوات قد تشوش حدود الواقع. قرارات السلامة الفورية ينبّه موقع سي نت التقني إلى أنه في حالات الطوارئ لا ينبغي الاعتماد على "تشات جي بي تي". ويوضح: "إذا بدأ جهاز إنذار أول أكسيد الكربون في منزلك بالرنين، فلا تفتح التطبيق لتسأل إن كنت في خطر. غادر المنزل فوراً واسأل لاحقاً. نماذج الذكاء الاصطناعي لا تستطيع شمّ الغاز أو كشف الدخان أو استدعاء فرق الطوارئ. وفي الأزمات، كل ثانية تقضيها في الكتابة هي ثانية لا تُستثمر في الإخلاء أو الاتصال بالطوارئ". ويضيف أن "تشات جي بي تي لا يعمل إلا بناءً على المعلومات المحدودة التي يقدّمها المستخدم، وفي حالات الطوارئ تكون هذه المعلومات غالباً ناقصة أو متأخرة". النصائح المالية في مقال له عبر مجلة فوربس، يحذّر كبير مسؤولي الأبحاث في كورنستون إدفايزرز للاستشارات المالية، رون شيفلين، من استخدام "تشات جي بي تي" للحصول على النصائح المالية. إذ لا يمتلك الروبوت أحدث معلومات المنتجات، وتتغير الأسعار والرسوم وأداء المنتجات بشكل متكرر في القطاع المصرفي، بينما تدرّب "تشات جي بي تي" فقط على بيانات تنتهي صلاحيتها في 2021. الأسرار الشخصية المهنية وضع معلومات محظور نشرها في "تشات جي بي تي" يعني خروج هذه النصوص عن سيطرة المستخدم ودخولها إلى خادم تابع لجهة خارجية. هذا يخالف قوانين محلية وعربية وعالمية تخص أسرار المهنة وعدم الإفصاح. ينطبق هذا مثلاً على عقود العملاء، والسجلات الطبية، وأي شيء يخضع لقوانين خصوصية المستهلك، أو لوائح حماية البيانات، أو قوانين الأسرار التجارية. كذلك ينطبق على ضرائب دخل المستخدم، وشهادة ميلاده، ورخصة قيادته، وجواز سفره. الأنشطة غير القانونية يمكن للشرطة أن تعلم ما إذا كان المستخدم يتعاون مع الروبوت من أجل نشاط غير قانوني. في أغسطس/آب الماضي اعترفت "أوبن إيه آي" بأنها تفحص محادثات المستخدمين وتبلغ الشرطة عن أي تفاعلات يعتبرها المراجِع البشري تهديداً خطيراً.  الغش في الواجبات المدرسية تتحسن برامج كشف استخدام الذكاء الاصطناعي للإجابة عن الأسئلة. وحتى من دونها يمكن للأساتذة، بحكم خبرتهم، رصد أسلوب "تشات جي بي تي" المعروف عندهم. وفي حالة الانكشاف قد يعاقب الطالب بعقوبات قاسية. العقود القانونية يحذّر مكتب ويستفيلد للوصايا والخدمات القانونية في إنكلترا من كتابة وصية باستخدم الذكاء الاصطناعي، إذ الوصية غير الصحيحة أو سيئة الصياغة قد تتسبب في نزاعات قانونية مكلفة مالياً لاحقاً. غالباً ما تكلف معالجة هذه الأخطاء أكثر بكثير من مجانية الروبوت. وعند استخدام الأخير يشارك المستخدم تفاصيل حساسة حول أمواله وعائلته وممتلكاته مع منصة ذكاء اصطناعي. كما قد يفتقر الروبوت إلى الخبرة لتقديم نصائح قانونية تحتاج إليها صيغة الوصية.  

Related News

( Yemeni Windows) محرك بحث إخباري لا يتحمل أي مسؤولية قانونية عن المواد المنشورة فيه لأنها لا تعبر عن رأي الموقع..

All rights reserved 2026 © Yemeni Windows