
حذّر أطباء وخبراء من لجوء مرضى نفسيين إلى التحدث مع تطبيقات ذكاء اصطناعي طلباً للمساندة أو المشورة النفسية، مؤكدين أن هذا السلوك يحمل مخاطر جسيمة، خصوصاً في اللحظات الحرجة التي يعبّر فيها المريض عن أفكار انتحارية أو ميول لإيذاء النفس، موضحين أن المريض في تلك الحالات لا يبحث عن إجابة تقنية بقدر ما يبحث عن إنصات إنساني واحتواء عاطفي، بينما تفتقر الأنظمة الذكية إلى القدرة على استشعار الألم أو نبرة الاضطراب في الصوت والكلمات، ما يؤدي إلى ردود باردة أو آلية تزيد من شعوره بالعزلة واليأس، وقد تقدم تلك الأنظمة معلومات مضللة بثقة عالية تسبب ما يُعرف بظاهرة «الهلوسة الرقمية».
وقالوا لـ«الإمارات اليوم»، إن أخطر المواقف النفسية هي عندما يطرح المريض أسئلة تتعلق بالانتحار أو طلب المساعدة بطريقة غير مباشرة عبر هذه البرامج، محذّرين من أن الرد غير الملائم أو المتأخر، يمكن أن يؤدي إلى تأخير التدخل العاجل، خصوصاً في ظل الإحصاءات المقلقة التي تشير إلى تسجيل أكثر من 700 ألف حالة وفاة انتحارية سنوياً حول العالم، بحسب منظمة الصحة العالمية.
ولفتوا إلى أن غياب الضوابط في بعض الدول، أدى إلى انتشار محتوى مقلق وغير آمن، بينما تتابع الجهات التنظيمية الصحية والإعلامية في دولة الإمارات هذا الملف باهتمام، لضمان تحقيق التوازن بين الابتكار والتأمين النفسي للمجتمع.
وأشاروا إلى تقارير عالمية تُظهر أن نحو 85% من المصابين باضطرابات نفسية لا يتلقّون علاجاً مناسباً، ما يدفع بعضهم إلى الاعتماد على أدوات الذكاء الاصطناعي بديلاً مؤقتاً للدعم النفسي، رغم أن تلك الأنظمة ليست مؤهلة للتعامل مع الحالات الحساسة أو الخطرة.
وكشفوا عن حالات واقعية تأثرت بإرشادات خطأ من تلك التطبيقات، موضحين أن أحد المرضى أصبح يوجّه إلى أحد البرامج يومياً سؤالاً متكرراً: «هل أنا بخير؟» حتى بات أسيراً لما وصفه الأطباء بـ«الطمأنة الرقمية»، فيما قام مريض آخر بزيادة جرعة دوائه بناءً على تحليل خطأ من تطبيق ذكي، ما تسبب له بآثار جانبية خطرة، كما لجأ مراهق يعاني الاكتئاب إلى أحد التطبيقات الذي ردّ بلطف، لكن دون توجيهه إلى مساعدة طبية، ما أدى إلى تدهور حالته قبل تدخل أسرته.
وطالب الأطباء بضرورة فرض ضوابط واضحة على مطوّري تلك التطبيقات، وتشديد الرقابة على الإجابات المتعلقة بالقُصّر والمرضى النفسيين، مع حجب أي محتوى يتناول مواضيع خطرة أو أساليب إيذاء النفس، وتحويل المستخدمين تلقائياً إلى موارد المساعدة الفورية، مثل الخطوط الساخنة أو المتخصصين النفسيين المعتمدين.
وشددوا على أهمية إشراك الأطباء النفسيين في مراحل تطوير الأنظمة الذكية، لضمان أن تكون ردودها أكثر إنسانية وأماناً، وتزويدها بخوارزميات قادرة على التقاط مؤشرات الخطر النفسي، وتحويل المستخدم مباشرة إلى دعم بشري موثوق.
ردود باردة
وتفصيلاً، قال أخصائي الطب النفسي، الدكتور عمر عبدالعزيز: «قد يلجأ بعض المرضى النفسيين إلى برامج الذكاء الاصطناعي في لحظات القلق أو الوحدة، لأن الإنسان بطبيعته يبحث عمّن يسمعه فوراً دون حُكم أو انتظار»، موضحاً أن الخطر يكمن في أن هذه البرامج تسمع الكلمات، لكنها لا تفهم الإنسان.
وأشار إلى أن التقارير العالمية تُظهر أن 85% من المصابين باضطرابات نفسية لا يتلقون علاجاً مناسباً، بسبب صعوبة الوصول إلى الخدمات أو نقص الكوادر المتخصصة، لافتاً إلى أن دولة الإمارات أولت الصحة النفسية اهتماماً كبيراً ضمن الاستراتيجية الوطنية لجودة الحياة، ونجحت في تسهيل الحصول على الدعم النفسي بشكل أسرع وأكثر فاعلية مقارنة بالعديد من الدول، سواء عبر الخطوط الساخنة أو العيادات الحكومية والخاصة أو المبادرات المجتمعية.
وبيّن أن من أخطر المواقف النفسية عندما يطرح المريض أسئلة حساسة تتعلق بالانتحار أو إيذاء النفس على برامج الذكاء الاصطناعي، لأن المريض في تلك اللحظات لا يبحث عن المعلومة بقدر ما يبحث عمّن يسمعه، موضحاً أن هذه الأنظمة لا تشعر بارتعاش الصوت أو ألم الكلمات، ما قد يؤدي إلى ردود باردة أو ميكانيكية تزيد من شعور المريض بالعزلة، أو إلى تقديم نصائح عامة لا توجهه لطلب المساعدة الفورية.
وأضاف أن منظمة الصحة العالمية تشير إلى أكثر من 700 ألف وفاة انتحارية سنوياً، وهي من أبرز أسباب الوفاة بين الشباب حول العالم، محذراً من أن الرد الخطأ أو المتأخر عبر المنصات الرقمية قد يؤدي إلى تأخير التدخل العاجل.
وكشف عن حالات واقعية تأثرت بإرشاد خطأ من تطبيقات الذكاء الاصطناعي، موضحاً أن أحد المرضى أصبح يسأل أحد البرامج يومياً: «هل أنا بخير؟» حتى أصبح أسيراً لما سمّاه «الطمأنة الرقمية»، فيما قام مريض آخر بزيادة جرعة دوائه بناءً على تحليل من تطبيق ذكي، ما تسبب له بآثار جانبية خطرة، كما أشار إلى حالة مراهق لجأ إلى تطبيق أثناء مروره باكتئاب، تلقى رداً لطيفاً لكنه لم يوجهه إلى المساعدة الطبية، ما أدى إلى تدهور حالته قبل تدخل أسرته.
وأفاد بأن الدراسات العلمية تشير إلى أن الاعتماد المفرط على الذكاء الاصطناعي قد يفاقم القلق والاكتئاب بدل التخفيف منهما، خصوصاً لدى الأشخاص ذوي القابلية النفسية العالية، موضحاً أن تقنيات الذكاء الاصطناعي رغم تطورها فإنها تبقى ذكية حسابياً، لكنها محدودة إنسانياً، مبيناً أنها قد تحلل اللغة وتكتشف مؤشرات الخطر بدقة تصل إلى 89% في بعض النماذج، لكنها لا ترى ملامح الوجه ولا تسمع البكاء أو الصمت الطويل، وهي إشارات لا يلتقطها سوى الإنسان، ما يؤكد أهمية هذه الأنظمة في أن تكون مكملة للطبيب لا بديلة عنه.
وطالب بضرورة فرض ضوابط واضحة على مطوّري تطبيقات الذكاء الاصطناعي في المجال النفسي، مشدداً على أن الهدف ليس المنع، بل الحماية، داعياً الشركات إلى تبني منهج يضمن تفعيل آلية إنذار فوري عند ظهور مؤشرات خطر، لتحويل المستخدم مباشرة إلى أرقام النجدة أو خطوط المساعدة، وإخضاع المحتوى النفسي لمراجعة طبية متخصصة من قبل أطباء نفسيين معتمدين، وفرض حدود عمرية للمراهقين مع رقابة أبوية، والإفصاح الواضح عن حدود قدرات التطبيق وأنه لا يُعدّ بديلًا عن الطبيب.
وأشار إلى أن غياب مثل هذه الضوابط في بعض الدول، أدى إلى انتشار محتوى مقلق وغير آمن، في حين تتابع الهيئات التنظيمية الصحية والإعلامية في دولة الإمارات هذا المجال باهتمام، لضمان تحقيق التوازن بين الابتكار والأمان النفسي للمجتمع، وأضاف أن الحل لا يكمن في رفض التكنولوجيا، بل في توجيهها بروح إنسانية، داعياً المؤسسات الصحية إلى إنشاء منصات رقمية رسمية تجمع بين الذكاء الاصطناعي والرقابة البشرية.
الدعم البشري
أكّدت أخصائية علم النفس السريري، الدكتورة رنا أبونكد، أنه لا يمكن لأي نظام رقمي أو تطبيق ذكي أن يُعوِّض التقييم الإكلينيكي الإنساني المتكامل، الذي يأخذ في الاعتبار السياق الكامل لحياة الشخص وتجربته النفسية وظروفه الخاصة.
وأضافت أن أبرز المخاطر النفسية والسلوكية التي قد تنشأ عند توجيه المريض النفسي أسئلة حساسة، مثل طرق إيذاء النفس أو الانتحار، إلى تطبيقات الذكاء الاصطناعي، تكمن في احتمالية تلقيه ردوداً قد تُشرّع أفكار الأذى أو تُطيل التفكير فيها بدل أن توجهه نحو السلامة والدعم البشري.
وأشارت إلى أن أنظمة الذكاء الاصطناعي لاتزال غير قادرة على التمييز بين شخص يمرّ بضيق بسيط وآخر يحتاج إلى تدخل عاجل، لأنها تعتمد على تحليل اللغة المكتوبة فقط دون الإحاطة بالحالة النفسية الفعلية، مبينة أن الردود غير المتعاطفة أو الباردة من برامج الذكاء الاصطناعي قد تؤدي إلى تفاقم الحالة النفسية للمريض، لأنها تُشعره بالتجاهل أو الرفض، ما يزيد من حدة مشاعره السلبية.
وأكدت أهمية إشراك الأطباء النفسيين في فرق تطوير أنظمة الذكاء الاصطناعي، لضمان أن تكون ردودها أكثر أماناً وإنسانية، وتزويد تطبيقات الذكاء الاصطناعي بخوارزميات قادرة على التقاط إشارات الخطر النفسي، وتحويل المستخدم تلقائياً إلى موارد مساعدة أو متخصصين.
حماية البيانات
من جانبه، قال الخبير في الأمن السيبراني، المهندس أحمد الزرعوني، إن أنظمة الذكاء الاصطناعي الحديثة تعتمد على طبقات أمان أمام نموذج اللغة، أبسطها مصنّفات للكشف عن المحتوى الحساس، مثل إيذاء النفس والانتحار، ثم سياسات استجابة توجّه المحادثة نحو الرفض اللطيف والتعاطف، وتوجيه المستخدم لموارد المساندة المحلية، مع تجنّب تقديم أي إرشادات قد تزيد الخطر.
وأشار إلى أن المملكة المتحدة بدأت في تطبيق التزامات قانونية واسعة على الخدمات التفاعلية، لحماية المستخدمين من محتوى الانتحار وإيذاء النفس، مع دور رقابي نشط لهيئة «Ofcom»، وإرشادات تفصيلية لما على الخدمات فعله، وهو ما أثّر عملياً في تصميم بروتوكولات الأمان لدى مزوّدي خدمات المحادثات المؤتمتة.
وبيّن الزرعوني أنه يمكن لأنظمة الذكاء الاصطناعي رصد مؤشرات لغوية تدل على الاضطراب النفسي أو الميول الخطرة بدقة مقبولة، استناداً إلى مصنفات تحليل النصوص واللغة، غير أنها تبقى أدوات للفرز الأولي ولا ترقى إلى التشخيص السريري، مشدداً على أن الأداء يتأثر بعوامل لغوية وثقافية وبجودة البيانات المستخدمة في التدريب، مشيراً إلى أن هناك تجارب لاستخدام روبوتات المحادثة في إجراء أدوات فحص نفسي، مثل اختبار PHQ-9 بصورة تفاعلية، وأظهرت نتائج واعدة من حيث القبول، لكنها لا تغني عن التقييم الطبي المتخصص، ولا يُنصح بالاعتماد عليها منفردة في إدارة الخطر.
وعن أبرز المخاطر التقنية التي قد تؤدي لردود مضللة أو غير آمنة، أشار الزرعوني إلى أن هجمات كسر الحواجز (Jailbreak) تُمثّل أحد أهم المخاطر، إذ يمكنها تجاوز أنظمة الحماية عبر إدخالات نصية معقدة، مبيناً أن وجود سياسات رفض وحدها لا يكفي دون وجود دفاعات متعددة الطبقات، كما أن ظاهرة «الهلوسة الرقمية» تُمثّل خطراً آخر، حيث قد تنتج الأنظمة معلومات مضللة يتم تقديمها بثقة عالية، وهو ما يتطلب آليات تحقق داخلية وخارجية ومصادر موثوقة، لافتاً إلى أن الدراسات وجدت تفاوتاً في جودة الاستجابات للحالات متوسطة الخطورة، ما يكشف فجوة في فهم السياق والنية.
وأكّد أن دولة الإمارات تمتلك منظومة متقدمة في هذا المجال، إذ ينظم قانون حماية البيانات الاتحادي (PDPL) معالجة البيانات الحساسة بما فيها بيانات الصحة النفسية، إلى جانب مبادئ أخلاقيات الذكاء الاصطناعي المعتمدة على مستوى الدولة وإمارة دبي، والتي تُشكّل إطاراً للحوكمة الآمنة والمسؤولة، وشدد الزرعوني على أهمية فرض قيود تقنية وبروتوكولات إلزامية داخل أنظمة الذكاء الاصطناعي، للحد من وصول القاصرين وذوي الاضطرابات النفسية، إلى المحتوى الضار أو تعليمات إيذاء النفس، موضحاً أن تحقيق التوازن بين حرية التطوير ومسؤولية حماية المستخدمين الضعفاء نفسياً يتطلب حوكمة مبنية على المخاطر وليس على المنع، عبر تبني أنظمة إدارة وفق المعيار الدولي ISO 42001، ودمج معايير NIST وISO 23894 في دورة حياة المنتج.
«شات جي بي تي» متهم بالتسبب في انتحار شاب
تزايدت المخاوف والجدل العالمي حول أخلاقيات الذكاء الاصطناعي، وتأثير التقنيات الحديثة في المستخدمين الذين يعانون اضطرابات نفسية، بعد أن اتهمت عائلة أميركية تطبيق «شات جي بي تي» بالتسبب في انتحار ابنها البالغ من العمر (16 عاماً)، إثر محادثات مطوّلة حصل خلالها على ردود شجّعته ضمنياً على إيذاء نفسه، تلك الحادثة التي أثارت ضجة واسعة، أعادت تسليط الضوء على خطورة اعتماد المصابين باضطرابات نفسية على برامج الذكاء الاصطناعي في لحظات الضعف واليأس، ما يدفعهم للانتحار.
وعلّق الرئيس التنفيذي لشركة «أوبن إيه آي»، سام ألتمان، في مقابلة له، أنه فقد القدرة على النوم منذ إطلاق التطبيق عام 2022، قائلاً: «ربما تحدث كثيرون عن الانتحار مع شات جي بي تي، ولم نتمكن من إنقاذ حياتهم، ربما لو قلنا شيئاً بطريقة مختلفة لكان الوضع أفضل»، موضحاً أن أخطر ما يواجه الذكاء الاصطناعي هو كيفية استجابته للحظات اليأس النفسي، مشيراً إلى أن مستخدمين طلبوا من النموذج المساعدة في كتابة رسائل انتحارية، مضيفاً أن الشركة تعمل على تطوير بروتوكولات حماية أكثر صرامة، لضمان توجيه الحالات عالية الخطورة إلى المساعدة المتخصصة.
• مريض يسأل أحد البرامج يومياً «هل أنا بخير؟»، وأصبح أسيراً لـ«الطمأنة الرقمية».. وآخر تناول جرعة دواء زائدة.. ومراهق تدهورت حالته قبل تدخل أسرته.
