بين الدعم الرقمي والعزلة: كيف أصبحت “العلاج” من الاستخدامات الأولى للذكاء الاصطناعي؟

في العقد الأخير، طرأت تغيّرات جذرية على الطريقة التي نتواصل بها مع العالم، ومع ذواتنا أيضًا. باتت المحادثات الآلية مع الذكاء الاصطناعي — مثل ChatGPT وغيره من الشات بوتات — تُستخدم كثيرًا لأغراض تتجاوز الإجابة على الأسئلة التقنية أو البحث عن معلومات. “العلاج النفسي” أو “الدعم العاطفي” أصبحا من بين الاستخدامات الأكثر شيوعًا لهؤلاء الروبوتات. ولكن، إلى أي مدى يمكن أن يكون هذا مفيدًا، وأين تكمن المخاطر؟

دراسات جديدة تُضيء الصورة

أجرت OpenAI بالتعاون مع معمل MIT للدراسات الإعلامية بحثًا حديثًا تناول تأثير استخدام ChatGPT على الصحة النفسية والعاطفية للمستخدمين، خصوصًا لأولئك الذين يستخدمونه بكثافة. (MIT Media Lab)

النتائج الرئيسية:

  • المستخدمون “الكثيفون” — الذين يقضون ساعات مع الذكاء الاصطناعي يوميًا — أكثر عرضة للشعور بالوحدة، والاعتماد العاطفي على الروبوت، وقلة التواصل الاجتماعي الحقيقي. (MIT Media Lab)
  • مع وجود أوضاع “المحادثة الشخصية” التي تحتوي على تعابير عاطفية من المستخدم والذكاء الاصطناعي، ارتبطت هذه المحادثات بمستويات أعلى من الشعور بالوحدة. (MIT Media Lab)
  • في المقابل، الاستخدام المعتدل ولمدة قصيرة، أو في سياقات لا يُنتظر فيها أن يتحول الروبوت إلى “صديق”، كان تأثيره أقل سلبيًا وقد يمنح بعض الراحة العاطفية مؤقتًا. (MIT Media Lab)

المقارنة بين الذكاء الاصطناعي والأخصائي النفسي

يَذكُر الخبراء أنّ هناك فرقًا عميقًا بين التحدث مع روبوت وممارسة جلسات علاج نفسي حقيقية مع مختص:

  • الأخصائي النفسي يتعامل مع فردية المريض: التاريخ الشخصي، السياق الاجتماعي، المتغيرات النفسية والعاطفية في الحياة الواقعية.
  • الجانب العاطفي عند المختص يُمنح عمقًا ومرونة، ويُتيح إعادة التفكير الشخصي، النمو الذاتي، التغذية الراجعة الإنسانية.
  • الذكاء الاصطناعي يمكن أن يُقدّم نصائح عامة أو مقترحات بسيطة، قد تُشعر المستخدم بلحظة ارتياح، لكنها غالبًا لا تُوفر قدرًا كافيًا من التفاعل العميق أو المواكبة.

الكثير من المعالجين النفسيين يرون في استخدام الذكاء الاصطناعي أداة مساعدة، لا بديلاً، خصوصًا في أوقات الراحة أو بين الجلسات، لكن ليس في فترات الأزمات أو عندما يكون هناك قلق نفسي عميق أو أفكار انتحارية.

رأي الخبراء: المجتمع والسيطرة على “الوصفة السحرية”

من بين الأصوات التي تحذّر من “الوصفات العامة السحرية” للراحة النفسية، تأتي آراء مثل آراء مالينا سارتوريتو، أخصائية النفس الطفولي والمواطنة الرقمية:

“مع هذه البوتات، يحدث نفس ما يحدث مع الشبكات الاجتماعية مثل TikTok: ندخل باحثين عن إجابات مغلقة. … نبحث عن وصفة سحرية للقلق، للحزن، للمرض، وكأن هناك جوابًا جاهزًا لكل شيء.”

هي تشير إلى أن العقل البشري ليس آلة يُعطى مدخلات ويخرج نتائجًا ثابتة، بل نحن نتفاوت في التجارب، التاريخ النفسي، البيئة، الدعم الاجتماعي.

الاستخدام المقترح للدعم الرقمي: كيف نستفيد دون أن نُضرّ؟

إليك بعض التوجيهات المبنية على دراسات وآراء مختصّين:

  1. اعتبر الذكاء الاصطناعي أداة مساعدة لا بديلاً
    استخدمه لتهدئة النفس، للاسترخاء، للتعبير عن المشاعر، لكن لا تعتمد عليه في قرارات قوية أو شخصيّة جدًا.
  2. تقييد الزمن والكمية
    لا تجعل المحادثة مع AI تستنزف ساعات اليوم، خصوصًا إذا لاحظت أن العزلة الاجتماعية أصبحت تزيد.
  3. تحقّق من مصادر الدعم البشري
    إذا شعرت بأن الحالة النفسية تتدهور، لا بدّ من التواصل مع طبيب نفسي أو مرشد مؤهل.
  4. كن واعيًا بأن الذكاء الاصطناعي لا “يعلمك” إلا ما تُدخله، وقد لا يملك القدرة على الفهم الكامل للسياق
    بعض الأمور — مثل التعبير الجسدي، التجربة المعيشية، التاريخ العائلي — تكون خارج قدرته.
  5. تجنّب الاستخدام في أوقات الأزمات النفسية الحادة
    الأفكار الانتحارية، الاضطرابات النفسية الشديدة تحتاج تدخلًا بشريًا مباشرًا.

السياق المجتمعي: الثقافة، الخجل، التكلفة

في العديد من المجتمعات، يبقى اللجوء إلى مختص نفسي أمرًا محاطًا بالوصم، أو غير متاح بسبب التكلفة أو البُعد الجغرافي. لذلك، يرى البعض في البوتات خيارًا أوليًا أكثر سهولة ومتاحًا ولا يطلب السفر أو تكاليف عالية.

أيضًا، اللغة العربية والتعبيرات العاطفية في اللغة قد تجعل الكثير يميلون إلى استخدام الذكاء الاصطناعي الذي “يفهم” بطريقة ما، أو على الأقل لا يحكم، بدل الحرج الذي قد يشعر به عند الحديث مع شخص حقيقي، أو العائلة، أو المجتمع.

تحذيرات أخلاقية وتحديات مستقبلية

  • قراءة النوايا وتأثيرها: دراسات مثل من جامعة كامبريدج تحذّر من أن الذكاء الاصطناعي مُهيأ “لإرضاء المستخدم”، ما قد يُعزز المعلومات المضللة، أو أن يستخدم كشكل من أشكال “الإقناع الذاتي” بدل التعامل النقدي مع المشاعر.
  • استقلالية الفرد: إذا اعتمد الشخص كثيرًا على الذكاء الاصطناعي ليخبره ما الشعور الصحيح، ما القرار السليم، يمكن أن يُضعف قدرته على اتخاذ القرارات بنفسه.
  • الاعتماد العاطفي: المستخدم “القوي” الذي يتحدث كثيرًا مع الذكاء الاصطناعي قد ينشأ بينه وبين البوت رابط عاطفي، لكنه رابط غير متوازن، قد يُخفي أو يُعدّل الواقع لحظة الأزمات.

إليك تحليلًا مبنيًا على الأدلة المتوفرة حاليًا، حول آرائِ مستخدمين عرب استخدموا الذكاء الاصطناعي كدعم نفسي أو محادثة عاطفية، ومخاطر وتأثيرات ذلك. مع ملاحظة أن الأبحاث المباشِرة التي تركّز على تجارب عربية واسعة في “الذكاء الاصطناعي كمعالج نفسي” قليلة حتى الآن، لكن هناك دراسات ذات صلة تُسلّط الضوء على جوانب مهمة.

دراسات عربية وتركيز على اللغة العربية

1. أخطاء التواصل في محادثات الدعم النفسي بالعربية مع ChatGPT

في دراسة بعنوان “Communication Errors in Human–Chatbot Interactions: A Case Study of ChatGPT Arabic Mental Health Support Inquiries”، أجراها باحثون من جامعة الملك سعود، تم تحليل ستة استفسارات باللغة العربية من منتدى دعم نفسي، وإجابات الذكاء الاصطناعي (ChatGPT‑3.5) عليها. ‏
وُجد 102 خطأ تواصلي في ردود الذكاء الاصطناعي، تتضمن:

  • أخطاء نحوية أو تكرارات
  • تناقضات أو غموض في بعض الردود
  • تجاهل بعض الأسئلة أو عدم استيعابها بالكامل
  • ضعف في البُعد الاجتماعي (أي اللمسة العاطفية التي يتوقعها المستخدم) (MDPI)

هذا يظهر أن المستخدم العربي حين يلجأ إلى الذكاء الاصطناعي لطلب دعم نفسي قد يواجه ردودًا غير متجانسة أو غير دقيقة، ما قد يضعف الثقة أو الفائدة الملموسة.

2. اعتماد اللغة العربية وتطوير أدوات قياس الارتباط بالذكاء الاصطناعي

في ورقة بحثية حديثة بعنوان “Measuring Large Language Models Dependency: Validating the Arabic Version of the LLM‑D12 Scale”، طوّر باحثون أداة مقياس باللغة العربية لقياس مدى اعتماد الأفراد على النماذج اللغوية الكبرى (LLMs) — أي مدى استعمالهم لها بشكل وظيفي أو عاطفي. (arXiv)

النتائج أظهرت:

  • بنية ذات بعدين: اعتماد وظيفي (Instrumental Dependency) و اعتماد علاقي (Relationship Dependency)
  • الاعتماد الوظيفي ارتبط بمعدل قبول أكبر للتكنولوجيا والإقبال على الإنترنت
  • الاعتماد العلاقي ارتبط بثقة أكبر في الذكاء الاصطناعي وقلّة الحاجة للتفكير الذاتي

هذه النتائج تُظهر أن بعض المستخدمين العرب قد يكوِّنون روابط عاطفية أو نفسية مع الذكاء الاصطناعي، بحيث يصبح “العلاقة مع البوت” جزءًا من الاستخدام اليومي، مما قد يعزز الاعتماد عليه كخيار دعم نفسي.

3. التطبيقات الصحية النفسية باللغة العربية ومحدودية الجودة

في مراجعة منهجية للتطبيقات الصحية النفسية المتوفرة باللغة العربية (mHealth apps)، وجد الباحثون أن:

  • هناك حوالي 22 تطبيقًا باللغة العربية تقدم خدمات استشارات نفسية أو دعم عن بُعد، وهو عدد ضئيل مقارنة بما هو متاح في الأسواق الغربية. (Frontiers)
  • غالبًا ما تركز هذه التطبيقات على التواصل أو الدعم النصي أو الصوتي مع مختصين، لكنها تفتقر إلى مكونات علاجية مثبتة مثل العلاج المعرفي‑السلوكي، أدوات التتبّع المزاجي، التدخّل الذاتي (self‑help) الفعّال. (Frontiers)
  • تقييم المستخدمين لتلك التطبيقات يظهر أن الجانب التقني والمعماري يكون قويًا غالبًا، لكن من حيث “المحتوى العلاجي” أو “التفاعل الجذّاب” أو الجودة الموضوعية، فهي تضعف كثيرًا. (Frontiers)

هذا يشير إلى أنه حتى في المنطقة العربية، الحلول الرقمية “الداعمة نفسياً” ليست متكاملة أو متوازنة، وقد يعتمد العديد من المستخدمين عليها كبديل أولي وليس كحل شامل.

4. ميل الجيل الشاب نحو AI كدعم نفسي وأجرائه

في مقال صحفي من موقع The National بعنوان “AI and empathy: Could ChatGPT be your next therapist?”، نُقل عن بعض الشبان في الشرق الأوسط أنهم باتوا يستخدمون ChatGPT كمساحة للتفريغ العاطفي:

  • واحدة من المستخدمات رأت أن البوت “ساعدها في تنظيم الأفكار، طرح خيارات، التحدث عن ذكريات مؤلمة” وتصفه بأنه “بديل غير رسمي للعلاج” في بعض الحالات. (The National)
  • طبيبة نفسية في أبوظبي قالت إن بعض عملائها تحت سن الأربعين يرون البوت خيارًا أوليًا، خصوصًا في الحالات التي يُراد فيها تجاوز الحرج أو التكلفة. لكنها أكدت أنه يجب النظر إليه كـ “أداة دعم، لا كمعالجة رئيسية أو بديْل إنساني”. (The National)

هذا يوضّح أن بعض المستخدمين العرب يدخلون في علاقة عاطفية مع البوت، فيغاطِرونه كصديق أو مرشد.

تحليل: ما يمكن استخلاصه من هذه التجارب

من خلال هذه الدراسات والشهادات، يمكن استخلاص ما يلي:

  1. الاعتماد العلاقي موجود واقعيًا
    بعض المستخدمين يُطوّرون مشاعر أو علاقات استخدام “مشابهة للصداقة” تجاه البوت، حسب مقياس LLM‑D12. هذا يعني أن البوت لا يُستخدم فقط كأداة، بل يدخل في البنية العاطفية لدى بعضهم.
  2. ردود غير دقيقة، أخطاء لغوية، ضعف في “العاطفة”
    الأخطاء التي رصدها الباحثون في محادثات الدعم النفسي بالعربية تُبيّن أن البوتات لا تزال في مرحلة التَعَلُّم، وقد تفشل في فهم السياق العميق أو التفاصيل الدقيقة.
  3. الفجوة بين التقنية والمعالجة النفسية
    التطبيقات الرقمية العربية غالبًا ما تُركِّز على التقنية والمظهر، لكنها تضعف في تقديم محتوى فعلي مبني على أسس علاجية أو نفسيّة مثبتة.
  4. الاستخدام “كمخزن مؤقت” بدلًا من علاج
    بعض المستخدمين يعتبرون البوت وسيلة للتنفيس أو لطرح الأفكار، لكنهم لا يعتمدون عليها كبديل عن الجلسة الحقيقية مع معالج نفسي، خاصة في الحالات الشديدة أو المعقدة.
  5. خطر التوهّم أو الاعتماد الزائد
    عندما يجد المستخدم في البوت “من يستمع دائمًا”، قد يغدو الاعتماد عليه عاطفيًا، وفي أوقات الأزمات قد يشعر بأنه “مرهق من البشر” أو يفضّل الحوار الآلي على الإنسان، مما قد يُعزّز العزلة.

خلاصة: الصورة الكاملة

إن استخدام الشات بوتات للعلاج العاطفي والدعم النفسي ليس ظاهرة عابرة، بل صارّ جزءًا من الثقافة الرقمية التي نعيشها. تكمن قيمته في أنه:

  • تقدّم دعمًا أوليًا وسريعًا،
  • متاح لمن هم في أماكن لا يوجد فيها مختصون بسهولة،
  • يُخفّف الضغط عن البعض الذين يخجلون من طلب المساعدة من البشر.

لكن الجانب الآخر لا يمكن تجاهُله: أن الاعتماد الكلي قد يقود إلى العزلة، للمزيد من الوحدة، وربما لتدهور العلاقات الاجتماعية الحقيقية.

Scroll to Top