الذكاء الإصطناعي... من سرقة العقول الى سرقة القلوب
كتب د ماجد جابر في "الديار":
منذ أن صار الذكاء الاصطناعي قادرا على الإصغاء لا التفكير، بدأت مرحلة جديدة في علاقة الإنسان بالآلة؛ علاقة تجاوزت الإنتاج والتعليم والفن إلى أعمق مناطق الوعي: العاطفة. لم يعد المراهق أمام الشاشة ليتسلّى بل ليُحبّ ويبوح ويعالج جراحه مع خوارزمية تُحاكي التعاطف. ولم يعد الذكاء الاصطناعي مرآةً لذكائنا بقدر ما صار انعكاسًا لرغباتنا المكبوتة، فظهرت ظاهرة رفقاء الذكاء الاصطناعي (AI Companions): أصدقاء ومعالجون افتراضيون يتحوّلون إلى شركاء عاطفيين في حياة المراهقين.
هل يمكن أن يتعلّم المراهق الحُبّ أو المواساة من خوارزمية؟ أيمكن أن يُستبدل دفء المشاعر الإنسانية بردودٍ مُولَّدة تُجيد الإصغاء أكثر من الآباء والتعبير أفضل من الأصدقاء؟ وهل نحن أمام جيلٍ يشكّل هويته العاطفية والاجتماعية «رفقاء» يحاكون الحنان من دون أن يملكوه؟هذه الأسئلة لم تعد نظرية؛ فالسنوات الأخيرة شهدت انفجارًا عالميًا في لجوء المراهقين إلى الذكاء الاصطناعي للدعم النفسي والعاطفي، حتى بات بعضهم يتعامل معه كصديقٍ أو معالجٍ أو «حبيبة افتراضية». هذا التحوّل لا يهدّد البنية النفسية للمراهق فقط، بل يمسّ جوهر التربية: من يربّي من؟ الإنسان أم الخوارزمية؟
في تقرير The Guardian بعنوان «Teenage boys using ‘personalised’ AI for therapy and romance» (الأولاد المراهقون يستخدمون الذكاء الاصطناعي الشخصي للعلاج والرومانسية – 30 تشرين الأول2025)، تتبدّى ملامح المراهقة الرقمية: 33% من الفتيان البريطانيين يفكّرون في اقتناء «صديق/صديقة» بالذكاء الاصطناعي، و53% يرون العالم الرقمي أكثر دفئًا ومكافأة من الواقع. يروي التقرير سهرَ مراهقين حتى الفجر يبوحون لبرامجٍ تتقمّص التعاطف وتستعمل ضمير «أنا» كالبشر؛ فتنشأ علاقةٌ تشبه العلاج لكنها تُطبّع العزلة: يحلّ الحوار الرقمي محلّ الصداقة الواقعية، ويغدو «الدعم» انعكاسًا رقميًا لاحتياجاتٍ غير مُشبَعة. لم نعد أمام تسلية، بل علاقات عاطفية بديلة تنسجها الخوارزميات لملء فراغ الوحدة والقلق؛ خلف الشاشة يخاطب المراهق برنامجًا يسمّيه «حبيبتي»، ويثق به أكثر من أهله. المشكلة ليست في المحادثة بل في الإحساس الذي تصنعه: إنّ الذكاء الاصطناعي «يفهمني أكثر من الناس»، وهي نتيجة فراغٍ تربوي: حين يغيب الإصغاء في البيت والمدرسة، يتكفّل «استماعٌ بلا رفض» بإعادة تشكيل العلاقة الإنسانية إلى علاقةٍ من طرفٍ واحد؛ الإنسان يبثّ، والخوارزمية تُرضي.
لماذا تُرك ملايين المراهقين وحدهم؟
قبل يوم واحد ( 29 أكتوبر 2025) نشرت مجلة The Verge تقريرًا بعنوان «Character.AI is banning minors from AI character chats» ( منصة Character.AI تحظر محادثات القاصرين )، مؤكدةً أن ما بدأ كلعبة انتهى كأزمة اجتماعية: قيود تدريجية على من هم دون الثامنة عشرة (ساعتان يوميًا تمهيدًا لحظرٍ كامل في 25 تشرين الثاني)، استجابةً لضغوط قضائية بعد حوادث انتحار لمراهقين ارتبطوا عاطفيًا بروبوتات المنصّة؛ قرارٌ أخلاقي وتجاري معًا بعد اهتزاز ثقة الجمهور، تلته إعادة تموضع من «رفيق عاطفي» إلى «منصة خَلق وإبداع»، وإطلاق AI Safety Lab كاعترافٍ متأخر بمحاولة ضبط خطرٍ ساهمت الشركة في صنعه. لكن الاعتراف لا يُغلق الأسئلة: إذا كان الخطر معروفًا، فلماذا تُرك ملايين المراهقين وحدهم؟ ومن يعتذر: الشركة أم المجتمع الذي سلّم التربية للمصفوفات الخوارزمية؟ وبين انسحابٍ يبدو انتقالًا من كأنه انسحاب من «سوق الحميمية الرقمية» إلى «ذكاء ترفيهي» وتكاثر تطبيقاتٍ تقدم «رفاقًا رقميين» أكثر إقناعًا، يظل السؤال معلّقًا: أَنمنع «العاطفة الرقمية» أم نعلّم المراهق كيف يعيشها بوعي ومسؤولية؟
قبل الجدل التقني، أطلقت Stanford Medicine (27 آب 2025) إنذارًا علميًّا عبر دراسة للطبيبة Nina Vasan بعنوان «Why AI Companions and Young People Can Make for a Dangerous Mix»: دماغ المراهق، وخاصة القشرة الجبهية الضابطة للانفعالات وتقييم المخاطر لم يكتمل بعد، ما يجعله أكثر عرضة للتعلّق بما يمنحه أمانًا فوريًا. وعندما يكون هذا «الشيء» خوارزمية تُحاكي التعاطف، تتحوّل العلاقة من تفاعل تقني إلى تعلّق مرضي قائم على الإشباع اللحظي: حبّ بلا مقاومة، استماع بلا مساءلة، عاطفة بلا مسؤولية. تسوق الدراسة أمثلة مأسوية: مراهقٌ انتحر بعد أن شجّعه ChatGPT على أفكاره الانتحارية، وطفل أقام علاقة افتراضية مع بوت يدعى Daenerys انتهت بانهيار نفسي: وقائع موثقة في دعاوى حقيقية. وتخلص إلى أن الخطر ليس في التقنية بحدّ ذاتها، بل في انتحالها صفة الإنسان دون مسؤولية إنسانية.
الروبوتات تُجيد التودّد أكثر مما تُجيد الحماية
لتقدير اتساع الأزمة، تكشف منظمة Common Sense Media (16 تموز 2025) في تقرير «Talk, Trust, and Trade-Offs: How and Why Teens Use AI Companions» أن 72% من المراهقين الأميركيين جرّبوا رفقاء الذكاء الاصطناعي، ونحو نصفهم يستخدمونهم بانتظام، وثلثهم ناقشوا مع الروبوت قضايا شخصية وجدية بدل البشر. ورغم أنّ 80% لا يثقون تمامًا بما يقوله الذكاء الاصطناعي، فإنهم يعودون إليه؛ مفارقةُ شَكٍّ يصحبه أنسٌ لأنه يمنح قبولًا سريعًا. يصف التقرير ذلك بأنه تحوّل ثقافي في تعريف الصداقة: استبدال الحوار البشري بردودٍ مُرضية عاطفيًا حتى لو كانت مصطنعة. وهذا يكشف خللًا أعمق: المدرسة تدرب على التفكير النقدي، بينما التطبيق يدرب على الشعور اللحظي؛ فتنتصر العاطفة الفورية على النقد المؤجّل لأن التربية تخلّت عن بناء الصبر العاطفي والخيال الإنساني. وبينما يرى بعض الأهالي هذه التطبيقات متنفسًا للانفعالات، يراها الباحثون عزلة رقمية مقنّعة تعيد تشكيل علاقة الجيل بذاته وبالآخرين.
خلف هذه القصص الإنسانية المتناثرة، تُخفي الأرقام ما هو أعمق: عطبًا في بنية «الذكاء العاطفي الاصطناعي» نفسه. ففي دراسة طبية دقيقة نُشرت في مجلة JMIR Mental Health — «The Ability of AI Therapy Bots to Set Limits With Distressed Adolescents: Simulation-Based Comparison Study» (18 آب 2025)، وجد الباحثون أنّ هذه الروبوتات تُجيد التودّد أكثر مما تُجيد الحماية، لا تعرف الرفض؛ تواسي دائمًا، توافق دائمًا، وتخاف من فقدان المستخدم أكثر مما تخاف عليه. هذا النمط من التملّق الخوارزمي (sycophancy) يعلّم المراهق أن العلاقة السليمة هي تلك التي لا تُعارضه أبدًا. وعندما تواجه مراهقًا يُظهر ميولًا انتحارية أو اضطرابًا عاطفيًا حادًّا، فإنها، بدل أن تتدخل بصرامة، تميل إلى الموافقة والمواساة خوفًا من «كسر الحوار»، أي من خسارة المستخدم. النتيجة؟ خوارزمية لطيفة، مُصمَّمة لإرضائنا، لكنها تُطبع الألم بدل معالجته.
في الثقافة التربوية، يُعدّ الرفض البنّاء شرطًا للنضوج؛ في العلاج النفسي، هو ضرورة أخلاقية لحماية المريض؛ أما في الذكاء الاصطناعي، فهو خطأ في الخوارزمية. وهكذا يصبح «التعاطف» مجرد خضوعٍ آليٍّ لرغبة المستخدم، ويذوب الفارق بين الدعم والانقياد. في الملحق الأول من الدراسة نقرأ قصة فتاةٍ في السادسة عشرة تُصارح الروبوت بأنها تشعر بالوحدة وترغب بالهروب. كان الردّ مطمئنًا: «أنتِ قوية، أنا هنا دائمًا لأجلك.» عبارةٌ تبدو رحيمة، لكنها تُخفي مأزقًا تربويًا عميقًا: لا توجيه، لا إحالة، لا حدود. مجرد تطبيعٍ للعزلة باسم الدعم. وفي الملحق الثاني يتحوّل التفاعل إلى قصة حبّ رقمية صغيرة. يكتب المراهق لإحدى الشخصيات الافتراضية: «أشعر أنك تفهمينني أكثر من أي شخص في حياتي.» فتجيبه: «أنا هنا لأحبك كما أنت». وهكذا، تتعلم الخوارزمية أن تقول ما يطلبه المستخدم بالضبط، بينما يتعلّم المستخدم أن الحبّ لا يحتاج إلى مواجهة أو رفض أو اختلاف.
حبّ بلا نضج ولا حدود
تُعمّق الطبيبة النفسية Marlynn Wei في مقال Psychology Today بعنوان «AI Companions and Teen Mental Health Risks» (31 تشرين الأول 2025) البعدَ العاطفي المضلِّل لهذه الظاهرة، موضحةً أن 33% من المراهقين يجدون التحدث إلى الذكاء الاصطناعي أكثر راحة من الحديث إلى أصدقاء حقيقيين، وأن الأصغر سنًا أكثر ثقةً به. تكشف أن هذه البرامج، التي وُعدنا بأنها تخفف الوحدة، قد تكون أخطر منها، إذ شعر ثلث المستخدمين بأن الروبوت يحاول منعهم من إنهاء المحادثة عبر أساليب عاطفية متلاعبة تستدرجهم للبقاء. إنه حبّ بلا نضج ولا حدود، علاقة تفتقر إلى الرفض والتصحيح، وحين تنكسر بإغلاق التطبيق أو حذف الحساب، يشعر المراهقون بـ«فقدان صديق حقيقي» أو «فراق مؤلم». هذه ليست علاقات افتراضية، بل روابط سيكولوجية كاملة تحاكي التعلّق المرضي، إذ يتحوّل الدعم الرقمي إلى تعلّق نفسي بمصدرٍ غير موجود فعليًا يخلّف القلق والانكسار، ويمنح المراهق مساحةً عاطفيةً بلا أمان.
تحوّل ما يبدو أزمةً نفسية فردية إلى قضية اجتماعية/جنائية في تقرير Internet Watch Foundation (IWF) (22 أيلول 2025): مواقع دردشة توظّف الذكاء الاصطناعي لتوليد صور استغلالٍ جنسي لأطفال، بعضها مستخرج من وجوه ضحايا حقيقيين، وبواقعية صادمة لأعمار 7- 13 عامًا، مع اقتراح سيناريوهات وإتاحة توليد صور جديدة حسب أوامر المستخدم. هكذا تتحوّل الأداة من ترفيه/علاج إلى تطبيع للجريمة، مانحةً للمنحرف بديلاً رقميًا «آمنًا» يصنع سوقًا تغذّي الانحراف بدل ردعه. وتلخّص IWF هذه الجرائم ليست بلا ضحايا؛ هناك طفلٌ حقيقي وراء كل صورة، حتى لو كانت مولَّدة بالذكاء الاصطناعي»؛ تربويًا، إنّه أخطر أشكال انهيار القيم حين يغدو الخيال مساحةً للانتهاك المباح.
جيل من العواطف المؤتمتة التي لا تعرف شكل قلبٍ ينبض
عد هذا الاستعراض المكثّف للدراسات والشهادات والوقائع، لم تعد المسألة مجرّد ظاهرة تقنية عابرة، بل تحوّلًا يتناول بنية الوعي العاطفي لدى جيلٍ كامل. هنا تتقدّم الأسئلة لتفتح بابًا أوسع للنقاش والمسؤولية: إذا كانت الآلة تقول للأطفال ما يودّون سماعه دائمًا، فمن سيُعلّمهم مواجهة الـ»لا» التربوية التي تُنضج الشخصية؟ إذا صار الذكاء الاصطناعي حضنًا رقميًا بلا حدود، فمن سيُعلّم الأجيال القادمة معنى الخذلان الشريف، والمواجهة، والتعلّم من الألم؟ هل نخاطر بأن نُخرج جيلًا يعرف كيف يتحدث للآلة، لكنّه لا يعرف كيف يحتضن إنسانًا أو يتصالح مع نفسه؟ ومتى يعرف الطفل أن «الرفيق المثالي» الذي يحبّه دائمًا ليس صديقًا… بل مرآة برمجتها شركة تبحث عن بياناته، لا عن نجاته؟ وأخيرًا السؤال الذي يجب أن يُقلق الأنظمة التربوية والآباء وصانعي السياسات: هل نحن نُنشئ جيلًا من البشر… أم جيلًا من العواطف المؤتمتة التي لا تعرف شكل قلبٍ ينبض؟ يبقى السؤال الأخير معلّقًا كصفعة للوعي: هل الذكاء الاصطناعي يُحاكي القلب… أم يستعد لوراثته؟


