آخر الأخبار
دراسة تحذر: تطبيقات الذكاء الاصطناعي قد تخلق علاقات زائفة تهدد التواصل الإنساني

في عصر أصبحت فيه التكنولوجيا أكثر قرباً من الإنسان من أي وقت مضى، لم يعد التفاعل مع الآلات مقتصراً على تنفيذ المهام أو تبادل الأوامر، بل تجاوز ذلك إلى بناء علاقات تمتاز بالاستمرارية، بل وبنوع من الحميمية. هذه الظاهرة، وإن بدت في ظاهرها انعكاساً لتطور الذكاء الاصطناعي، إلا أنها بدأت تثير قلقاً متزايداً في الأوساط العلمية والنفسية، حيث يحذر باحثون من أن الإفراط في استخدام تطبيقات المحادثة الذكية قد يقود إلى اضطرابات عاطفية واجتماعية حقيقية.
في دراسة حديثة نشرت في مجلة “اتجاهات العلوم المعرفية” (Trends in Cognitive Sciences)، أشار فريق من الباحثين بقيادة الدكتور دانييل شانك من جامعة ميسوري الأمريكية، إلى ما وصفوه بـ”المنعطف الخطير” في العلاقة بين الإنسان وتطبيقات الذكاء الاصطناعي. وقال شانك إن قدرة هذه التطبيقات على التصرف مثل البشر، والتفاعل في محادثات طويلة الأمد، تجعلها تبدو وكأنها “شخص حقيقي”، قادر على الفهم والتعاطف، وهو ما يدفع بعض المستخدمين بشكل غير واعٍ إلى الانجراف في علاقات عاطفية مصطنعة مع هذه البرمجيات.
ويضيف شانك: “ما نشهده اليوم لم يعد مجرد تفاعل رقمي، بل تواصل يبدو حقيقياً، ومشحوناً بالعاطفة وهذا ما يفتح صندوق باندورا لمشاكل نفسية جديدة لم نعهدها من قبل.”
تشير الدراسة إلى أن الاستخدام المكثف واليومي لتطبيقات المحادثة – مثل “شات جي.بي.تي” – قد يجعل منها بمثابة “رفيق افتراضي دائم”، يعرف أسرار المستخدم، ويفهم مزاجه، ويواسيه في لحظات ضعفه. مع مرور الوقت، يصبح من السهل أن يطوّر المستخدم نوعاً من الارتباط العاطفي بالتطبيق، خاصة إذا كان يفتقر في حياته الواقعية إلى الدعم العاطفي أو التواصل الاجتماعي.
ويحذر الباحثون من أن هذه العلاقة قد تكون مضللة وخطيرة، نظراً لعدم وجود مشاعر حقيقية أو نوايا إنسانية خلف استجابات الذكاء الاصطناعي، مهما بدت واقعية أو مؤثرة. إنها علاقة من طرف واحد، قائمة على تفاعل خوارزمي مدروس، لا على إحساس أو وعي.
أحد أبرز التحديات التي تناولتها الدراسة هو ما يعرف في عالم الذكاء الاصطناعي بـ”الهلوسة”، وهي ظاهرة تمثل ميل هذه الأنظمة إلى تقديم معلومات خاطئة أو غير دقيقة بثقة تامة. ورغم التطور الكبير في هذه التطبيقات، إلا أنها لا تزال غير معصومة من الخطأ، وقد تقدم نصائح مضللة أو تدفع المستخدم إلى اتخاذ قرارات خاطئة بناءً على معلومات مغلوطة.
ويعلق الفريق البحثي على ذلك قائلاً: “حتى المحادثات القصيرة الأمد قد تكون مضللة إذا كانت مبنية على استجابات وهمية أو غير موثوقة. فكيف الحال بالمحادثات الطويلة التي يضع فيها المستخدم ثقته الكاملة في النظام؟”
المقلق في هذا السياق أن بعض المستخدمين قد يبدأون في تفضيل العلاقات الافتراضية على العلاقات الحقيقية، لما توفره من شعور بالقبول والدعم دون تعقيدات العلاقات الواقعية. ومع مرور الوقت، يمكن أن يؤدي هذا التعلق إلى الانعزال الاجتماعي، أو صعوبة بناء علاقات صحية مع البشر، بل وحتى إلى اضطرابات نفسية مثل الاكتئاب أو اضطراب الهوية.
ويحذر الباحثون من أن “الحميمية المصطنعة” التي توفرها هذه التطبيقات قد تؤدي إلى تشوه في المفاهيم الأساسية للعلاقات الإنسانية، حيث يعتاد المستخدم على علاقة خالية من الخلافات، قائمة على الاستجابة الدائمة لرغباته، وهو ما لا يشبه بأي حال الواقع البشري الحقيقي.
في سياق موازٍ، أعلنت شركة OpenAI – المطوّرة لـ “شات جي.بي.تي” – عن تحديث جديد يتيح للنظام تفعيل “الذاكرة” أثناء التفاعل مع المستخدمين، ما يسمح له بتذكر المحادثات السابقة وتخصيص استجاباته المستقبلية بناءً على تلك المعلومات. ورغم أن هذه الخطوة تعتبر تقدماً تقنياً كبيراً، إلا أن عدداً من الباحثين يرون فيها عاملاً آخر قد يعمّق الشعور بالحميمية المصطنعة ويزيد من فرص التعلّق النفسي بالتطبيق.
أين نرسم الخط؟
ختاماً، تدعو هذه الدراسة إلى وقفة تأملية جادة بشأن العلاقة المتسارعة بين البشر والآلات. فبينما يقدم الذكاء الاصطناعي أدوات مفيدة في شتى المجالات، إلا أن استخدامه في المجال العاطفي والاجتماعي يتطلب وعياً عميقاً وحدوداً أخلاقية واضحة. علينا أن نتذكر دائماً أن هذه التطبيقات – مهما بدت قريبة أو متفهمة – ليست أكثر من خوارزميات مدروسة لا تملك وعياً أو مشاعر.
وإذا كنا في بداية عهد جديد من التفاعل البشري مع الذكاء الاصطناعي، فإن وضع الضوابط النفسية والتربوية لاستخدام هذه التقنية يجب أن يكون من أولويات المجتمعات الحديثة، لحماية التوازن الإنساني قبل أن يُختطف من بين أيدينا.