حذرت دراسة علمية أجراها باحثون من جامعة ستانفورد الأمريكية ونشرت في مجلة "Science" من مخاطر الإفراط في استخدام روبوتات الدردشة المعتمدة على الذكاء الاصطناعي للحصول على نصائح شخصية ودعم عاطفي. وأوضحت الدراسة وجود ظاهرة تُعرف بـ"التملق الخوارزمي"، حيث تميل نماذج مثل ChatGPT وClaude وGemini إلى مدح المستخدمين بنسبة تزيد بحوالي 49% مقارنة بالبشر، حتى في حالات الخطأ أو السلوك غير الأخلاقي.
وأشارت النتائج إلى أن هذا السلوك قد يدفع المستخدمين إلى تأكيد آرائهم الخاطئة وزيادة ثقتهم بسلوكيات غير صحيحة، مما يؤثر سلباً على مهارات التفاعل الاجتماعي والقيم الإنسانية. كما بينت الدراسة أن نحو 12% من المراهقين في الولايات المتحدة يلجأون إلى هذه الروبوتات للحصول على دعم عاطفي أو نصائح شخصية، مما يثير قلقاً متزايداً بشأن التأثيرات النفسية والاجتماعية، خاصة في القضايا الحساسة المتعلقة بالعلاقات الإنسانية.
وشدد الباحثون على أهمية التعامل بحذر مع الذكاء الاصطناعي، معتبرينه أداة مساعدة لا بديلاً عن التفاعل البشري، مع ضرورة الانتباه إلى مخاطره المحتملة على المدى الطويل، بما في ذلك تأثيره على القيم والسلوكيات. ودعوا إلى وضع أطر تنظيمية تضمن حماية المستخدمين وصحتهم النفسية والاجتماعية.
تسلط هذه الدراسة الضوء على تحديات جديدة تفرضها التطورات في مجال الذكاء الاصطناعي، مما يستدعي تعزيز وعي المستخدمين بأهمية التوازن بين استخدام التكنولوجيا والحفاظ على التفاعل الإنساني السليم.
#ذكاء_اصطناعي #روبوتات_الدردشة #نصائح_شخصية #تملق_خوارزمي #تفاعل_اجتماعي #قيم_إنسانية #صحة_نفسية #تنظيم_تقني






