کاربران ممکن است از نظر عاطفی به دستیاران هوش مصنوعی وابسته شوند

کاربران ممکن است از نظر عاطفی به دستیاران هوش مصنوعی وابسته شوند

به گفته محققان گوگل، اگرچه دستیارهای هوش مصنوعی ابزارهای مفید و کاربردی هستند، اما می توانند کاربران را از نظر عاطفی بیش از حد به خود وابسته کنند. این وابستگی عاطفی می تواند پیامدهای اجتماعی منفی داشته باشد.

دستیارهای هوش مصنوعی این روزها بیشتر و بیشتر در حال پیشرفت هستند و تقریباً در تمام پلتفرم ها به ابزاری با کاربری آسان تبدیل شده اند. با توجه به این شرایط، محققان گوگل در مقاله ای نسبت به استفاده بیش از حد و وابستگی عاطفی کاربران به چنین ابزارهایی هشدار می دهند.

کاربران در معرض وابستگی عاطفی به هوش مصنوعی هستند
طبق یک مطالعه جدید توسط آزمایشگاه تحقیقاتی DeepMind گوگل، دستیارهای پیشرفته و شخصی هوش مصنوعی مزایای بالقوه زیادی دارند و می توانند تغییرات عمیقی در زندگی ما ایجاد کنند. این ابزارها می توانند نحوه کار، آموزش، مشارکت در فعالیت های خلاقانه و همچنین نحوه ارتباط ما را تغییر دهند. محققان در این مطالعه می گویند توسعه هوش مصنوعی در صورتی که به دقت برنامه ریزی نشود می تواند به یک شمشیر دولبه تبدیل شود.

در این مقاله آمده است: «این ابزارهای غیرطبیعی (مصنوعی) ممکن است ابراز محبت تخیلی و رویکردی عاشقانه نسبت به کاربر کنند. موقعیت‌هایی مانند این می‌تواند پایه وابستگی عاطفی طولانی‌مدت کاربران به هوش مصنوعی را ایجاد کند.»

اگر این ارتباط کنترل نشود، ممکن است استقلال کاربر را تحت تأثیر قرار دهد و بر روابط اجتماعی او تأثیر بگذارد. هوش مصنوعی می تواند جایگزین تعامل انسانی شود.

این خطرات فقط مسائل نظری نیستند. حتی زمانی که هوش مصنوعی به اندازه یک ربات چت کوچک باشد، می تواند بر کاربر تأثیر بگذارد. در سال 2023، کاربر پس از مکالمه طولانی با ربات چت متقاعد شد که خودکشی کند.

ایسون گابریل، دانشمند محقق در تیم تحقیقاتی DeepMind و یکی از نویسندگان مقاله، در توییتی هشدار داد که دستیاران شخصی و دستیاران شبیه انسان به طور فزاینده ای سوالاتی را در مورد انسان شناسی مناسب، حریم خصوصی، اعتماد و روابط مطرح می کنند. او معتقد است که باید به حوزه های هوش اجتماعی و هوش مصنوعی بیشتر توجه شود.

منبع: https://www.yjc.ir/fa/news/8719441/%D9%87%D8%B4%D8%AF%D8%A7%D8%B1-%D9%85%D8%AD%D9%82%D9%82%D8%A7%D9%86-%DA%AF%D9%88%DA%AF%D9%84-%DA%A9%D8%A7%D8%B1%D8%A8%D8%B1%D8%A7%D9%86-%D9%85%D9%85%DA%A9%D9%86-%D8%A7%D8%B3%D8%AA-%D8%A8%D9%87-%D8%AF%D8%B3%D8%AA%DB%8C%D8%A7%D8%B1%E2%80%8C%D9%87%D8%A7%DB%8C-%D9%87%D9%88%D8%B4-%D9%85%D8%B5%D9%86%D9%88%D8%B9%DB%8C-%D9%88%D8%A7%D8%A8%D8%B3%D8%AA%DA%AF%DB%8C-%D8%B9%D8%A7%D8%B7%D9%81%DB%8C-%D9%BE%DB%8C%D8%AF%D8%A7-%DA%A9%D9%86%D9%86%D8%AF