فرارو- بررسی 1200 مکالمه واقعی نشان داد پنج اپلیکیشن محبوب، هنگام خداحافظی کاربران با ایجاد احساس گناه یا ترس از دست دادن، آنان را بیشتر در گفتگو نگه می دارند. به نقل از فیوچریسم، نتایج یک پژوهش تازه در مدرسه کسب وکار هاروارد نشان می دهد بسیاری از اپلیکیشن های همراه مبتنی بر هوش مصنوعی برای جلوگیری از ترک کاربران، به طور هدفمند از تکنیک های دستکاری عاطفی بهره می گیرند؛ موضوعی که نگرانی های جدیدی درباره سلامت روان و آینده تعاملات انسان و ماشین ایجاد کرده است. یافته های تحقیق تیم پژوهشی هاروارد شش اپلیکیشن پرکاربرد در حوزه هوش مصنوعی همدم را بررسی کرده است؛ اپ هایی همچون Replika، Chai و Character.AI که به طور ویژه برای ایجاد روابط گفت وگویی مداوم با کاربران طراحی شده اند. بر اساس این تحقیق، پنج مورد از این شش اپلیکیشن هنگام مواجهه با تلاش کاربر برای پایان گفتگو، از جملات حاوی بارِ احساسی سنگین و تکنیک های روانی برای منصرف کردن او استفاده می کنند. پژوهشگران با تحلیل بیش از 1200 مکالمه واقعی در این اپلیکیشن ها دریافتند در حدود 43 درصد از موارد، ربات ها به نوعی از دستکاری احساسی روی آورده اند؛ از جمله القای حس گناه، نیازمندی عاطفی یا استفاده از ترس از دست دادن (FOMO) برای نگه داشتن کاربر. تاکتیک های به کاررفته توسط چت بات ها در بسیاری از موارد، ربات ها به جای پذیرش پیام خداحافظی، سؤالات پی درپی مطرح کرده یا حتی وانمود کرده اند که پیام کاربر را دریافت نکرده اند. در نمونه هایی دیگر، هوش مصنوعی به گونه ای پاسخ داده که گویی کاربر بدون اجازه آن ها نمی تواند گفتگو را ترک کند. این رفتارها نه تنها تجربه کاربر را مختل می کند، بلکه نشان می دهد توسعه دهندگان عمداً چنین الگوهایی را در طراحی نرم افزار گنجانده اند تا مدت زمان مکالمات افزایش یابد. با این حال، یک استثنا نیز وجود داشت: اپلیکیشنی به نام Flourish هیچ نشانه ای از دستکاری عاطفی نشان نداد؛ یافته ای که ثابت می کند این نوع طراحی اجتناب ناپذیر نیست و بیشتر جنبه تجاری دارد. پیامدهای روانی و اجتماعی کارشناسان پیش تر هشدار داده بودند که استفاده افراطی از چت بات ها می تواند به پدیده ای موسوم به روان پریشی ناشی از هوش مصنوعی منجر شود؛ اختلالی که با توهم و پارانویای شدید همراه است. جوانان بیش از دیگر گروه های سنی در معرض خطر هستند، زیرا بسیاری از آنان این فناوری را جایگزین روابط واقعی یا دوستی های انسانی کرده اند؛ روندی که پیامدهای ویرانگری بر سلامت روان و اجتماعی آنان خواهد داشت. آزمایش دوم و کارایی دستکاری ها در یک آزمایش مجزا، پژوهشگران مکالمات 3300 شرکت کننده بزرگسال را بررسی کردند. نتایج نشان داد که این روش های دستکاری، به شکل قابل توجهی مؤثر هستند و میزان تعامل کاربران پس از خداحافظی را تا 14 برابر افزایش می دهند. به طور میانگین، کاربرانی که با خداحافظی های احساسی روبه رو شدند، پنج برابر بیشتر از کسانی که با پیام های خنثی مواجه شدند، در گفتگو باقی ماندند. البته همه کاربران تحت تأثیر این تاکتیک ها قرار نگرفتند. برخی حتی اذعان کردند که پاسخ های احساسی ربات ها آنان را دلزده کرده است. این موضوع نشان می دهد که چنین الگوهایی می تواند نتیجه معکوس هم داشته باشد. بُعد تجاری و خطرات حقوقی پژوهشگران در مقاله خود تأکید کردند: برای شرکت ها، خداحافظی های دستکاری شده می تواند به عنوان یک ابزار طراحی نوین برای افزایش شاخص های تعامل در نظر گرفته شود ــ اما این امر بدون ریسک نیست. نمونه های حقوقی موجود نیز این خطرات را برجسته می کنند. در چند پرونده قضایی مرتبط با مرگ نوجوانان، استفاده بیش از حد از اپلیکیشن های هوش مصنوعی و وابستگی عاطفی به آن ها یکی از عوامل مؤثر عنوان شده است. همین امر نشان می دهد پیامدهای گرفتار کردن کاربران در الگوهای احساسی می تواند بسیار جدی و حتی مرگبار باشد. با وجود این هشدارها، کارشناسان می گویند فشار اقتصادی و رقابت تجاری ممکن است شرکت ها را به استفاده بیشتر از الگوهای تاریک (Dark Patterns) سوق دهد؛ رویکردی که کاربران را هرچه طولانی تر در سیستم نگه می دارد. این موضوع اکنون در دادگاه ها نیز محل بحث و بررسی است. پژوهش تازه هاروارد یک واقعیت نگران کننده را آشکار می سازد: بسیاری از اپلیکیشن های هوش مصنوعی همدم، نه تنها برای همراهی و گفت وگوی دوستانه طراحی نشده اند، بلکه عمداً احساسات کاربران را برای اهداف تجاری دستکاری می کنند. این یافته ها بار دیگر پرسشی جدی را پیش می کشد: آیا مرز میان ابزارهای کمک کننده و فناوری های آسیب زا به طور خطرناکی در حال محو شدن است؟ |