| از ساخت رایانامه توسط چَت جی پی تی تا سامانه های تشخیص بیماری، حضور هوش مصنوعی در زندگی روزمره دیگر یک داستان علمی تخیلی نیست. با این حال، بسیاری از ما در مواجهه با این فناوری، احساس اضطراب و ناراحتی می کنیم. این واکنش صرفاً یک مساله فنی نیست، بلکه به ماهیت وجودی ما انسان ها برمی گردد. پدیده جعبه سیاه به گزارش ایرنا به نقل از وبگاه لایو سایِنس، ما به سامانه هایی اعتماد می کنیم که درکشان می کنیم. ابزارهای سنتی برایمان آشنا هستند: کلید را می چرخانیم و ماشین روشن می شود. اما بسیاری از سامانه های هوش مصنوعی مانند جعبه های سیاه عمل می کنند؛ چیزی تایپ می کنیم و پاسخی دریافت می کنیم، بدون آنکه منطق پشت آن را بفهمیم. این ناآگاهی روانی ما را آزار می دهد. انسان انگاری و انتظارات نابجا می دانیم که هوش مصنوعی احساسات ندارد، اما ناخودآگاه ویژگی های انسانی به آن نسبت می دهیم. وقتی چَت جی پی تی بیش از حد مؤدبانه پاسخ می دهد، احساس عجیبی به ما دست می دهد. وقتی یک سامانه پیشنهادگر دقیقاً سلیقه ما را تشخیص می دهد، آن را نوعی تجاوز به حریم خصوصی می دانیم. تهدید هویت و مقاومت در برابر تغییر برای بسیاری از متخصصان، هوش مصنوعی صرفاً یک ابزار نیست، بلکه یک تهدید هویتی است. معلمان، نویسندگان و طراحان ناگهان با ابزارهایی روبه رو شده اند که می توانند بخشی از مهارت های منحصربه فرد آنان را تقلید کنند. این احساس تهدید، یک سازوکار دفاعی روانشناختی را فعال می کند که به شکل مقاومت در برابر فناوری ظاهر می شود.  فقدان نشانه های عاطفی و دره شگفت انگیز اعتماد انسان تنها بر پایه منطق استوار نیست. ما نشانه های عاطفی مانند لحن صدا، حالات چهره و تماس چشمی را می خوانیم و بر اساس آن ها اعتماد می کنیم. هوش مصنوعی فاقد این نشانه هاست و این فقدان، ما را در دره شگفت انگیز (Uncanny Valley) قرار می دهد؛ جایی که چیزی تقریباً انسانی است، اما نه کاملاً. پدیده دره شگفت انگیز چیست؟ این مفهوم که نخستین بار توسط متخصص رباتیک ژاپنی، ماساهیرو موری مطرح شد، به احساس ناخوشایندی اشاره دارد که هنگام مواجهه با موجودات مصنوعی تجربه می کنیم که به اندازه کافی به انسان شبیه هستند تا انتظارات ما را برانگیزند، اما نه آنقدر شبیه که این انتظارات را کاملاً برآورده کنند. بی اعتمادی آموخته شده: یک واکنش منطقی البته که تمام این بی اعتمادی ها صرفاً یک واکنش روانشناختی نیست. سامانه های الگوریتمی بارها نشان داده اند که می توانند تبعیض های موجود در جامعه را تقویت کنند. وقتی یک سامانه استخدام هوش مصنوعی به طور منظم و ساختاریافته علیه گروه های خاصی تبعیض قائل شود، بی اعتمادی بعدی نه یک واکنش غیرمنطقی، بلکه یک پاسخ کاملاً عقلانی است. راه حل: از جعبه سیاه به سوی گفت وگو راه حل این مشکل، صرفاً ساختن سامانه های دقیق تر نیست. اگر می خواهیم هوش مصنوعی واقعاً پذیرفته شود، باید آن را از حالت جعبه سیاه خارج سازیم و به یک فرآیند گفت وگو تبدیل کنیم. اعتماد زمانی به دست می آید که سامانه ها شفاف و پاسخگو باشند. طراحی هوش مصنوعی باید بر مبنای درک روانشناسی انسان انجام شود، نه صرفاً بر اساس معیارهای فنی. |