| دانشمندان دانشگاه آکسفورد و کنسرسیومی از دانشگاه برلین مطالعه ای را انجام داده اند که نشان می دهد رویکرد یک سان برای همه فناوری های قبلی دیگر برای کاربردهای متنوع هوش مصنوعی قابل استفاده نیست. به گزارش باشگاه خبرنگاران به نقل از دیلی میل، کریستوف گرلینگ، نویسنده اصلی این مطالعه از موسسه اینترنت و جامعه هامبولت، گفت: استفاده از هوش مصنوعی شهودی به نظر می رسد، اما تسلط بر آن نیاز به کاوش و توسعه مهارت های یادگیری تجربی دارد. او افزود که مناسب بودن وظیفه برای این فناوری بیش از هر زمان دیگری فردی است. محققان داده های 344 کاربر اولیه را در طول چهار ماه اول پس از راه اندازی عمومی ChatGPT در 30 نوامبر 2020 تجزیه و تحلیل کردند و دریافتند که این کاربران اولیه را می توان به چهار گروه اصلی طبقه بندی کرد: علاقه مندان به هوش مصنوعی (25.6٪ از شرکت کنندگان): این کاربران بسیار درگیر هستند و به دنبال دستیابی به مزایای تولیدی و اجتماعی از هوش مصنوعی هستند. آن ها تنها گروهی هستند که هنگام تعامل با چت بات، متوجه حضور اجتماعی ملموس شدند و با ابزارها مانند افراد واقعی رفتار کردند. آن ها همچنین سطح بالاتری از اعتماد به سیستم را نشان دادند و هیچ نگرانی جدی در مورد حریم خصوصی نشان ندادند. عملگرایان ساده لوح (20.6٪): آن ها بر نتایج و راحتی تمرکز می کنند و مزایای عملی هوش مصنوعی را بر نگرانی های مربوط به حریم خصوصی اولویت می دهند. در حالی که آن ها به مزایای عملی و حرفه ای اعتقاد دارند، علاقه آن ها به مزایای اجتماعی کمتر از علاقه مندان به هوش مصنوعی است. پذیرندگان محتاط (35.5٪): آن ها کنجکاوی، عملی بودن و احتیاط را با هم ترکیب می کنند و دائماً مزایای عملکردی را در مقابل خطرات احتمالی می سنجند. این گروه نسبت به دو گروه قبلی نگرانی بیشتری در مورد حریم خصوصی داده ها نشان می دهند. کاوشگران رزرو (18.3٪): آن ها بیشترین نگرانی را در مورد این فناوری دارند، هنوز از مزایای آن متقاعد نشده اند و نگرانی های قابل توجهی در مورد حریم خصوصی ابراز می کنند. برخلاف سایر گروه ها، آن ها نمی توانند مزایای شخصی استفاده از ChatGPT را ببینند. محققان با کمال تعجب متوجه شدند که همه این گروه ها، با وجود نگرانی های جدی در مورد حریم خصوصی، همچنان به استفاده از چت بات ها ادامه می دهند. این تیم تحقیقاتی هشدار داد که تلاش برای انسانی سازی هوش مصنوعی می تواند نتیجه معکوس داشته باشد، زیرا کاربرانی که به حریم خصوصی اهمیت می دهند، ممکن است خود هوش مصنوعی را به جای شرکت توسعه دهنده آن، مسئول سوءاستفاده های احتمالی بدانند و این امر می تواند اعتماد به سیستم را با سرعت بیشتری از بین ببرد. |