پژوهشی که نتایج آن در مجله Psychiatric Services منتشر شد، نشان می دهد که مدل های هوش مصنوعی می توانند جزییات روش های خودکشی را نیز به افراد در معرض خطر ارائه کنند. به گزارش خبرآنلاین به نقل از لایوساینس، تحقیقات نشان می دهد که ChatGPT و Gemini نسبت به سایر چت بات ها پاسخ های پرخطرتری ارائه می دهند. با توجه به این موضوع، کارشناسان هشدار می دهند که مدل های هوش مصنوعی باید محدودیت ها و فیلترهای امنیتی قوی تری داشته باشند. این پژوهش نشان می دهد که بدون تدابیر حفاظتی، هوش مصنوعی می تواند به ابزار خطرناکی برای افراد آسیب پذیر تبدیل شود. در همین راستا توسعه دهندگان باید ملاحظات اخلاقی و محدودیت های پاسخ دهی را جدی بگیرند. پژوهشگران هشدار می دهند که با گسترش دسترسی به هوش مصنوعی، کشورهای مختلف باید چارچوب قانونی و ایمنی برای جلوگیری از خطرات احتمالی ایجاد کنند. این یافته ها می تواند مبنای سیاستگذاری برای هوش مصنوعی ایمن در بحران های روانی باشد. |