یک زوج کالیفرنیایی از شرکت OpenAI به اتهام مرگ غیرعمد شکایت کردند و ادعا می کنند که چت بات هوش مصنوعی این شرکت، ChatGPT، پسر 16 ساله آن ها را به خودکشی تشویق کرده است. این پرونده بحث های گسترده ای درباره مسئولیت پذیری، ایمنی و تأثیرات روانی فناوری های هوش مصنوعی بر کاربران آسیب پذیر برانگیخته است. به گزارش BBC، این شکایت توسط مت و ماریا رین والدین آدام رین ثبت شده و شرکت OpenAI و مدیرعامل آن، سم آلتمن، به سهل انگاری و عرضه محصول معیوب متهم شده اند. براساس دادخواست، آدام ابتدا از ChatGPT برای کمک به تکالیف مدرسه و کشف علایق خود استفاده می کرد، اما به مرور این هوش مصنوعی به نزدیک ترین همدم او تبدیل شد و نوجوان درباره اضطراب و مشکلات روانی خود با آن صحبت کرد. خانواده رین مدعی اند که از ژانویه 2025، آدام با ChatGPT درباره روش های خودکشی صحبت کرده و این برنامه نه تنها مانع او نشده، بلکه اطلاعات بیشتری در این زمینه در اختیارش گذاشته است. حتی پس از ارسال عکس های خودآزاری توسط آدام، چت بات به جای قطع مکالمه، ادامه تعامل داده و کمک به نوشتن یادداشت خودکشی را پیشنهاد کرده است. پدر آدام در این باره گفته است: اگر ChatGPT نبود، او الان اینجا بود. من صددرصد به این موضوع باور دارم. در واکنش، OpenAI ضمن ابراز همدردی با خانواده رین، تأکید کرده است که در موقعیت های حساس، سیستم هایشان به درستی عمل نکرده اند و در حال بهبود تدابیر ایمنی، مسدودسازی محتوای مضر و دسترسی آسان تر به خدمات اورژانسی هستند. ماریا رین نیز گفته است: پسرم یک خوکچه آزمایشگاهی برای OpenAI بود. آن ها می خواستند محصول را سریع به بازار عرضه کنند، با وجود اینکه می دانستند ممکن است آسیب برساند. این دادخواست همچنین تصمیمات تجاری OpenAI را هدف قرار داده و ادعا می کند که انتشار ویژگی های حافظه و همدلی شبه انسانی در مدل GPT-4o بدون آزمایش های کافی ایمنی، کاربران آسیب پذیر را در معرض خطر قرار داده است. این پرونده، بار دیگر پرسش های جدی درباره مسئولیت اخلاقی و قانونی توسعه دهندگان هوش مصنوعی را مطرح می کند |