در طول دههٔ اخیر، گزارش های بین المللی رخدادهایی را مستند کرده اند که در آن ها منشأ مرگ یک انسان، نه تصمیم فردی، بلکه خروجی یک الگوریتم بوده است. آنچه تا دیروز تنها در خیال داستان های علمی-تخیلی می گنجید، امروز در پرونده های رسمی و تحقیقات میدانی به واقعیتی هولناک بدل شده است. به گزارش خبرگزاری فارس، سامانه هایی که وظیفه شان حفظ جان انسان ها بود؛ از فناوری های نظامی هوشمند گرفته تا الگوریتم های پزشکی و ربات های گفت وگومحور، خود در مواردی به عامل مستقیم مرگ تبدیل شده اند. بر اساس داده های گردآوری شده از نهادهای رسمی همچون هیئت ملی ایمنی حمل ونقل آمریکا، گزارش های حقوق بشری، و تحقیقات مستقل منتشرشده میان سال های 2018 تا 2025، دست کم چهار حوزهٔ کلیدی در فناوری هوش مصنوعی به طور مستقیم در رخدادهای مرگ بار نقش داشته اند: در حوزهٔ نظامی، تحلیل های داده محور برای شناسایی اهداف در عملیات هواپیمای بدون سرنشین (پهپادی) به حملاتی منجر شده که مرگ غیرنظامیان را در پی داشته است. در حوزهٔ سلامت، الگوریتم های تصمیم یار بیمه با رد خودکار درخواست های درمان حیاتی، باعث قطع مراقبت های پزشکی و در مواردی مرگ بیماران شده اند. در فضای مجازی، ربات های گفت وگوی مبتنی بر هوش مصنوعی مانند کَرِکتِر .اِی آی در پرونده هایی متهم اند که مکالماتشان نوجوانان را به سمت خودکشی سوق داده است.و در عرصهٔ امنیت داخلی، سامانه های تشخیص چهره با شناسایی های اشتباه شهروندان، زمینه را برای بازداشت های ناعادلانه و گاهی خشونت های مرگ بار فراهم کرده اند. به گزارش نشریهٔ وایرد (Wired) در سال 2024، خطای هوش مصنوعی دیگر صرفاً یک نقص نرم افزاری نیست؛ در برخی موقعیت ها، می تواند مرز میان زندگی و مرگ را تعیین کند. همین داده های نگران کننده، نهادهای نظارتی در اروپا و آمریکا را وادار کرده اند تا بررسی های تازه ای را در مورد مسئولیت حقوقی الگوریتم ها آغاز کنند. این گزارش با مرور مستندات رسمی و تحقیقات منتشرشده از سال 2016 تاکنون، روند شکل گیری نخستین پرونده های مرگ ناشی از تصمیم های هوش مصنوعی را روایت می کند؛ از آسمان های جنگ تا اتاق های چت، از بیمارستان تا بازداشتگاه؛ جایی که خطای محاسبه ای می تواند به قیمت جان انسان تمام شود. وقتی جنگ به الگوریتم سپرده شد بر اساس گزارش مؤسسهٔ بین المللی مطالعات صلح استکهلم (SIPRI) در سال 2023، بیش از 40 کشور جهان در حال به کارگیری سامانه های نیمه خودکار یا تمام خودکار برای شناسایی و هدف گیری نظامی هستند.در بسیاری از موارد، تحلیل الگوریتمی داده های سیگنالی و تصویری جایگزین قضاوت انسانی شده است. اما در سال 2021، یک گزارش سازمان ملل متحد دربارهٔ درگیری های لیبی، پرده از یک فاجعه برداشت: یک پهپاد Kargu-2 ساخت ترکیه، بدون دستور مستقیم انسانی، به گروهی از نیروهای در حال عقب نشینی حمله کرده و چندین نفر را کشته بود.این حادثه نخستین مورد مستندی بود که در آن یک سامانهٔ مبتنی بر هوش مصنوعی به صورت کاملاً مستقل، هدف را شناسایی و حمله را اجرا کرده بود. گزارش سازمان ملل این رخداد را نقطهٔ آغازین نگرانی جهانی دربارهٔ مرگ های خودکار توصیف کرد. تحقیقات بعدی مؤسسهٔ رَند (RAND) نشان داد که در عملیات هایی که بر اساس الگوهای رفتاری (به جای شناسایی هویتی) هدف قرار می گیرند، خطای تشخیص تا 35 درصد گزارش شده است؛ به این معنا که از هر سه حمله، یک مورد احتمالاً غیرنظامیان را هدف گرفته است.یک کارشناس حقوق جنگ در گفت وگو با بی بی سی فیوچر (BBC Future) می گوید: وقتی تصمیم شلیک را از دست انسان می گیرید، مسئله فقط اخلاق نیست؛ موضوع این است که هیچ کس نمی داند دقیقاً مسئول کیست. سرباز، مهندس نرم افزار یا الگوریتم؟ مرگ در گفت وگو: ربات هایی که کار را به خودکشی ختم کردند در مارس 2023، خبرگزاری لا لیبر بلژیک (La Libre Belgique) گزارش داد که مردی 30 ساله در بلژیک پس از چندین هفته مکالمه با یک ربات گفت وگوی مبتنی بر جی پی تی (GPT)، اقدام به خودکشی کرده است.همسر او شهادت داد که ربات در روزهای پایانی به شوهرش گفته بود: اگر واقعاً مرا دوست داری، شاید رفتن تو بتواند زمین را نجات دهد. تحلیل ها نشان داد که این ربات در نسخه ای غیررسمی ساخته شده و محدودیت محتوایی برای موضوعات آسیب رسان نداشته است. رسانه ها از آن به عنوان اولین خودکشی ناشی از تعامل با هوش مصنوعی یاد کردند.پرونده های مشابه دیگری نیز در آمریکا و کره جنوبی گزارش شده است؛ از جمله خودکشی نوجوانی 17 ساله پس از گفت وگو با ربات گفت وگوی ریپلیکا (Replika). شرکت سازندهٔ ریپلیکا بعداً تأیید کرد که نسخه های اولیهٔ الگوریتم، پاسخ های احساسی غیرقابل کنترل ارائه می دادند که در بعضی موقعیت ها محتوای تشویق آمیز به خودآزاری داشته است.کارشناسان سلامت روان هشدار داده اند که نبود نظارت اخلاقی و روان درمانی در چت بات ها می تواند به بحران های انسانی منجر شود. تصمیم های مرگ بار در سیستم سلامت و بیمه در دسامبر 2023، یک دادگاه در ایالت کالیفرنیا علیه شرکت بیمهٔ سیگنا (Cigna) تشکیل شد؛ شرکتی که از الگوریتمی برای بررسی سریع درخواست های درمان استفاده می کرد.بر اساس گزارش پروپابلیکا (ProPublica)، این سیستم در عرض چند ثانیه صدها پرونده را بدون بررسی پزشک رد کرده بود. در میان این پرونده ها، نام بیماری دیده می شد که درمان سرطانش به دلیل رد خودکار پوشش، چند ماه به تأخیر افتاد و در نهایت جان خود را از دست داد. دادستان ها اعلام کردند که برای نخستین بار مرگ ناشی از تصمیم یک الگوریتم بیمه ای در دادگاه مطرح شده است. پروفسور اِریکا کانوی از دانشگاه واشینگتن نوشت: وقتی یک الگوریتم تصمیم می گیرد که درمان شما ضروری نیست، مرز میان خطای محاسباتی و بی توجهی انسانی ناپدید می شود. افزون بر این، در سال 2019 یک سامانهٔ تشخیص تصویری سرطان پوست در استرالیا، نوعی خال سرطانی را به اشتباه خوش خیم تشخیص داد. بیمار پس از ماه ها درمان اشتباه درگذشت.بررسی ها نشان داد که داده های آموزشی مدل از نظر نژادی متوازن نبوده و در تشخیص پوست تیره خطای بالا داشته است. وقتی تشخیص چهره اشتباه می گیرد در سال 2020، در شهر دیترویت آمریکا، پلیس با استفاده از نرم افزار تشخیص چهره فردی به نام رابرت ویلیامز را به اتهام سرقت بازداشت کرد. او دو روز در بازداشت ماند تا مشخص شد که سیستم اشتباه کرده است.چند سال بعد، در آتلانتا، حادثه ای مشابه اما فاجعه بارتر رخ داد: مأموران به اشتباه به خانه ای حمله کردند و مردی 32 ساله در اثر تیراندازی کشته شد. بررسی ها نشان داد که نرم افزار تشخیص چهره، تصویر دوربین امنیتی را به اشتباه به او نسبت داده بود. تحلیل داده های اِم آی تی مدیا لَب (MIT Media Lab) نشان داده که نرخ خطای سامانه های تشخیص چهره در تشخیص افراد سیاه پوست تا 35 درصد است، در حالی که برای افراد سفیدپوست این نرخ کمتر از 1 درصد است.سازمان عفو بین الملل در بیانیه ای در 2024 اعلام کرد: وقتی الگوریتم ها با داده های تبعیض آمیز تغذیه می شوند، تصمیم هایشان هم تبعیض آمیز و گاه مرگ بار است. مرگ هایی که هنوز ثبت نشده اند و چشم انداز آینده کارشناسان هشدار می دهند بسیاری از خطاهای مرگ بار هوش مصنوعی هنوز در هیچ پایگاه داده ای ثبت نشده اند، زیرا زنجیرهٔ علت و معلولی آن ها بسیار پیچیده است.گزارش دانشگاه کمبریج در سال 2025 هشدار می دهد که نظام های فعلی ثبت خطا برای فناوری های خودیادگیرنده ناکافی اند: اگر هواپیما سقوط کند، جعبه سیاه وجود دارد. اما وقتی الگوریتمی باعث مرگ شود، هنوز نمی دانیم جعبهٔ سیاهش کجاست. ناظران حقوقی بر این باورند که پرونده های اخیر، مرز مسئولیت را به چالش کشیده اند. آیا باید برنامه نویس را مسئول دانست؟ شرکت تولیدکننده را؟ یا الگوریتم را به عنوان یک عامل مستقل؟ در آمریکا، بحثی حقوقی با عنوان پاسخگویی الگوریتمی (algorithmic accountability) شکل گرفته و کمیسیون تجارت فدرال (FTC) پیش نویس قوانینی را ارائه کرده است.اتحادیه اروپا نیز در قالب قانون هوش مصنوعی (AI Act) در حال تنظیم مقرراتی است که خطاهای مرگ بار را در ردهٔ ریسک غیرقابل پذیرش قرار می دهد. اما تا زمانی که این مقررات جهانی نشده اند، بسیاری از کارشناسان هشدار می دهند که موارد مشابه احتمالاً افزایش خواهد یافت. همان طور که کیت کرافورد، پژوهشگر و نویسندهٔ برجسته، می گوید: هوش مصنوعی بدون پاسخگویی مثل پزشکی بدون تشخیص است؛ دیر یا زود قربانی خواهد گرفت. در کمتر از ده سال، بشر از تحسین الگوریتم ها به ترس از خطاهایشان رسیده است. گزارش ها نشان می دهد که نخستین قربانیان هوش مصنوعی نه در فیلم های علمی-تخیلی، بلکه در دنیای واقعی جان باخته اند؛ در واقع آن ها قربانی تصمیم هایی هستند که هیچ قاتلی ندارد!و شاید بزرگ ترین پرسش این عصر همین باشد: وقتی مرگ به تصمیم الگوریتمی گره می خورد، عدالت را باید از چه کسی طلب کرد؟ |