صفحه اصلی     اقتصادی     اجتماعی     سیاسی     ورزشی     بین الملل     RSS     تماس با ما  
چهارشنبه، 28 آبان 1404 - 10:57   
 آخرین خبرها
  دورکاری پنجشنبه‌ ها در این استان از آذر ماه
  وضیعت دریای خزر بحرانی شد/ کاهش 1 متری تراز آب طی 5 سال
  هشدار ابوطالبی به پزشکیان: نگذارید این فرصت استراتژیک از دست برود
  خودسوزی جوان اهوازی، دستمایه دعواهای جناحی استان شد/ مخالفان شهردار، تندروها هستند
  هشدار پلیس فتا: مراقب این تماس‌های تلفنی باشید
 
- اندازه متن: + -  کد خبر: 56859صفحه نخست » آخرین اخبار    چهارشنبه، 28 آبان 1404 - 09:10

چگونه گول دیپ‌فیک‌ها را نخوریم؟


در دورانی که دیپ‌فیک‌ها حتی صدای نزدیک‌ترین آدم‌ها را هم بی‌نقص جعل می‌کنند، مرز میان حقیقت و فریب هر روز محوتر می‌شود. اکنون فناوری تازه‌نفس RAIS آمده تا این پرده فریب را کنار بزند و صداهای جعلی را به دام بیندازد.

در دنیای عجیبی که کلاه برداری های اینترنتی، هویت های جعلی و هزاران هزار جرم در فضای سایبری رخ می دهد، دیگر نمی توان به هیچ چیز اعتماد کرد. زمانی نه چندان دور، فقط تعداد معدودی از صداپیشگان فوق حرفه ای می توانستند صدای کسی را آن قدر دقیق تقلید کنند که حتی اطرافیان فرد هم اشتباه بگیرند. به همین دلیل، احتمال اینکه نیمه شب این افراد به شما زنگ بزنند و از زبان نزدیکانتان بخواهند هزاران دلار پول وثیقه منتقل کنید، تقریباً صفر بود.

اما امروز، به لطف شبیه سازهای صوتی مبتنی بر هوش مصنوعی که همه جا در اینترنت پخش شده اند، تقریباً هرکسی قادر است در چند دقیقه یک تقلب صوتی کامل بسازد. خوشبختانه برای تمام افرادی که می خواهند پول شان و همچنین سلامت انتخاب شان را از دست خلافکاران سایبری و خرابکاران سیاسی حفظ کنند، یک پیشرفت مهم رخ داده است. فناوری جدیدی با نام تمرین با نمونه گیری آگاهانه از داده های کمکی یا RAIS می تواند صداهای واقعی و جعلی را تشخیص دهد و با تکامل انواع پیشرفت هوش مصنوعی، عملکرد دقیق خود را حفظ کند.

همان طور که محققان توضیح می دهند، ابزارهای فعلی در برابر دیپ فیک های جدید شکست می خورند. این همان جایی است که RAIS اهمیت پیدا می کند. این ابزار از یادگیری پیوسته مبتنی بر تمرین استفاده می کند؛ به این معنا که مدل ها را با مجموعه ای محدود از نمونه های قدیمی به روزرسانی می کند و به این ترتیب دانش قبلی را حفظ کرده و هم زمان اطلاعات تازه را وارد سیستم می کند.

این پژوهش که در کنفرانس Interspeech بزرگ ترین رویداد جهانی در حوزه علم و فناوری پردازش گفتار ارائه شده، نشان می دهد چگونه پژوهشگران سازمان علمی ملی استرالیا (CSIRO)، دانشگاه فدریشن استرالیا و دانشگاه RMIT موفق شده اند سلاحی تازه علیه جعل دیجیتالی صدا بسازند؛ جعل هایی که برای دورزدن سیستم های احراز هویت صوتی، جعل هویت و تولید اطلاعات نادرست به کار می روند.

به دلیل ماهیت پیوسته تهدید هوش مصنوعی و لزوم دفاعی که همگام با آن تکامل پیدا کند، محققان می خواهند سیستم های تشخیص بتوانند دیپ فیک های جدید را بشناسند بدون اینکه نیاز باشد مدل دوباره از صفر آموزش ببیند. اگر فقط روی نمونه های جدید مدل را فاین تیون کنیم، باعث می شود مدل دیپ فیک های قدیمی را فراموش کند.

تکنیک های فعلی تمرین، انعطاف لازم را برای پوشش دادن تنوع گسترده ی صداهای انسانی یا حتی تغییرات متعدد یک صدا ندارند. همین ضعف باعث ایجاد سوگیری و افزایش احتمال حذف اطلاعات حیاتی هنگام آموزش دوباره می شود. برای رفع این مشکل، RAIS از یک شبکه تولید برچسب برای ساخت برچسب های کمکی استفاده می کند تا نمونه های متنوع تری برای حافظه انتخاب شوند. در نتیجه توانایی بالاتر در تشخیص صداهای جعلی، با دستیابی به میانگین نرخ خطای برابر (EER) برابر 1.953 درصد در پنج تجربه آزمایشی حاصل شد. نرخ EER یکی از معیارهای مهم در سیستم های بیومتریک است و هرچه پایین تر باشد، سیستم قابل اعتمادتر است. کد RAIS نیز با وجود استفاده از حافظه کوچک، بسیار کارآمد بوده و روی گیت هاب منتشر شده است.

راه حل RAIS به صورت خودکار مجموعه ای کوچک اما متنوع از نمونه های گذشته، شامل ویژگی هایی از صدا که حتی انسان ها هم متوجه آن نمی شوند ذخیره می کند. این مدل به جای برچسب های ساده جعلی یا واقعی ، مجموعه ای غنی تر از برچسب ها تولید می کند و با تمرین دوباره روی این نمونه ها، به هوش مصنوعی کمک می کند سبک های جدید دیپ فیک را یاد بگیرد بدون اینکه قبلی ها را فراموش کند و در نتیجه ترکیب متنوع تری از داده آموزشی فراهم می شود که توانایی تطبیق پذیری و یادآوری مدل را افزایش می دهد.

ویدیوهای دیپ فیک در شبکه های اجتماعی به قدری واقعی شده اند که حتی افراد شکاک هم فریب می خورند و دیگر صداهای عجیب یا چیز اشتباهی ندارند که انسان را به شک بیاندازد. این سطح جدید از باورپذیری بسیار خطرناک تر از تکنیک های قدیمی جعل متنی است. به گفته AICompetence، مطالعات نشان داده اند صداهای شبیه سازی شده با هوش مصنوعی واکنش های احساسی قوی تری نسبت به اطلاعات نادرست مبتنی بر متن ایجاد می کنند. وقتی صدایی آشنا واقعی به نظر می رسد، تفکر انتقادی متوقف می شود. برای مثال، همان تماس رباتیک دیپ فیک شده منتسب به جو بایدن که از رأی دهندگان نیوهمپشایر خواسته بود در انتخابات شرکت نکنند، نمونه ای از همین خطر است. اگر یک صدای آشنا به شما بگوید رأی ندهید، آیا مکث می کنید تا صحتش را بررسی کنید؟

نمونه های دیگر جعل صوتی شامل مدیرعامل WPP، مارک رید است. کلاهبرداران با استفاده از عکس او یک حساب مایکروسافت تیمز ساختند و از طریق صدای جعلی رید در جلسه ای آنلاین تلاش کردند یک کسب وکار ساختگی ایجاد کنند تا به پول و اطلاعات حساسی دست پیدا کنند. هرچند در این مورد موفق نشدند، اما در ایتالیا گروهی موفق شدند صدای وزیر دفاع را جعل کنند و از برخی رهبران کسب وکار یک میلیون یورو باج بگیرند و بعضی از آن ها پول را پرداخت کردند.

در حوزه سیاست نیز، همان طور که بایدن هدف قرار گرفت، ایلان ماسک هم یک ویدیوی دیپ فیک تحریف شده و تهمت آمیز از کامالا هریس را بدون توضیح بازنشر کرد؛ اقدامی برخلاف قوانین پلتفرمی که خودش مالک آن بود. حملات مشابهی علیه انتخابات در بنگلادش، مجارستان و اسلواکی هم انجام شده است؛ از جمله مورد انتخابات 2023 اسلواکی که در آن فایل های صوتی جعلی از میخال شیمچکا منتشر شد که ظاهراً در حال توطئه برای تقلب انتخاباتی بود. این فایل ها تنها چند روز مانده به رأی گیری به طور ویروسی پخش شدند.

AICompetence هشدار می دهد: خطر فقط در دروغ ها نیست، خطر در این است که چگونه اعتماد مردم را به حقیقت های واقعی تخریب می کنند. هرچه افراد بیشتر در مورد دیپ فیک آگاه شوند، سیاستمداران ممکن است رسوایی های واقعی را نیز به دروغ ساختگی هوش مصنوعی نسبت دهند. آگاهی بدون سواد رسانه ای، خود به تقویت دروغ کمک می کند.

دانیل سیتترون، استاد حقوق و نویسنده کتاب Deep Fakes: The Coming Infocalypse نیز می گوید: تهدید واقعی دیپ فیک این نیست که مردم چیزهای غلط را باور کنند؛ بلکه این است که دیگر چیزهای درست را باور نکنند . این پدیده سود دروغ گو نام دارد.

   
  

نظر شما:
نام:
پست الکترونیکی:
آدرس وب:
عنوان:
نظر
  قبل از ارسال نظر آنرا ویرایش کرده و قواعد نگارش را در آن رعایت کنید.
لطفاً در مطالب خود اخلاق اسلامی و قوانین کشور را مد نظر داشته باشید.
نمایش نظرات کاربران در خبرها به معنای تایید آنها توسط سایت نیست.

  کد امنیتی:
 
هشدار ابوطالبی به پزشکیان: نگذارید این فرصت استراتژیک از دست برود
  هشدار ابوطالبی به پزشکیان: نگذارید این فرصت استراتژیک از دست برود
مشاور دولت یازدهم و دوازدهم معتقد است این تبادل پیام پزشکیان با عربستان، نشانه روشن ایجاد یک «کانال اعتمادساز» میان تهران و ریاض است؛ کانالی که در شرایط کنونی می‌تواند نقشی تعیین‌کننده در آینده روابط ایران و آمریکا ایفا کند.
هشدار پلیس فتا: مراقب این تماس‌های تلفنی باشید
  هشدار پلیس فتا: مراقب این تماس‌های تلفنی باشید
معاون اجتماعی پلیس فتا فراجا با اشاره به افزایش سوءاستفاده از احساسات مردم از طریق تماس تلفنی و یا در فضای مجازی نسبت به صفحات خیریه مشکوک در پیام‌رسان‌ها هشدار داد.
فهرست خرید اوسمار برای پرسپولیس مشخص شد
  فهرست خرید اوسمار برای پرسپولیس مشخص شد
سرمربی برزیلی پرسپولیس، برای تبدیل تیمش به ماشین قهرمانی، لیست خرید زمستانی خود را نهایی کرد.
فروش فوری ایران‌خودرو با تحویل یک‌ماهه آغاز شد
  فروش فوری ایران‌خودرو با تحویل یک‌ماهه آغاز شد
فروش فوری آریسان 2 دوگانه‌سوز با قیمت 650 میلیون تومان آغاز شد
سخت‌ترین و آسان‌ترین گروه برای ایران در جام جهانی
  سخت‌ترین و آسان‌ترین گروه برای ایران در جام جهانی
با مشخص شدن سیدبندی تیم‌های حاضر در جام جهانی می توان سخت‌ترین و آسان‌ترین گروه‌های ایران در جام جهانی را پیش‌بینی کرد.
هدیه آمریکا به بن‌سلمان: تراشه‌های پیشرفته هوش مصنوعی در راه عربستان
  هدیه آمریکا به بن‌سلمان: تراشه‌های پیشرفته هوش مصنوعی در راه عربستان
خبرگزاری بلومبرگ از تصمیم آمریکا برای ارائه تراشه‌های پیشرفته هوش مصنوعی به عربستان خبر داد.
تغییر چهره «گلرخ» 15 سال بعد سریال پایتخت 1 در 41 سالگی
  تغییر چهره «گلرخ» 15 سال بعد سریال پایتخت 1 در 41 سالگی
در ادامه تصاویری کمتر دیده شده از سمیرا حسن پور بازیگر نقش گلرخ در سریال پایتخت 1 را بعد گذشت 15 و در 41 سالگی خواهید دید.
در مسیر سیاه چاله جمعیتی/ چرا خانواده ایرانی بعد از دهه 70 کوچک شد؟
  در مسیر سیاه چاله جمعیتی/ چرا خانواده ایرانی بعد از دهه 70 کوچک شد؟
بی‌شک، دلایل کم رغبتی افراد برای فرزندآوری و در نگاهی کلی تر، افزایش تجرد و بالا رفتن سن ازدواج دلایل آشکاری همچون شرایط ناثبات اقتصادی و معیشتی و ضعف حکمران در حمایت از ازدواج و تشکیل خانواده دارد.
تمام بدن این جلبک دریایی «مغز» است!
  تمام بدن این جلبک دریایی «مغز» است!
تحقیقات تازه نشان می‌دهد که بدن جلبک‌های دریایی بنفش، برخلاف تصور قبلی، یک دستگاه عصبی پیچیده و پراکنده در سراسر بدن خود دارد که عملاً نقش مغز را ایفا می‌کند و عملکردی شگفت‌انگیز شبیه مغز انسان‌ها دارد.
صعود پاناما، هاییتی و کوراسائو به جام جهانی
  صعود پاناما، هاییتی و کوراسائو به جام جهانی
مسابقات انتخابی جام جهانی در کونکاکاف به پایان رسید.
نسخه‌پیچی وکیل‌بلاگرها برای ثبت شروط ضمن عقد راهگشاست؟
  نسخه‌پیچی وکیل‌بلاگرها برای ثبت شروط ضمن عقد راهگشاست؟
محمد سرگزی، رییس کمیسیون قضایی و حقوقی مجلس گفت: در این قانون جدید مهریه به نحوه رسیدگی به محکومیت‌های مالی در بخش‌های مختلف پرداخته شده و برخلاف آنچه در جامعه گفته می‌شود،
این مدارس دیگر نه آموزنده هستند و نه پروش دهنده
  این مدارس دیگر نه آموزنده هستند و نه پروش دهنده
آینده مدرسه در گرو بازشناسی توان زندگی است. مدرسه‌ای که خود را تنها با فرمان تعریف می‌کند، دیگر نه می‌آموزد، نه می‌پرورد؛ فقط بازتولید می‌کند.
  پربیننده ترین اخبار       
  تفال به حافظ: گویند رمز عشق مگویید و مشنوید / مشکل حکایتیست که تقریر می‌کنند
  بمب خبری پیام به ریاض
  تصمیم جدید دولت برای واردات خودرو
  خودروسازان روی لبه تیغ
  کاظم صدیقی عزادار شد
  سخت‌ترین و آسان‌ترین گروه برای ایران در جام جهانی
  «معمر قذافی» با ظاهر خاص در اجلاس سران عرب در مصر؛ سال 1356
  انقلاب چین در انرژی هسته‌ای: استخراج اورانیوم 1000 برابر سریع‌تر شد
  فروش فوری ایران‌خودرو با تحویل یک‌ماهه آغاز شد
  زنگ خطر؛ ازبکستان را هم نمی‌توانیم ببریم!
  قطعنامه جدید علیه ایران در شورای حکام/ غرب خواستار گزارش فوری از ذخایر اورانیوم شد
  وضعیت آن 400 کیلوگرم اورانیومِ غنی شده نامشخص است/ نباید میدان را برای آنها خالی کرد
  تغییر چهره «گلرخ» 15 سال بعد سریال پایتخت 1 در 41 سالگی
  ایست در همکاری با آژانس؛ ایران اهرم فشار جدید ندارد؟
  بلایی که مهدی طارمی سر قلعه‌نویی آورد
  فهرست خرید اوسمار برای پرسپولیس مشخص شد
  نسخه‌پیچی وکیل‌بلاگرها برای ثبت شروط ضمن عقد راهگشاست؟
  صدور قطعنامه، ایران را به بستن «پنجره محدود همکاری» سوق می‌دهد
  پیش بینی زیدآبادی از آینده قطعنامه 2803 و چالش حماس با جهان عرب
  هرچه بیشتر به تهران امکانات بدهید، زندگی در آن را سخت‌تر می‌کنید
© شبکه خبری سرنویس 1404

All rights reserved