رفتن به محتوای اصلی
امروز: ۰۴:۳۰:۰۳ ۲۰۲۵/۱۲/۰۵     ورود
EN - FA

برای تبلیفات در سایت

 

 

 

 

 

 

 

 

 

برای تبلیفات در سایت

 

 

 

 

 

 

 

 

برای تبلیفات در سایت

با پیشرفت خیره کننده هوش مصنوعی طی سالهای اخیر، بسیاری از کارهایی که در گذشته سخت و ناممکن به نظر می رسیدند، ممکن شده اند. قبلا کمتر کسی فکر می کرد که روزی بتوان محتوای یک ویدئو را به طور کلی و بدون دخالت مستقیم انسان تغییر داد؛ اما اکنون دیپ فیک ثابت کرده که چنین باوری در دنیای امروز جایی ندارد و به راحتی می توان ویدئوهایی تولید کرد که به سبب واقع گرایانه بودن، نتوان میان حقیقت و دروغ آنها تمایزی قائل شد. چندین راه برای ساخت ویدئوهای دیپ فیک وجود دارد، اما در تمام این راه ها، باید مقدار زیادی از داده را به مدل های یادگیری ماشین تغذیه کرد تا از این طریق محتوای جعلی تولید شود. واقع گرایانه ترین نمونه های ساخته شده حجم عظیمی از داده های صوتی، تصویری و ویدئویی را طلب می کنند. الگوریتم شبکه مولد تخاصمی یا به طور خلاصه، گن دارای یک بخش مولد و یک بخش ممیز است؛ مثلا فرض کنید گن قصه ما، یاد گرفته باشد تصویرهای دروغین از خلبان ها بسازد، مولد سعی می کند، عکس های تقلبی جعل کند. از آن طرف ممیز، عکس های جعلی ساخت مولد و عکس های واقعی را کنار هم می گذارد و به خودش یاد می دهد که عکس واقعی را از دروغین تشخیص دهد. هرچقدر که مدل گن بیشتر یاد بگیرد، هر دو بخش های مولد  ممیز هم در کارشان بهتر عمل می کنند و هر کدام باعث می شود دیگری در کار خودش ماهرتر شود. دیپ فیک ها جعل هایی هستند که مولد بالاخره توانسته از زیر دماغ ممیز رد کند. همانطور که گفته شد دیپ فیک یک تکنیک مبتنی بر هوش مصنوعی است؛ بنابراین نیازی به دخالت مستقیم انسان ندارد؛ از این رو هر کسی از طریق دیپ فیک می تواند ویدئویی جعلی و در عین حال واقع گرایانه بسازد.

field_video
کپی رایت | طراحی سایت دارکوب