برای موج گسترده ویدیوهای جعل عمیق خودتان را آماده کنید

توسط عباس رهامی
ویدیوهای جعل عمیق

به‌عنوان یک نصیحت کلی، همیشه باید این نکته را گوشه ذهنتان داشته باشید که هر چیزی که در اینترنت می‌بینید یا می‌خوانید را باور نکنید. بهتر است هنگام گشت و گذار در فضای مجازی، عینک‌های بدبینی را به چشم‌ها بزنید. به‌خصوص حالا که فناوری جعل عمیق یا دیپ فیک به‌طور گسترده برای جعل کردن ویدیوها، تصاویر و صداها استفاده می‌شود.

در ویدیوهای دیپ فیک شما شاهد تصویری هستید که به کمک فناوری یادگیری عمیق به‌طور کلی تغییر پیدا کرده و خیلی دقیق و ظریف جعل شده است. مشکل اصلی هم آن است که تشخیص این ویدیوها از ویدیوهای اصیل به هیچ وجه آسان نیست.

اگرچه سازمان‌ها و افرادی هستند که به این مسئله می‌پردازند و سعی می‌کنند این فناوری را تحت نظارت و کنترل داشته باشند، ولی به نظر نمی‌رسد این کار کافی باشد. ما باید خودمان را در برابر موج گسترده ویدیوهای جعل عمیق که به‌زودی فضای اینترنت را در بر می‌گیرند، آماده شویم. این فناوری به‌سرعت در حال پیشرفت است و در آینده کیفیت تصاویر خلق شده با دیپ فیک بهتر خواهد شد و کار برای ما بسیار سخت‌تر.

خوشبختانه یا متأسفانه در حال حاضر بیشتر ویدیوهایی که با جعل عمیق درست شده‌اند، فیلم‌ها و کلیپ‌های جعلی مستهجن هستند. متأسفانه از این جهت که قطعاً افراد زیادی به دردسر افتاده و خواهند افتاد. و خوشبختانه از آن جهت که فعلاً این ویدیوها به همین کاربرد محدود شده‌اند و فعلاً کسی یا گروهی علاقه زیادی به تغییر افکار جامعه، ترور شخصیتی و … نشان نداده است.

ولی نباید زیاد خوش بین بود. مثلاً احتمال آنکه برای تغییر نتیجه انتخابات آتی در کشورها از این فناوری استفاده شود، بسیار زیاد است. بنابراین فعلاً بهترین راه چاره آن است که بدانیم ویدیوهای جعلی تا چه حد می‌توانند واقعی به نظر برسند و یاد بگیریم به هر ویدیویی اعتماد نکنیم.

اگر در آینده ویدیویی از رئیس جمهور یک کشور دیدید که حرف‌های عجیبی می‌زند، نباید زیاد تعجب کنید. البته ممکن است حرف‌ها تا حدی منطقی باشند که باز هم شما نباید اعتماد کنید! در کل از حالا به بعد نباید به ویدیوهایی که از مراجع غیر معتبر می‌بینید اعتماد کنید.

امروز تقریباً همه می‌دانیم تصاویر به چه سادگی و با چه ظرافتی قابل تغییر و دست‌کاری هستند. حالا باید این را هم یاد بگیریم که ویدیوها هم از همین قاعده پیروی می‌کنند. ولی این مسئله که باید راهی درست و قابل دسترسی برای متمایز کردن حقیقت از دروغ ایجاد شود، هم چنان پابرجا خواهد بود.

منبع: wired

همچنین ممکن است دوست داشته باشید

دیدگاهی بنویسید