جعل عمیق تکنیکی جدید است که بر اساس فناوری یادگیری عمیق توسعه پیدا کرده است. در این روش صدا، عکس و حتی فیلمها بهراحتی و بهصورت کاملاً باورپذیر جعل میشوند. چند خط برنامه که مثلاً با بررسی حرکات عضلات چهره شما، میتواند چهره شما را در حال انجام هر کاری شبیه سازی کند! فاجعهای که هر روز افراد بیشتری را گرفتار میکند. بسیاری بر این باورند که میتوان با به کار گیری هوش مصنوعی بهصورت فنی با جعل عمیق مبارزه کرد. ولی گزارشهای جدید امید به این روش را کاملاً از بین میبرند.
از زمان ظهور جعل عمیق، افراد زیادی درگیر ماجرا شدهاند. آنهایی که از قابلیتهای ترسناک این روش مطلع هستند بهشدت نگراناند و به دنبال سریعترین راه حل ممکن برای مقابله با آن میگردند. ولی راه حلهایی که صرفاً مبتنی بر فناوری باشند نمیتوانند راه حل این مشکل باشند. ما برای جلوگیری از توسعه و پیشرفت این فناوری خطرناک باید قوانین مشخصی داشته باشیم. در حقیقت فناوری هم درست مانند هر چیز دیگر در این دنیا میتواند مثبت یا منفی باشد. این قوانین و محدودیت دسترسی و نظارت بر آن است که عدم انحراف آن را تضمین میکند.
از طرف دیگر این موضوع ارتباط غیرقابل انکاری با بحث حریم خصوصی و دسترسی بیحد و مرز شرکتها و دولتها به دادهها و اطلاعات شهروندان دارد و بحث توازن قدرت و پیگیری مطالبات افرادی که در رأس قدرت نیستند را مطرح میکند. از همان ابتدای کار ارتباط میان تصاویر، فیلم و صداها و حقیقی بودن آن بحثی چالش بر انگیز بوده است. مثلاً استفاده از تصویر بهعنوان مدرک برای اثبات یک مدعی اواسط قرن 18 ممکن شد ولی تعیین اصالت و اعتبار آن مشکلات زیادی را ایجاد کرد. این روند تا همین امروز هم ادامه دارد. حتی شبکههای اطلاع رسانی معتبر هم گاهی تصاویری پخش میکنند که اصالت و اعتبار آن در ابهام است.
حال امروز مرز دستکاری فیلم و تصاویر و عدم اعتبار آن چه میبینیم و میشنویم، بسیار فراتر رفته است. یادگیری عمیق به ما امکان داده تصاویر و صداها را با چنان ظرافت و دقتی دستکاری کنیم که تشخیص آن تقریباً غیرممکن است.
برای مقابله با این فناوری، شرکتها روشهای مختلفی برای تشخیص حقیقی یا غیرحقیقی بودن یک ویدیو در اختیار مردم قرار دادند. مثلاً شرکت استارتاپ تروپیک (TruePic) با استفاده از هوش مصنوعی و فناوری بلاک چین میتواند تصاویر دستکاری شده را تشخیص دهد. یا مثلاً فیسبوک روشی را برای تشخیص جعل عمیق در اختیار کاربران قرار داد. اخیراً هم آژانس پروژههای پژوهشی پیشرفته دفاعی (دارپا) آمریکا پروژه Medifor را راه اندازی کرده ه با تشخیص پیکسلهای متفاوت در یک ویدیو جعلی بودن آن را تشخیص میدهد.
ولی استفاده از فناوری برای این کار کافی به نظر نمیرسد. چه چیزی جلوی استفاده گسترده از این فناوری برای اهداف سیاسی یا برای انجام یک جرم یا اهداف تروریستی یا آزار و اذیت و اخاذی را میگیرد؟ قانون! راه حل این مشکل تعیین قوانینی است که حدود استفاده از جعل عمیق را مشخص کند.
از طرف دیگر یادگیری عمیق راهکاری جدید برای بسیار از پیشرفتها باز کرده است. امکان برداشت و پردازش الگوهای گرافیکی و مدلها در کوتاهترین زمان ممکن و استفاده از آن در پروژههای مختلف، با این فناوری ممکن میشود.
به نظر میرسد نهایتاً استفاده از راهکارهای مبتنی بر فناوری و قانون گذاری بتواند مشکل استفاده نادرست از جعل عمیق را بگیرد. شاید این جریان به ایجاد قوانین جدی برای محدودیت دسترسی به اطلاعات شهروندان و بحث حریم خصوصی هم کمک کند.
منبع: theverge