آیا هوش مصنوعی می‌تواند از ما در برابر جعل عمیق یا Deepfake محافظت کند؟

توسط عباس رهامی
جعل عمیق

جعل عمیق تکنیکی جدید است که بر اساس فناوری یادگیری عمیق توسعه پیدا کرده است. در این روش صدا، عکس و حتی فیلم‌ها به‌راحتی و به‌صورت کاملاً باورپذیر جعل می‌شوند. چند خط برنامه که مثلاً با بررسی حرکات عضلات چهره شما، می‌تواند چهره شما را در حال انجام هر کاری شبیه سازی کند! فاجعه‌ای که هر روز افراد بیشتری را گرفتار می‌کند. بسیاری بر این باورند که می‌توان با به کار گیری هوش مصنوعی به‌صورت فنی با جعل عمیق مبارزه کرد. ولی گزارش‌های جدید امید به این روش را کاملاً از بین می‌برند.

از زمان ظهور جعل عمیق، افراد زیادی درگیر ماجرا شده‌اند. آن‌هایی که از قابلیت‌های ترسناک این روش مطلع هستند به‌شدت نگران‌اند و به دنبال سریع‌ترین راه حل ممکن برای مقابله با آن می‌گردند. ولی راه حل‌هایی که صرفاً مبتنی بر فناوری باشند نمی‌توانند راه حل این مشکل باشند. ما برای جلوگیری از توسعه و پیشرفت این فناوری خطرناک باید قوانین مشخصی داشته باشیم. در حقیقت فناوری هم درست مانند هر چیز دیگر در این دنیا می‌تواند مثبت یا منفی باشد. این قوانین و محدودیت دسترسی و نظارت بر آن است که عدم انحراف آن را تضمین می‌کند.

از طرف دیگر این موضوع ارتباط غیرقابل انکاری با بحث حریم خصوصی و دسترسی بی‌حد و مرز شرکت‌ها و دولت‌ها به داده‌ها و اطلاعات شهروندان دارد و بحث توازن قدرت و پیگیری مطالبات افرادی که در رأس قدرت نیستند را مطرح می‌کند. از همان ابتدای کار ارتباط میان تصاویر، فیلم و صداها و حقیقی بودن آن بحثی چالش بر انگیز بوده است. مثلاً استفاده از تصویر به‌عنوان مدرک برای اثبات یک مدعی اواسط قرن 18 ممکن شد ولی تعیین اصالت و اعتبار آن مشکلات زیادی را ایجاد کرد. این روند تا همین امروز هم ادامه دارد. حتی شبکه‌های اطلاع رسانی معتبر هم گاهی تصاویری پخش می‌کنند که اصالت و اعتبار آن در ابهام است.

حال امروز مرز دست‌کاری فیلم و تصاویر و عدم اعتبار آن چه می‌بینیم و می‌شنویم، بسیار فراتر رفته است. یادگیری عمیق به ما امکان داده تصاویر و صداها را با چنان ظرافت و دقتی دست‌کاری کنیم که تشخیص آن تقریباً غیرممکن است.

برای مقابله با این فناوری، شرکت‌ها روش‌های مختلفی برای تشخیص حقیقی یا غیرحقیقی بودن یک ویدیو در اختیار مردم قرار دادند. مثلاً شرکت استارتاپ تروپیک (TruePic) با استفاده از هوش مصنوعی و فناوری بلاک چین می‌تواند تصاویر دست‌کاری شده را تشخیص دهد. یا مثلاً فیسبوک روشی را برای تشخیص جعل عمیق در اختیار کاربران قرار داد. اخیراً هم آژانس پروژه‌های پژوهشی پیشرفته دفاعی (دارپا) آمریکا پروژه Medifor را راه اندازی کرده ه با تشخیص پیکسل‌های متفاوت در یک ویدیو جعلی بودن آن را تشخیص می‌دهد.

دیپ فیک ایلان ماسک

ولی استفاده از فناوری برای این کار کافی به نظر نمی‌رسد. چه چیزی جلوی استفاده گسترده از این فناوری برای اهداف سیاسی یا برای انجام یک جرم یا اهداف تروریستی یا آزار و اذیت و اخاذی را می‌گیرد؟ قانون! راه حل این مشکل تعیین قوانینی است که حدود استفاده از جعل عمیق را مشخص کند.

از طرف دیگر یادگیری عمیق راهکاری جدید برای بسیار از پیشرفت‌ها باز کرده است. امکان برداشت و پردازش الگوهای گرافیکی و مدل‌ها در کوتاه‌ترین زمان ممکن و استفاده از آن در پروژه‌های مختلف، با این فناوری ممکن می‌شود.

به نظر می‌رسد نهایتاً استفاده از راهکارهای مبتنی بر فناوری و قانون گذاری بتواند مشکل استفاده نادرست از جعل عمیق را بگیرد. شاید این جریان به ایجاد قوانین جدی برای محدودیت دسترسی به اطلاعات شهروندان و بحث حریم خصوصی هم کمک کند.

منبع: theverge

همچنین ممکن است دوست داشته باشید

دیدگاهی بنویسید