روکیداروکیداروکیدا
  • اخبار فناوری
  • آموزش
  • گجت‌ها
    • اخبار موبایل و گجت ها
    • گجت های پوشیدنی
    • نقد و بررسی تخصصی گجت ها
    • راهنمای خرید
  • فیلم و سریال
  • نرم افزار و اپلیکیشن
  • موفقیت و پیشرفت
  • خودرو
  • تبلیغات در روکیدا
  • تماس با ما
می‌خوانید: هوش مصنوعی: آیا در تشخیص دیپ‌فیک به ما کمک می‌کند؟
Notification بیشتر
تغییر اندازه فونتAa
تغییر اندازه فونتAa
روکیداروکیدا
  • اخبار فناوری
  • آموزش
  • گجت‌ها
  • فیلم و سریال
  • نرم افزار و اپلیکیشن
  • موفقیت و پیشرفت
  • خودرو
  • تبلیغات در روکیدا
  • تماس با ما
Search
  • اخبار فناوری
  • آموزش
  • گجت‌ها
    • اخبار موبایل و گجت ها
    • گجت های پوشیدنی
    • نقد و بررسی تخصصی گجت ها
    • راهنمای خرید
  • فیلم و سریال
  • نرم افزار و اپلیکیشن
  • موفقیت و پیشرفت
  • خودرو
  • تبلیغات در روکیدا
  • تماس با ما
© تمامی حقوق برای رسانه روکیدا محفوظ است.

روکیدا - عمومی

عمومی

هوش مصنوعی: آیا در تشخیص دیپ‌فیک به ما کمک می‌کند؟

امیرحسین حیدرزاده
امیرحسین حیدرزاده
Avatar photo
توسطامیرحسین حیدرزاده
Follow:
انتشار: سه شنبه , ۱۱ آذر ۱۳۹۹ ساعت ۱۷:۱۵
8 دقیقه
تشخیص ویدئو‌های دیپ – فیک با استفاده از هوش مصنوعی

آیا هوش مصنوعی توانایی تشخیص ویدئوهای دستکاری شده را دارد؟ در ادامه با روکیدا همراه شوید.

عنوان‌ها
تکنولوژی دیپ‌فیک چطور کار می‌کند؟آیا می‌توانیم تقلب در ویدئو را پیدا کنیم؟ آزمایش حقیقت

ویرایش‌گران ویدئو توانستند کلمات و حرف‌های یک سخنران را اصلاح کنند. یعنی جمله‌هایی را به سخنرانی او اضافه کنند یا از سخنرانی حذف کنند. به شکلی این کار را انجام دادند که قابل تشخیص نباشد.

شما برای تشخیص ویدئوهای دیپ‌فیک نیاز به افراد متخصص دارید. البته ممکن است افراد متخصص و سیستم‌های کامپیوتری هم متوجه این تغییرات نشوند.

این کار یک سال پیش با همکاری منیش آگراوالا از دانشگاه استنفورد انجام شد. کار آن‌ها نتیجه توسعه فناوری همگام سازی لب بوده است. این ابزار می‌تواند کلماتی که هرگز آن شخص استفاده نکرده را به ویدئو وارد کند.

این ابزار برای رفع ایرادات یک فیلم ساخته شد. سازندگان بدون تکرار فیلم برداری می‌توانستند ایرادات را برطرف کنند.

آیا فیلم یا سریال در کشور‌های مختلفی پخش می‌شود؟ با این ابزار حرکات لب بازیگران با زبان جدید همگام می‌شود.

از این فناوری می‌توان برای ساخت فیلم‌های دیپ‌فیک استفاده کرد. فیلم‌های دیپ فیک برای تغییر در واقعیت ایجاد می‌شوند. آن‌ها واقعیت را به شکل دیگری به شما نشان می‌دهند.

برای مثال: حزب جمهوری خواه از این تکنولوژی استفاده می‌کند. آن‌ها مصاحبه با معاون رییس جمهوری یعنی جو بایدن را تغییر می‌دهند.

شما امروز این مقاله را در روکیدا می‌خوانید. او در حال حاضر رییس جمهور منتخب ایالات متحده است.

تشخیص ویدئو‌های دیپ - فیک

تابستان امسال آگروالا و همکاران او از یک راه و روش جدید برای شناسایی فیلم‌های جعل شده رونمایی کردند. این کار در دانشگاه استنفورد و یوسی برکلی انجام شد.

برنامه جدید با تشخیص همسان نبودن صدای سخنران و حالت دهان آن‌ها کار می‌کند. این راه و روش جدید در 80 درصد مواقع ویدئو‌های جعلی را تشخیص می‌دهد.

اگراوالا هشدار داد که هیچ راه حل فنی و طولانی مدت برای پیدا کردن فیلم‌های دیپ‌فیک وجود ندارد.

او مدیر انستیتوی براون در استنفورد و استاد علوم رایانه‌ای است. آن‌ها در جهت نوآوری و رسانه کار می‌کنند. بخش‌ آن‌ها وابسته به موسسه هوش مصنوعی انسان محور استنفورد است.

او گفت: ما باید سطح سواد رسانه‌ای مردم را افزایش دهیم. با افزایش سواد رسانه‌ای، مردم اطلاعات غلط را تشخیص می‌دهند. این روش برای جلوگیری انتشار چنین ویدئو‌هایی مناسب است.

هر چقدر که فناوری‌ها در تولید ویدئو‌های دیپ فیک پیشرفت کند، توانایی فناوری برای شناسایی این ویدئو‌ها کمتر‌ و کمتر می‌شود. ما باید بر روی روش‌های غیر فنی کار کنیم.

اما فیلم دستکاری شده از جو بایدن با این تکنولوژی تشخیص داده نشد. این فیلم تقلبی توسط مصاحبه کننده با جو بایدن تشخیص داده شد. او گفت که سوالات در این فیلم تغییر داده شده است.

تشخیص ویدئو‌های دیپ - فیک

تکنولوژی دیپ‌فیک چطور کار می‌کند؟

دلایل زیادی برای دستکاری فیلم‌ وجود دارد. آیا شما یک نمایش تلویزیونی یا ویدئو تبلیغاتی می‌سازید؟ این تکنولوژی اصلاح اشتباهات شما را ارزان و آسان می‌کند. با این فناوری به راحتی می‌توانید متن را تغییر دهید.

این تکنولوژی بسیار مفید است، پس مشکل از کجا شروع می‌شود؟ برخی از افراد برای انتشار اطلاعات نادرست از این ابزار استفاده می‌کنند.

باید بدانید که بسیاری از تکنیک‌های این تکنولوژی قابل تشخیص نیستند. یعنی بدون این که متوجه شوید اطلاعات اشتباه دریافت می‌کنید.

بسیاری از ویدئوهای دیپ‌فیک بر پایه تغییر حالت چهره کار می‌کنند. یعنی به شکل فوق العاده‌ای صورت شخص را تغییر می‌دهند، انگار که شخص دیگری است!

اما تا زمانی که ابزار همگام سازی لب بتواند کاملا بی عیب باشد راه زیادی مانده است. این ابزار‌ها معمولا در تغییر یک ویدئو از خود ردپا به جا می‌گذارند. این ردپا می‌تواند دیجیتالی یا قابل تشخیص با چشم باشد. کامپیوترها می‌توانند آن‌ها را تشخیص دهند.

در طرف دیگر، فناوری‌های همگام سازی لب در حال پیشرفت هستند. آن‌ها با دقت بیش‌تری کار می‌کنند و تشخیص آن سخت‌تر می‌شود. فناوری‌های جدید قسمت کوچک‌تری از تصویر را تغییر می‌دهند. آن‌ها حرکات لب را به شکلی ایجاد می‌کنند که با حرکت دهان فرد یکسان باشد.

حرکات دهان شخص را دقیقا به شکل کلمه تغییر می‌دهند. آگراوالا می‌گوید: اگر نمونه‌های کافی از تصویر و صدای یک نفر در دسترس باشد. تولید کننده ویدئو‌های دیپ‌فیک می‌تواند از زبان او هر موردی را بگوید. حرف‌هایی که واقعا نگفته اما فیلم‌ آن‌ها وجود دارد.

تشخیص ویدئو‌های دیپ - فیک

آیا می‌توانیم تقلب در ویدئو را پیدا کنیم؟

 اگراوالا نگران استفاده غیر اخلاقی از این فناوری‌ها است. او در مورد این نگرانی با اوهد فرید همکاری کرد. آن‌ها در این همکاری یک ابزار شناسایی ساخته‌اند.

اوهد فرید دانشجوی فوق دکتری در دانشگاه استنفورد است. هانی فرید استاد دانشکده اطاعات یوسی برکلی است.

ایده اصلی بر اساس ناسازگاری‌ها بود. آن‌ها به دنبال نا سازگاری بین تلفظ یک حرف یا حالت دهان و صدای آن حرف بودند.

محققان به دهان فرد نگاه می‌کنند. برای به زبان آوردن حرف B، M یا P باید لب‌های خود را محکم فشار دهید. آیا دیپ‌فیک می‌تواند این کار را انجام دهد؟

محققان در ابتدا یک تکنیک دستی را امتحان کردند. آن‌ها از نظارت انسانی برای پیدا کردن نا سازگاری‌ها استفاده کردند. این روش به خوبی جواب داد اما حجم کار بسیار زیادی را ایجاد کرد. این روش به زمان زیادی هم نیاز داشت.

بعد از آزمایش با نظارت انسانی آن‌ها یک شبکه عصبی بر اساس هوش مصنوعی ساختند. این روش جدید بسیار سریع‌تر بود.

تحلیل این تکنولوژی از ویدئوی باراک اوباما با نظارت انسانی یکی بود. شبکه عصبی بیش‌تر از 90 درصد همگام سازی لب را در این ویدئو تشخیص داد.

البته دقت این شبکه عصبی در تشخیص سخنرانی‌های دیگر حدود 81 درصد بود.

 آزمایش حقیقت

محققان این آزمایش می‌گویند که کار آن‌ها بازی “موش و گربه”‌ است. هرچقدر که تکنیک‌های دیپ‌فیک پیشرفت می‌کند سرنخ‌های کمتری را پشت سر می‌گذارد.

آگروالا می‌گوید: در مدت زمان طولانی چالش ما مبارزه با فیلم‌های دیپ‌فیک نیست. ما باید با اطلاعات نادرست مبارزه کنیم.

بیش‌تر اطلاعات نا درست از تغییر معنای موردی است که سخنران گفته است. عده‌ای معنی حرف‌ها را تغییر می‌دهند.

باید بدانید که تشخیص دستکاری شدن یک ویدئو با تشخیص اطلاعات غلط یا گمراه کننده در ویدئو متفاوت است. ممکن است عده‌ای در یک ویدئو مردم را گمراه کنند. تشخیص این مسئله بسیار سخت‌تر است.

در نتیجه برای کاهش اطلاعات غلط باید سواد رسانه‌ای مردم را افزایش دهیم. در طرف دیگر حکومت‌ها باید توسعه پیدا کنند. یعنی قوانینی را علیه تولید عمدی اطلاعات نادرست تصویب کنند.

این قوانین باید شامل جریمه‌هایی بر علیه تولید کنندگان اطلاعات نادرست باشد. همچنین راه و روش‌هایی برای ترمیم آسیب‌های این اطلاعات نادرست باید ایجاد شود.

منبع: techxplore.com

مطلب قبلی ستاره شناسان نشانه‌هایی از حیات را در جو زهره کشف کردند. سیاره زهره: آیا خانه جدید خود را پیدا کرده‌ایم؟
مطلب بعدی چگونه ایفون را هات اسپات کنیم؟ چگونه از هات اسپات آیفون استفاده کنیم؟
بدون دیدگاه

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پربازدید‌ترین‌ها

لپ تاپ گیمینگ لژیون 9i با نمایشگر 18 اینچی معرفی شد
لپ تاپ گیمینگ لژیون 9i با نمایشگر 18 اینچی معرفی شد
4 دقیقه
حافظه SSD جدید اینودیسک با سرعت بالا و ظرفیت بی سابقه معرفی شد
حافظه SSD جدید اینودیسک با سرعت بالا و ظرفیت بی سابقه معرفی شد
4 دقیقه
گوگل طراحی جدید اندروید را لو داد
گوگل طراحی جدید اندروید را لو داد
5 دقیقه
قابلیت جدید چت جی پی تی برای مدیریت تصاویر اضافه شد
قابلیت جدید چت جی پی تی برای مدیریت تصاویر اضافه شد
4 دقیقه
حالت دسکتاپ اندروید در راه است
حالت دسکتاپ اندروید در راه است
4 دقیقه
6 برنامه رایگان ویندوز که پیشنهاد میشه روی سیستم جدید نصب کنید
6 برنامه رایگان ویندوز که پیشنهاد می شود روی سیستم جدید نصب کنید
8 دقیقه
قابلیت های هوش مصنوعی گلکسی S25 به گوشی های اقتصادی سری A سامسونگ رسید
قابلیت های هوش مصنوعی گلکسی S25 به گوشی های اقتصادی سری A سامسونگ رسید
3 دقیقه
هوش مصنوعی در ویندوز 11 تنظیمات خود را با یک فرمان تغییر دهید
هوش مصنوعی در ویندوز 11 تنظیمات خود را با یک فرمان تغییر دهید
3 دقیقه
آپدیت One UI 7 برای گوشی های قدیمی تر سامسونگ
آپدیت One UI 7 برای گوشی های قدیمی تر سامسونگ
5 دقیقه
اپل آیفون تاشو بدون خط نمایشگر تولید می کند
اپل آیفون تاشوی بدون خط نمایشگر تولید می کند
5 دقیقه
آیفون 17 با تغییرات محدود ظاهری اما پیشرفت های مهم سخت افزاری در راه است
آیفون 17 با تغییرات محدود ظاهری اما پیشرفت های مهم سخت افزاری در راه است
8 دقیقه
معرفی سرفیس لپ تاپ 13 اینچی و سرفیس پرو 12 اینچی با پردازنده اسنپدراگون X پلاس
معرفی سرفیس لپ تاپ 13 اینچی و سرفیس پرو 12 اینچی با پردازنده اسنپدراگون X پلاس
3 دقیقه
گلکسی اس 26 احتمالا فقط در اروپا با اگزینوس عرضه می شود
گلکسی اس 26 احتمالا فقط در اروپا با اگزینوس عرضه می شود
4 دقیقه
وصله جدید اینتل برای پردازنده های ناپایدار منتشر شد
وصله جدید اینتل برای پردازنده های ناپایدار منتشر شد
5 دقیقه

جالب از سراسر وب

محافظ برق

برقکار شبانه روزی

دوربین آنالوگ هایک ویژن

سرور مجازی ایران

خرید جم فری فایر

داکر

طراحی ربات تلگرام

خرید رمان انگلیسی زبان اصلی

مرتبط با همین مطلب

تمرین ۳۰ دقیقه ای فوری برای چربی سوزی و تقویت عضلات
زندگی

تمرین ۳۰ دقیقه ای فوری برای چربی سوزی و تقویت عضلات

4 دقیقه
دستگاه کنترل تردد بی‌ سیم یا کابلی؟ کدام برای شما مناسب‌تر است؟
عمومی

دستگاه کنترل تردد بی‌ سیم یا کابلی؟ کدام برای شما مناسب‌تر است؟

9 دقیقه
برج ۲ کیلومتری عربستان سازه ای که به آسمان می‌رسد 2
عمومی

برج ۲ کیلومتری عربستان: سازه ای که به آسمان می‌رسد

4 دقیقه
بررسی گوشی Xiaomi Civi 5 Pro
عمومی

بررسی گوشی Xiaomi Civi 5 Pro

3 دقیقه
روکیداروکیدا
© تمامی حقوق برای رسانه روکیدا محفوظ است.
Welcome Back!

Sign in to your account

Username or Email Address
Password

رمز عبور را فراموش کرده اید؟