روکیداروکیداروکیدا
  • اخبار فناوری
  • آموزش
  • گجت‌ها
    • اخبار موبایل و گجت ها
    • گجت های پوشیدنی
    • نقد و بررسی تخصصی گجت ها
    • راهنمای خرید
  • فیلم و سریال
  • نرم افزار و اپلیکیشن
  • موفقیت و پیشرفت
  • خودرو
  • تبلیغات در روکیدا
  • تماس با ما
می‌خوانید: هوش مصنوعی: آیا در تشخیص دیپ‌فیک به ما کمک می‌کند؟
اطلاع‌رسانی آپدیت‌ها
تغییر اندازه فونتAa
تغییر اندازه فونتAa
روکیداروکیدا
  • اخبار فناوری
  • آموزش
  • گجت‌ها
  • فیلم و سریال
  • نرم افزار و اپلیکیشن
  • موفقیت و پیشرفت
  • خودرو
  • تبلیغات در روکیدا
  • تماس با ما
Search
  • اخبار فناوری
  • آموزش
  • گجت‌ها
    • اخبار موبایل و گجت ها
    • گجت های پوشیدنی
    • نقد و بررسی تخصصی گجت ها
    • راهنمای خرید
  • فیلم و سریال
  • نرم افزار و اپلیکیشن
  • موفقیت و پیشرفت
  • خودرو
  • تبلیغات در روکیدا
  • تماس با ما
© تمامی حقوق برای رسانه روکیدا محفوظ است.

روکیدا - عمومی

عمومی

هوش مصنوعی: آیا در تشخیص دیپ‌فیک به ما کمک می‌کند؟

امیرحسین حیدرزاده
امیرحسین حیدرزاده
Avatar photo
توسطامیرحسین حیدرزاده
Follow:
انتشار: 11 آذر 1399 ساعت 13:49
8 دقیقه
تشخیص ویدئو‌های دیپ – فیک با استفاده از هوش مصنوعی

آیا هوش مصنوعی توانایی تشخیص ویدئوهای دستکاری شده را دارد؟ در ادامه با روکیدا همراه شوید.

عنوان‌ها
تکنولوژی دیپ‌فیک چطور کار می‌کند؟آیا می‌توانیم تقلب در ویدئو را پیدا کنیم؟ آزمایش حقیقت

ویرایش‌گران ویدئو توانستند کلمات و حرف‌های یک سخنران را اصلاح کنند. یعنی جمله‌هایی را به سخنرانی او اضافه کنند یا از سخنرانی حذف کنند. به شکلی این کار را انجام دادند که قابل تشخیص نباشد.

شما برای تشخیص ویدئوهای دیپ‌فیک نیاز به افراد متخصص دارید. البته ممکن است افراد متخصص و سیستم‌های کامپیوتری هم متوجه این تغییرات نشوند.

این کار یک سال پیش با همکاری منیش آگراوالا از دانشگاه استنفورد انجام شد. کار آن‌ها نتیجه توسعه فناوری همگام سازی لب بوده است. این ابزار می‌تواند کلماتی که هرگز آن شخص استفاده نکرده را به ویدئو وارد کند.

این ابزار برای رفع ایرادات یک فیلم ساخته شد. سازندگان بدون تکرار فیلم برداری می‌توانستند ایرادات را برطرف کنند.

آیا فیلم یا سریال در کشور‌های مختلفی پخش می‌شود؟ با این ابزار حرکات لب بازیگران با زبان جدید همگام می‌شود.

از این فناوری می‌توان برای ساخت فیلم‌های دیپ‌فیک استفاده کرد. فیلم‌های دیپ فیک برای تغییر در واقعیت ایجاد می‌شوند. آن‌ها واقعیت را به شکل دیگری به شما نشان می‌دهند.

برای مثال: حزب جمهوری خواه از این تکنولوژی استفاده می‌کند. آن‌ها مصاحبه با معاون رییس جمهوری یعنی جو بایدن را تغییر می‌دهند.

شما امروز این مقاله را در روکیدا می‌خوانید. او در حال حاضر رییس جمهور منتخب ایالات متحده است.

تشخیص ویدئو‌های دیپ - فیک

تابستان امسال آگروالا و همکاران او از یک راه و روش جدید برای شناسایی فیلم‌های جعل شده رونمایی کردند. این کار در دانشگاه استنفورد و یوسی برکلی انجام شد.

برنامه جدید با تشخیص همسان نبودن صدای سخنران و حالت دهان آن‌ها کار می‌کند. این راه و روش جدید در ۸۰ درصد مواقع ویدئو‌های جعلی را تشخیص می‌دهد.

اگراوالا هشدار داد که هیچ راه حل فنی و طولانی مدت برای پیدا کردن فیلم‌های دیپ‌فیک وجود ندارد.

او مدیر انستیتوی براون در استنفورد و استاد علوم رایانه‌ای است. آن‌ها در جهت نوآوری و رسانه کار می‌کنند. بخش‌ آن‌ها وابسته به موسسه هوش مصنوعی انسان محور استنفورد است.

او گفت: ما باید سطح سواد رسانه‌ای مردم را افزایش دهیم. با افزایش سواد رسانه‌ای، مردم اطلاعات غلط را تشخیص می‌دهند. این روش برای جلوگیری انتشار چنین ویدئو‌هایی مناسب است.

هر چقدر که فناوری‌ها در تولید ویدئو‌های دیپ فیک پیشرفت کند، توانایی فناوری برای شناسایی این ویدئو‌ها کمتر‌ و کمتر می‌شود. ما باید بر روی روش‌های غیر فنی کار کنیم.

اما فیلم دستکاری شده از جو بایدن با این تکنولوژی تشخیص داده نشد. این فیلم تقلبی توسط مصاحبه کننده با جو بایدن تشخیص داده شد. او گفت که سوالات در این فیلم تغییر داده شده است.

تشخیص ویدئو‌های دیپ - فیک

تکنولوژی دیپ‌فیک چطور کار می‌کند؟

دلایل زیادی برای دستکاری فیلم‌ وجود دارد. آیا شما یک نمایش تلویزیونی یا ویدئو تبلیغاتی می‌سازید؟ این تکنولوژی اصلاح اشتباهات شما را ارزان و آسان می‌کند. با این فناوری به راحتی می‌توانید متن را تغییر دهید.

این تکنولوژی بسیار مفید است، پس مشکل از کجا شروع می‌شود؟ برخی از افراد برای انتشار اطلاعات نادرست از این ابزار استفاده می‌کنند.

باید بدانید که بسیاری از تکنیک‌های این تکنولوژی قابل تشخیص نیستند. یعنی بدون این که متوجه شوید اطلاعات اشتباه دریافت می‌کنید.

بسیاری از ویدئوهای دیپ‌فیک بر پایه تغییر حالت چهره کار می‌کنند. یعنی به شکل فوق العاده‌ای صورت شخص را تغییر می‌دهند، انگار که شخص دیگری است!

اما تا زمانی که ابزار همگام سازی لب بتواند کاملا بی عیب باشد راه زیادی مانده است. این ابزار‌ها معمولا در تغییر یک ویدئو از خود ردپا به جا می‌گذارند. این ردپا می‌تواند دیجیتالی یا قابل تشخیص با چشم باشد. کامپیوترها می‌توانند آن‌ها را تشخیص دهند.

در طرف دیگر، فناوری‌های همگام سازی لب در حال پیشرفت هستند. آن‌ها با دقت بیش‌تری کار می‌کنند و تشخیص آن سخت‌تر می‌شود. فناوری‌های جدید قسمت کوچک‌تری از تصویر را تغییر می‌دهند. آن‌ها حرکات لب را به شکلی ایجاد می‌کنند که با حرکت دهان فرد یکسان باشد.

حرکات دهان شخص را دقیقا به شکل کلمه تغییر می‌دهند. آگراوالا می‌گوید: اگر نمونه‌های کافی از تصویر و صدای یک نفر در دسترس باشد. تولید کننده ویدئو‌های دیپ‌فیک می‌تواند از زبان او هر موردی را بگوید. حرف‌هایی که واقعا نگفته اما فیلم‌ آن‌ها وجود دارد.

تشخیص ویدئو‌های دیپ - فیک

آیا می‌توانیم تقلب در ویدئو را پیدا کنیم؟

 اگراوالا نگران استفاده غیر اخلاقی از این فناوری‌ها است. او در مورد این نگرانی با اوهد فرید همکاری کرد. آن‌ها در این همکاری یک ابزار شناسایی ساخته‌اند.

اوهد فرید دانشجوی فوق دکتری در دانشگاه استنفورد است. هانی فرید استاد دانشکده اطاعات یوسی برکلی است.

ایده اصلی بر اساس ناسازگاری‌ها بود. آن‌ها به دنبال نا سازگاری بین تلفظ یک حرف یا حالت دهان و صدای آن حرف بودند.

محققان به دهان فرد نگاه می‌کنند. برای به زبان آوردن حرف B، M یا P باید لب‌های خود را محکم فشار دهید. آیا دیپ‌فیک می‌تواند این کار را انجام دهد؟

محققان در ابتدا یک تکنیک دستی را امتحان کردند. آن‌ها از نظارت انسانی برای پیدا کردن نا سازگاری‌ها استفاده کردند. این روش به خوبی جواب داد اما حجم کار بسیار زیادی را ایجاد کرد. این روش به زمان زیادی هم نیاز داشت.

بعد از آزمایش با نظارت انسانی آن‌ها یک شبکه عصبی بر اساس هوش مصنوعی ساختند. این روش جدید بسیار سریع‌تر بود.

تحلیل این تکنولوژی از ویدئوی باراک اوباما با نظارت انسانی یکی بود. شبکه عصبی بیش‌تر از ۹۰ درصد همگام سازی لب را در این ویدئو تشخیص داد.

البته دقت این شبکه عصبی در تشخیص سخنرانی‌های دیگر حدود ۸۱ درصد بود.

 آزمایش حقیقت

محققان این آزمایش می‌گویند که کار آن‌ها بازی “موش و گربه”‌ است. هرچقدر که تکنیک‌های دیپ‌فیک پیشرفت می‌کند سرنخ‌های کمتری را پشت سر می‌گذارد.

آگروالا می‌گوید: در مدت زمان طولانی چالش ما مبارزه با فیلم‌های دیپ‌فیک نیست. ما باید با اطلاعات نادرست مبارزه کنیم.

بیش‌تر اطلاعات نا درست از تغییر معنای موردی است که سخنران گفته است. عده‌ای معنی حرف‌ها را تغییر می‌دهند.

باید بدانید که تشخیص دستکاری شدن یک ویدئو با تشخیص اطلاعات غلط یا گمراه کننده در ویدئو متفاوت است. ممکن است عده‌ای در یک ویدئو مردم را گمراه کنند. تشخیص این مسئله بسیار سخت‌تر است.

در نتیجه برای کاهش اطلاعات غلط باید سواد رسانه‌ای مردم را افزایش دهیم. در طرف دیگر حکومت‌ها باید توسعه پیدا کنند. یعنی قوانینی را علیه تولید عمدی اطلاعات نادرست تصویب کنند.

این قوانین باید شامل جریمه‌هایی بر علیه تولید کنندگان اطلاعات نادرست باشد. همچنین راه و روش‌هایی برای ترمیم آسیب‌های این اطلاعات نادرست باید ایجاد شود.

منبع: techxplore.com

مطلب قبلی ستاره شناسان نشانه‌هایی از حیات را در جو زهره کشف کردند. سیاره زهره: آیا خانه جدید خود را پیدا کرده‌ایم؟
مطلب بعدی چگونه ایفون را هات اسپات کنیم؟ چگونه از هات اسپات آیفون استفاده کنیم؟
بدون دیدگاه

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

جدیدترین مطالب

طراحی جدید آیفون با آیکون های Liquid Glass در iOS 261
طراحی جدید آیفون با آیکون های Liquid Glass در iOS 26
5 مرداد 1404 ساعت 21:52
آیفون 17 پرو با دوربین جدید وارد رقابت جدی با گلکسی اس اولترا و سونی اکسپریا می شود
آیفون ۱۷ پرو با دوربین جدید وارد رقابت جدی با گلکسی اس اولترا و سونی اکسپریا می شود
5 مرداد 1404 ساعت 21:45
طراحی جدید برای گلکسی S26 اولترا3
طراحی جدید برای گلکسی S26 اولترا
5 مرداد 1404 ساعت 21:39
هیجان پورشه تایکان با خودروهای برقی ارزان تر
هیجان پورشه تایکان با خودروهای برقی ارزان تر
5 مرداد 1404 ساعت 21:39
سامسونگ آماده خداحافظی با اس پن می شود1 scaled
سامسونگ آماده خداحافظی با اس پن می شود
5 مرداد 1404 ساعت 21:28
دویدن فقط 75 دقیقه در هفته چطور می تواند عمر شما را بیشتر کند و احساس جوانی به شما بدهد
دویدن فقط ۷۵ دقیقه در هفته چطور می تواند عمر شما را بیشتر کند و احساس جوانی به شما بدهد
5 مرداد 1404 ساعت 21:19
حذف امکان آنلاک بوت لودر از دستگاه های سامسونگ با One UI 8 1
حذف امکان آنلاک بوت لودر از دستگاه های سامسونگ با One UI 8
5 مرداد 1404 ساعت 21:14
شایعه درباره آیفون 17 پرو و سه ارتقای غیرمنتظره دوربین
آیفون ۱۷ پرو و شایعات جالب درباره سه ارتقای عجیب دوربین
5 مرداد 1404 ساعت 21:04

پربیننده‌ترین مطالب امروز

بی ام و برنامه ای برای حذف پیشرانه های شش سیلندر و هشت سیلندر ندارد
بی ام و برنامه ای برای حذف پیشرانه های شش سیلندر و هشت سیلندر ندارد
4 دقیقه
احتمال قطع همکاری اپل با تامین کننده اصلی نمایشگر آیفون
احتمال قطع همکاری اپل با تامین کننده اصلی نمایشگر آیفون
4 دقیقه
ظرفیت باتری آیفون فولد احتمالا بزرگ تر از همه گوشی های تاشو اس
ظرفیت باتری آیفون فولد احتمالا بزرگ تر از همه گوشی های تاشو است
4 دقیقه
گلکسی اس 26 سامسونگ احتمالا یک چت بات هوش مصنوعی جدید دارد
گلکسی اس ۲۶ سامسونگ احتمالا یک چت بات هوش مصنوعی جدید دارد
4 دقیقه
پردازنده نسل بعدی آیفون می تواند 500 برابر قدرتمندتر از چیپ اولین آیفون باشد
پردازنده نسل بعدی آیفون می تواند ۵۰۰ برابر قدرتمندتر از چیپ اولین آیفون باشد
4 دقیقه
عرضه آپدیت One UI 8 مبتنی بر Wear OS 6 برای گلکسی واچ اولترا1
عرضه آپدیت One UI 8 مبتنی بر Wear OS 6 برای گلکسی واچ اولترا
5 دقیقه
نمونه های حافظه HBM4 سامسونگ به زودی به دست انویدیا و ای ام دی می رسد 1
نمونه های حافظه HBM4 سامسونگ به زودی به دست انویدیا و ای ام دی می رسد
4 دقیقه
همه چیز درباره iOS 26 و قابلیت های جدید اپل برای آیفون scaled
راهنمای آی او اس ۲۶ و همه قابلیت های جدید آیفون
14 دقیقه

جالب از سراسر وب

محافظ برق

برقکار شبانه روزی

بیمه موبایل معلم

سرور مجازی ایران

خرید جم فری فایر

داکر

خرید آی پی ثابت

ویدئووال

کرم گاتیو

خرید فالوور

ساخت عکس هوش مصنوعی

فالوور واقعی اینستاگرام

خرید رمان انگلیسی زبان اصلی

مرتبط با همین مطلب

کووید می تواند باعث تجمع پلاک های مشابه آلزایمر در چشم و مغز شود3
زندگی

کووید می تواند باعث تجمع پلاک های مشابه آلزایمر در چشم و مغز شود

7 دقیقه
سلول های سرطانی با قند اعماق دریا از بین می روند
زندگی

سلول های سرطانی با قند اعماق دریا از بین می روند

4 دقیقه
چرا نباید شارژر خود را همیشه به برق بزنید؟
عمومی

چرا نباید شارژر خود را همیشه به برق بزنید؟

5 دقیقه
کشف کد مخفی در دی ان ای انسان توسط دانشمندان
زندگی

کشف کد مخفی در دی ان ای انسان توسط دانشمندان

7 دقیقه
روکیداروکیدا
© تمامی حقوق برای رسانه روکیدا محفوظ است.
Welcome Back!

Sign in to your account

Username or Email Address
Password

رمز عبور را فراموش کرده اید؟