فهرست عنوانها
اینترنت باعث راحت تر شدن خیلی از کارها شده از برقراری تماس با دوستان و خانواده گرفته تا کار کردن از راه دور. این سیستم متشکل از کامپیوترهای به هم پیوسته، مزایای بی شماری دارد اما بدون ایراد هم نیست.
بر خلاف کشورها و دولتها، اینترنت یک شبکه جهانی است و هیچ دولت یا مقام خاصی بر آن کنترل ندارد. در نتیجه احتمال وقوع جرم و جنایت در آن زیاد است و به سختی میتوان مانع از بروز مشکل برای کودکان شده و مجرمان سایبری را برای جرایمی که مرتکب شده اند، شناسایی و مجازات کرد.
اما فناوری جدیدی که شرکت مایکروسافت به طراحی آن کمک کرده یعنی PhotoDNA میتواند ما را به حفظ امنیت کودکان و بزرگسالان در فضای آنلاین یک گام نزدیک تر کند.
PhotoDNA چیست؟
PhotoDNA یک ابزار شناسایی تصویر است که اولین بار در سال 2009 طراحی شد. گرچه این فناوری در اصل توسط مایکروسافت پشتیبانی میشود اما با همکاری پروفسور هینی فرید از کالج دارتموث طراحی شد که متخصص تحلیل تصاویر دیجیتال است. کاربرد PhotoDNA شناسایی تصاویر غیرقانونی از جمله محتوای نشان دهنده سوء استفاده جنسی از کودکان (Child Sexual Abuse Material یا به اختصار CSAM) است.
همچنان که استفاده از گوشیهای هوشمند، دوربینهای دیجیتال و اینترنت پرسرعت متداول تر میشود، حجم محتوای CSAM هم در فضای آنلاین بیشتر و بیشتر میشود. برای شناسایی و حذف چنین تصاویری به همراه سایر محتوای غیرقانونی، دیتابیس PhotoDNA حاوی میلیونها رکورد از تصاویری است که به عنوان تصاویر سوء استفاده جنسی از کودکان شناخته شده اند.
مایکروسافت این سیستم را اداره میکند و این دیتابیس توسط مرکز ملی رسیدگی به پروندههای سوء استفاده و مفقود شده کودکان (NCMEC) در آمریکا نگهداری میشود. این سازمان برای مقابله با سوء استفاده از کودکان تأسیس شده است. تصاویری که به این مرکز گزارش شوند، وارد دیتابیس تصاویر سوء استفاده جنسی از کودکان میشوند.
گرچه PhotoDNA تنها سرویس جستجوی تصاویر CSAM نیست اما یکی از متداول ترین روشها در این زمینه محسوب شده و شامل تصاویری از سرویسهای مختلف از جمله ردیت، توئیتر و محصولات شرکت گوگل است. قبلاً PhotoDNA به صورت فیزیکی و در محیط نصب میشد اما حالا مایکروسافت آن را روی سرویس تحت ابر PhotoDNA نصب میکند. به این ترتیب سازمانهای کوچکی که فاقد زیرساختهای عظیم هستند میتوانند سیستم تشخیص تصاویر CSAM را اجرا کنند.
PhotoDNA چگونه کار میکند؟
وقتی کاربران اینترنت یا نهادهای اجراکننده قانون به تصاویر سوء استفاده جنسی از کودکان برخورد کنند، آنها را از طریق وبگاه CyberTipline به مرکز NCMEC گزارش میدهند. بعد از آن این تصاویر در یک کاتالوگ قرار گرفته و اطلاعات مربوطه با نهادهای مسئول رسیدگی به این امر اشتراک گذاشته میشود. این تصاویر به PhotoDNA آپلود میشوند که بعد آنها را تنظیم کرده و برای هر عکس یکسری کد هش یا امضای دیجیتال ایجاد میکند.
برای دستیابی به این هش منحصربفرد، عکس سیاه و سفید شده، به یکسری مربع تقسیم شده و نرمافزار خروجی این کار را تحلیل میکند. سپس هش منحصربفرد عکس به دیتابیس PhotoDNA اضافه شده، بین مراکز فیزیکی و سرویس ابر PhotoDNA به اشتراک گذاشته میشود.
شرکتهای ارائه دهنده نرمافزار، نهادهای اجراکننده قانون و سایر سازمانهای مورد اعتماد میتوانند قابلیت اسکن PhotoDNA را در محصولات، نرم افزارهای تحت ابر و سایر رسانههای ذخیره اطلاعات پیاده سازی کنند. سپس این سیستم تصاویر را اسکن کرده، آنها را به یک عدد هش منحصربفرد تبدیل کرده و با دیتابیس هشهای CSAM مقایسه میکند.
اگر تطبیقی پیدا شود، به سازمان مربوطه اطلاع داده شده و جزئیات برای پیگیری بیشتر به نهادهای قانونی ارسال میشود. سپس تصاویر از روی سرویس مورد نظر حذف شده و حساب کاربر تعلیق میشود.
مهم تر اینکه، هیچ گونه اطلاعاتی درباره عکسهای شما ذخیره نمیشود و این سرویس به صورت کاملاً خودکار و بدون مداخله انسان کار میکند و نمیتوان با استفاده از عدد هش، تصاویر را بازسازی کرد.
از سال 2015 سازمانها امکان استفاده از PhotoDNA برای تحلیل ویدیوها را هم پیدا کردند.
در آگوست 2021، اپل و چند شرکت بزرگ دیگر خبر دادند که از یک سرویس جدید برای اسکن کردن عکسهای آیفون کاربران جهت پیدا کردن محتوا CSAM استفاده میکنند.
طبیعتاً خیلیها این اقدام را با موضع همیشگی اپل در راستای حفاظت از حریم خصوصی کاربران مغایر میدانستند و خیلیها نگران شدند که ممکن است به تدریج تصاویر غیر CSAM هم مشمول این اسکنها شوند و به این ترتیب یک در پشتی جدید برای نفوذ و نظارت نهادهای قانونی ایجاد شود.
آیا PhotoDNA از تکنولوژی تشخیص چهره استفاده میکند؟
امروزه تقریباً همه ما با الگوریتمها آشنا هستیم. الگوریتمها که یکسری دستورالعمل کدگذاری شده هستند، مطالب جذاب و مورد علاقه ما را در فید شبکههای اجتماعی نمایش میدهند، از سیستمهای تشخیص چهره پشتیبانی میکنند و حتی میتوانند تصمیم بگیرند که آیا ما میتوانیم در یک مصاحبه شغلی قبول شویم یا در دانشگاه پذیرش شویم یا خیر.
شاید تصور کنید که پایه و اساس PhotoDNA را الگوریتمها تشکیل میدهند اما تشخیص خودکار عکس به این روش بسیار دردسر آفرین است. مثلاً ممکن است این اقدام تجاوز به حریم خصوصی تلقی شود بعلاوه الگوریتمها همیشه هم خیلی دقیق نیستند.
مثلاً مشکلات گوگل در زمینه نرمافزار تشخیص چهره این شرکت مشخص و ثبت شده است. اولین بار که گوگل فوتوز راه اندازی شد، افراد سیاه پوست را به اشتباه گوریل شناسایی میکرد. در ماه مارس سال 2017 به یکی از اعضای کمیته نظارتی کاخ سفید گفته شد که الگوریتمهای تشخیص چهره 15 درصد مواقع اشتباه میکنند و احتمال اینکه در تشخیص افراد سیاه پوست دچار مشکل شوند، بیشتر است.
این نوع الگوریتمهای یادگیری ماشینی روزبروز پرکاربردتر میشوند اما ممکن است نظارت درست و کارآمد بر آنها سخت باشد. اساساً نرمافزار تصمیم گیریهای خودش را انجام میدهد و شما باید با مهندسی معکوس تشخیص دهید که چطور به یک خروجی خاص رسیده است.
متأسفانه با توجه به نوع محتوایی که PhotoDNA در جستجوی آن است، تشخیص غلط توسط این نرمافزار میتواند فاجعه بار باشد اما این نرمافزار متکی بر تکنولوژی تشخیص چهره نیست و فقط عکسهای از قبل شناسایی شده را با یک هش شناخته شده پیدا میکند.
فیسبوک چگونه از PhotoDNA استفاده میکند؟
فیسبوک، به عنوان مالک و گرداننده یکی از محبوب ترین شبکههای اجتماعی جهان هر روزه با انبوهی از محتوای ارسالی کاربران سروکار دارد. گرچه پیدا کردن اطلاعات دقیق در این زمینه برای حال حاضر سخت است اما تحلیلهای سال 2013 نشان داد که هر روز حدود 350 میلیون عکس به فیسبوک بارگذاری میشود.
به احتمال زیاد با پیوستن اشخاص بیشتر به این پلتفرم شاهد بیشتر شدن این رقم خواهیم بود به خصوص با توجه به اینکه فیسبوک شبکههای اجتماعی و پلتفرمهای محبوب مختلفی (مثل اینستاگرام و واتساپ) را اداره میکند و امروزه همه ما دسترسی راحت تری به دوربین گوشیهای هوشمند و اینترنت پرسرعت داریم. با توجه به نقش فیسبوک در جامعه، این شرکت هم باید به دنبال راهی برای کاهش و حذف محتوای کودک آزاری و سایر انواع محتوای غیرقانونی باشد.
خوشبختانه این شرکت خیلی زود به این مسئله پرداخت و در سال 2011 تصمیم به استفاده از سرویس PhotoDNA شرکت مایکروسافت گرفت. این سیستم بیش از یک دهه پیش معرفی شد؛ با این حال اطلاعات کمی درباره میزان اثربخشی آن در دست است اما 91 درصد از همه گزارشهای محتوای کودک آزاری در سال 2018 مربوط به فیسبوک و پیام رسان فیسبوک بودند.
آیا PhotoDNA باعث امن تر شدن فضای اینترنت میشود؟
بدون شک این سرویس طراحی شده توسط شرکت مایکروسافت یک ابزار مهم و ضروری محسوب میشود. PhotoDNA نقش مهمی در پیشگیری از انتشار تصاویر سوء استفاده جنسی از کودکان داشته و حتی میتواند به کودکانی که در معرض خطر هستند کمک کند.
اما ایراد اصلی این سیستم این است که فقط امکان جستجوی تصاویر از قبل شناسایی شده را دارد. اگر هش یک عکس در PhotoDNA ذخیره نشده باشد، امکان شناسایی تصاویر کودک آزاری مربوطه هم وجود ندارد.
امروزه ضبط و آپلود عکسهای رزولوشن بالا بسیار راحت تر از همیشه شده و کودک آزاران هر روز بیشتر به سمت پلتفرمهای ایمن تری مثل دارک وب و پیام رسانهای رمزنگاری شده حرکت میکنند تا محتوای غیرقانونی را منتشر کنند. اگر قبلاً درباره دارک وب مطالعه نکردید، توصیه میکنیم که با مطالعه مقالههای مفید، اطلاعات خودتان را درباره این بخش از اینترنت گسترش دهید.