روکیداروکیداروکیدا
  • اخبار فناوری
  • آموزش
  • گجت‌ها
    • اخبار موبایل و گجت ها
    • گجت های پوشیدنی
    • نقد و بررسی تخصصی گجت ها
    • راهنمای خرید
  • فیلم و سریال
  • نرم افزار و اپلیکیشن
  • موفقیت و پیشرفت
  • خودرو
  • تبلیغات در روکیدا
  • تماس با ما
می‌خوانید: قوانین جدید اپل برای حفاظت از امنیت کودکان چیست و چه اپلیکیشن‌هایی را شامل می‌شود؟
اطلاع‌رسانی آپدیت‌ها
تغییر اندازه فونتAa
تغییر اندازه فونتAa
روکیداروکیدا
  • اخبار فناوری
  • آموزش
  • گجت‌ها
  • فیلم و سریال
  • نرم افزار و اپلیکیشن
  • موفقیت و پیشرفت
  • خودرو
  • تبلیغات در روکیدا
  • تماس با ما
Search
  • اخبار فناوری
  • آموزش
  • گجت‌ها
    • اخبار موبایل و گجت ها
    • گجت های پوشیدنی
    • نقد و بررسی تخصصی گجت ها
    • راهنمای خرید
  • فیلم و سریال
  • نرم افزار و اپلیکیشن
  • موفقیت و پیشرفت
  • خودرو
  • تبلیغات در روکیدا
  • تماس با ما
© تمامی حقوق برای رسانه روکیدا محفوظ است.

روکیدا - اخبار موبایل و گجت ها

اخبار موبایل و گجت ها

قوانین جدید اپل برای حفاظت از امنیت کودکان چیست و چه اپلیکیشن‌هایی را شامل می‌شود؟

سمیرا گلکار
سمیرا گلکار
انتشار: سه شنبه , ۱۹ مرداد ۱۴۰۰ ساعت ۱۷:۵۴
14 دقیقه
امنیت کودکان

شرکت اپل امروز از تغییرات جدیدی در آیفون، آیپد و مک برای مراقبت هر چه بیشتر از کودکان خبر داد که شامل امکان امنیتی جدید برای اپلیکیشن Messages، پیشرفته تر شدن محتوای سوء استفاده جنسی از کودکان (CSAM) در آی‌کلود و به روزرسانی اطلاعات سیری و جستجو است.

عنوان‌ها
Messagesشناسایی محتوای CSAMSiri و جستجونظر کارشناسان

به گفته شرکت اپل این طرح جدید بلند پروازانه است اما مراقبت از کودکان مسئولیت مهمی است. به این ترتیب به گفته اپل این تلاش‌ها به مرور زمان رشد و گسترش پیدا می‌کنند.

Messages

message

اولین اعلامیه امروز مربوط به اضافه شدن یک قابلیت امنیتی جدید در اپلیکیشن Messages است. اپل توضیح داده که وقتی کودکی که در طرح iCloud Family است عکس‌های مربوط به سوء استفاده جنسی را دریافت یا ارسال می‌کند، یک پیام هشدار خواهد دید.

طبق توضیحات اپل وقتی کودکی تصاویر جنسی صریح دریافت می‌کند، این تصاویر تار شده و اپلیکیشن Messages یک هشدار نمایش می‌دهد با این متن که ممکن است این تصویر دارای حساسیت‌های خاصی باشد. اگر کودک روی View photo ضربه بزند، پیامی مشاهده می‌کند با این توضیحات که چرا این عکس حساس در نظر گرفته شده است.

در این متن توضیح داده شده که اگر کودک تصمیم به دیدن عکس بگیرد، پدر یا مادر او در iCloud Family یک اعلان دریافت می‌کنند حاوی لینکی برای دریافت راهنمایی و کمک بیشتر.

بعلاوه، اگر کودک بخواهد عکسی حاوی محتوای جنسی نامناسب ارسال کند، باز هم یک هشدار مشابه خواهد دید. به گفته اپل قبل از ارسال عکس برای کودک هشدار ارسال می‌شود و اگر سن او کمتر از 13 سال باشد، در صورت ارسال چنین پیام‌هایی، برای والدین هم یک پیام هشدار ارسال می‌شود.

اپل توضیح داده که Messages از یادگیری ماشینی برای تحلیل تصاویر پیوست و شناسایی محتوای جنسی استفاده می‌کند. iMessage همچنان رمزنگاری سرتاسری خواهد داشت و اپل به هیچ پیامی دسترسی ندارد. این قابلیت هم اختیاری خواهد بود.

به گفته اپل قرار است امسال با آپدیت iOS 15، iPadOS 15 و macOS Monterey این قابلیت برای اکانت‌هایی که به صورت خانوادگی در‌ای کلود تنظیم شده اند فعال شود. کاربران آمریکایی اولین گروهی خواهند بود که این قابلیت را دریافت می‌کنند.

شناسایی محتوای CSAM

شناسایی محتوای CSAM

بخش دوم و مهم تر اقدام جدید اپل، طی کردن گام‌های جدید برای مبارزه با “محتوای سوء استفاده جنسی از کودکان” یا به اختصار CSAM است. اپل توضیح داده که CSAM شامل محتوایی است که اقدامات جنسی را نشان می‌دهد که کودکان در آن دخیل هستند.

این قابلیت که امروز بخشی از آن لو رفت به اپل امکان می‌دهد که در صورت ذخیره تصاویر CSAM در آی‌کلود آنها را شناسایی کند. سپس اپل این موضوع را به “مرکز ملی رسیدگی به گم شدن و سوء استفاده از کودکان” گزارش می‌دهد که گزارش‌های CSAM را دریافت کرده و از طریق همکاری نزدیک با مقامات قانونی به آنها رسیدگی می‌کند.

اپل دائماً تأیید کرده که این قابلیت تشخیص CSAM با در نظر گرفتن حریم خصوصی کاربران طراحی شده است. به عبارتی این شرکت تصاویر موجود روی دستگاه شما را بررسی می‌کند تا با دیتابیس تصاویر CSAM ارائه شده توسط این مرکز تطبیق دهد. همه این فرایندها روی دستگاه انجام شده و اپل دیتابیس ذکر شده را در قالب یک مجموعه هش ناخوانا منتقل می‌کند که به صورت امن روی دستگاه‌های کاربران ذخیره می‌شوند.

طبق توضیحات اپل:

پیش از ذخیره یک عکس در آی‌کلود، یک فرایند تطبیق دهی روی دستگاه انجام می‌شود تا عکس را با یک مجموعه ناخوانا از هش‌های CSAM تطبیق دهد. این فرایند تطبیق دهی با استفاده از فناوری رمزنگاری انجام شده و به آن تطابق مجموعه‌های خصوصی گفته می‌شود که بدون افشا کردن نتیجه، مشخص می‌کند آیا تطبیقی وجود داشته یا خیر. تطبیق دهی مجموعه‌های خصوصی (PSI) به اپل امکان می‌دهد که تطبیق داشتن هش یک تصویر با هش عکس‌های شناخته شده در زمینه CSAM را تشخیص دهد بدون اینکه درباره هش عکس‌های غیرمنطبق اطلاعاتی افشا شود. همچنین PSI طوری پیاده سازی شده که در صورت وجود تطبیق کاربر از آن باخبر نمی‌شود.

اگر تطبیقی روی دستگاه وجود داشته باشد، یک سند امنیتی تهیه می‌شود که نتیجه در آن کدگذاری شده است. سپس فناوری به اسم به اشتراک گذاری مخفیانه حد آستانه مورد استفاده قرار می‌گیرد که اطمینان می‌دهد اپل امکان بررسی و تفسیر این سند امنیتی را ندارد مگر اینکه عکس‌های آی‌کلود از یک حد آستانه خاص که نشان دهنده CSAM بودن محتواست، عبور کنند.

به گفته اپل “مثلاً اگر یک داکیومنت مخفی به هزار بخش تقسیم شود و حد آستانه 10 باشد، در این صورت می‌توان با استفاده از هر یک از این 10 سهم، دوباره به آن داکیومنت مخفی رسید اما اگر تنها 9 سهم در اختیار داشته باشیم، هیچ اطلاعاتی درباره این داکیومنت مخفی افشا نخواهد شد.”

اپل حد آستانه مورد استفاده خودش – یعنی تعداد تطبیق‌های یک محتوا با CSAM برای فراهم شدن امکان تفسیر سندهای امنیتی – را مشخص نمی‌کند. اما وقتی تعداد تطبیق‌ها به این حد آستانه برسد، اپل به صورت دستی گزارش را بررسی می‌کند تا از تطبیق مطمئن شود و بعد محتوا را غیرفعال کرده و یک گزارش برای مرکز رسیدگی به پرونده‌های گم شدن و سوء استفاده از کودکان می‌فرستد.

این آستانه از این جهت مهم است که مانع از نشان گذاری غلط حساب‌های کاربری می‌شود. بررسی هم دستی هم یک گام دیگر اضافه می‌کند تا احتمال خطا به حداقل برسد و کاربران می‌توانند برای برگرداندن حساب کاربری خودشان یک درخواست ثبت کنند. به گفته اپل این سیستم نرخ خطای کمتر از 1 در 1 تریلیون در سال دارد. گرچه همه چیز روی دستگاه انجام می‌شود اما اپل تنها عکس‌هایی را تحلیل می‌کند که روی آی‌کلود ذخیره شده باشند. عکس‌هایی که کاملاً روی دستگاه خود کاربر ذخیره شده باشند در این فرایند مشارکت داده نمی‌شوند.

به گفته اپل این سیستم نسبت به اسکن تحت کلود مهم تر و ایمن تر است چون تنها کاربرانی را گزارش می‌دهد که محتوای CSAM دارند و نیازی به اسکن پیوسته همه عکس‌ها در کلود وجود ندارد.

قرار است این قابلیت اول برای آمریکا عرضه شود اما اپل امیدوار است که بتواند آن را برای سایر مناطق جهان نیز عرضه کند.

Siri و جستجو

Siri و جستجو

در نهایت، قرار است در Siri و Search هم تغییراتی ایجاد شود:

اپل قصد دارد با تأمین منابع بیشتر برای کمک به امنیت کودکان و والدین در فضای مجازی، راهنماهایی در Siri و Search پیاده سازی کند. مثلاً کاربرانی که از Siri بپرسند چطور می‌توانند محتوای CSAM یا سوء استفاده از کاربران را گزارش دهند به سمت منابع مفید هدایت می‌شوند.

همچنین این بخش از اکوسیستم اپل آپدیت می‌شود تا در صورتی که کاربر جستجوهایی مرتبط با CSAM انجام دهد، وارد عمل شده و مداخله کند. این مداخلات به کاربران توضیح می‌دهند که دیدن چنین محتوایی زیانبار و مشکل آفرین است و محتوای مفید برای مقابله با این مشکل را در اختیار آنها قرار می‌دهد.

قرار است امسال با عرضه iOS 15، iPadOS 15، watchOS 8 و macOS Monterey شاهد آپدیت بخش Siri و جستجو در اکوسیستم اپل باشیم.

نظر کارشناسان

John Clark مدیرعامل و رئیس مرکز گزارش سوء استفاده و مفقود شدن کودکان: توسعه مراقبت‌های اپل از کودکان حرکتی انقلابی و تحول آفرین است. با توجه به تعداد بسیار زیاد کاربرانی که از محصولات اپل استفاده می‌کنند این راهکارهای امنیتی می‌تواند به نجات زندگی کودکانی که در فضای آنلاین فریب خورده و تصاویر وحشتناکشان در اینترنت منتشر می‌شود، کمک کند. ما معتقدیم که تنها با انجام حرکات جدی می‌توان با این مشکل مقابله کرد. به لطف حرکات شرکت‌هایی مثل اپل حتماً می‌توانیم به این هدف برسیم. ما از اپل قدردانی می‌کنیم و به دنبال همکاری بیشتر در راستای ایمن سازی جهان برای کودکان خواهیم بود.

Julie Cordua مدیرعامل شرکت Thorn: ما در Thorn به حق داشتن حریم خصوصی در فضای آنلاین معتقدیم از جمله برای کودکانی که تصاویر سوء استفاده جنسی از آنها ضبط شده و بدون رضایتشان در اینترنت توزیع می‌شود. تعهد اپل برای پیاده سازی راهکارهای تکنولوژیکی که به مراقبت از حریم خصوصی و امنیت کاربران کمک می‌کند ما را یک مرحله به جهانی که در آن محتوای هر پلتفرم دیجیتال با سیستم تشخیص CSAM بررسی می‌شود نزدیک تر می‌کند؛ به جهانی که در آن هر کودک فرصت کودک بودن را دارد.

Stephen Balkam، مدیر و بنیانگذار مؤسسه امنیت آنلاین خانواده: ما از تغییرات مستمر رویکرد اپل برای مراقبت از امنیت آنلاین کودکان حمایت می‌کنیم. با توجه به چالش‌های پیش روی والدین برای حفاظت از کودکان خودشان در فضای آنلاین بسیار مهم است که شرکت‌های تکنولوژیکی دائماً ابزارهای امنیتی خودشان را به روزرسانی کنند تا به خطرات ایجاد شده برای کودکان واکنش نشان دهند.

Eric Holder دادستان کل سابق آمریکا: افزایش وحشتناک حجم محتوای سوء استفاده جنسی از کودکان چالشی است که باید با ابتکار از سوی اهالی فناوری رفع شود. تلاش‌های جدید شرکت اپل برای شناسایی محتوای CSAM گام مهمی است که نشان می‌دهد نیاز نیست مراقبت از امنیت کودکان با هزینه تجاوز به حریم خصوصی انجام شود و نشانی دیگر از جدیت همیشگی شرکت اپل برای تبدیل کردن جهان به جایی بهتر برای زندگی و محافظت پیوسته از حریم خصوصی مشتریان این شرکت است.

George Terwilliger دستیار پیشین دادستان کل ایالات متحده: اعلامیه اپل گام بسیار مهم و مثبتی برای توانمندسازی والدین و نهادهای قانونی جهت مقابله با آسیب رسیدن به کودکان با محتوای CSAM است. با توجه به گسترش تلاش‌های شرکت اپل برای تشخیص و گزارش CSAM، حالا مقامات قانونی بهتر می‌توانند تهدیدکنندگان کودکان را شناسایی و متوقف کنند.

Benny Pinkas استاد دانشکده علوم کامپیوتر در دانشگاه Bar Ilan: سیستم PSI شرکت اپل توازن بسیار خوبی بین حریم خصوصی و کاربرد برقرار کرده و به شناسایی محتوای CSAM کمک زیادی می‌کند؛ در عین حال حریم خصوصی کاربران را حفظ کرده و تشخیص‌های مثبت کاذب را به حداقل می‌رساند.

Mihir Bellare، استاد علوم کامپیوتر و مهندسی دانشگاه سن دیگو: مقابله با محتوای CSAM گام مهمی است اما پیاده سازی آن نیاز به دقت دارد. انجام این کار به صورت ساده مستلزم اسکن همه عکس‌های آی‌کلود کاربران است اما ممکن است این تصاویر شامل لحظات خصوصی زندگی ما باشد. کاربران خواهان مخفی ماندن این تصاویر در برابر دسترسی‌های اپل هستند. به همین ترتیب هرگز نباید دیتابیس عکس‌های CSAM منتشر شود یا در دسترس کاربران قرار بگیرد. اپل راهی برای تشخیص و گزارش دادن متخلفان CSAM همزمان با حفظ حریم خصوصی کاربران پیدا کرده است.

David Forsyth رئیس علوم کامپیوتر در دانشگاه ایلینوی: رویکرد اپل نسبت به روش‌هایی که من به شخصه از آنها اطلاع دارم قابلیت بیشتری برای حفاظت از خصوصی کاربران دارد. به نظر من این سیستم می‌تواند احتمال پیدا شدن کاربرانی که محتوای CSAM دارند یا مبادله می‌کنند را افزایش دهد. انتظار می‌رود که برای کاربران معمولی نفوذ به حریم خصوصی حداقل یا صفر باشد چون تنها در صورتی که تعداد تطبیق‌های یک عکس با تصاویر CSAM کافی باشد و با تصاویر CSAM شناخته شده انطباق داشته باشند، اپل امکان مشاهده محتوای آن را خواهد داشت. دقت این سیستم تطبیق دهی به همراه آستانه‌های تعریف شده باعث شده که احتمال نمایش محتوای تصاویری که مربوط به CSAM نیستند برای کاربران بسیار کم باشد.

 

 

برچسب‌ها:آی او اسآیفوناپل
مطلب قبلی تقویت کننده وای فای چگونه تقویت کننده وای فای را نصب کنیم؟
مطلب بعدی 1 2 چرا باید مشاور برند استخدام کنیم؟
بدون دیدگاه

دیدگاهتان را بنویسید لغو پاسخ

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

جدیدترین مطالب

ترفند جدید اپل نوت با یک دکمه ساده دو قابلیت پنهان را فعال می کند
ترفند جدید اپل نوت با یک دکمه ساده دو قابلیت پنهان را فعال می کند
3 دقیقه
دکمه های لمسی به آیفون و اپل واچ می آیند
دکمه های لمسی به آیفون و اپل واچ می آیند
3 دقیقه
ویژگی امنیتی جدید اندروید 16 زودتر از انتظار فعال شد1
ویژگی امنیتی جدید اندروید 16 زودتر از انتظار فعال شد
4 دقیقه
پایان راه برای فورد فوکوس
پایان راه برای فورد فوکوس ST
3 دقیقه
همه چیز درباره شایعات جدید آیفون 17 scaled
همه چیز درباره شایعات جدید آیفون 17
3 دقیقه
آیفون 17 معمولی بدون تراشه جدید و رم 12 گیگابایتی عرضه می شود scaled
آیفون 17 معمولی بدون تراشه جدید و رم 12 گیگابایتی عرضه می شود
4 دقیقه
آیفون 17 بدون تغییرات مهم فقط کمی بزرگ تر شده
آیفون 17 بدون تغییرات مهم فقط کمی بزرگ تر شده
3 دقیقه
احتمال عدم استفاده از تراشه Exynos در گلکسی Z Flip7 scaled
احتمال عدم استفاده از تراشه Exynos در گلکسی Z Flip7
3 دقیقه
۵ روش فوق العاده برای استفاده بهتر از ChatGPT
۵ روش فوق العاده برای استفاده بهتر از ChatGPT
6 دقیقه
هوش مصنوعی Grok وارد تلگرام شد
هوش مصنوعی Grok وارد تلگرام شد
5 دقیقه

پربازدید‌ترین‌ها

اپل اپلیکیشن مخصوص بازی را در iOS 19 معرفی می کندگ
اپل اپلیکیشن مخصوص بازی را در iOS 19 معرفی می کند
3 دقیقه
اپل خودش مانع موفقیت Apple Intelligence شد
اپل خودش مانع موفقیت Apple Intelligence شد
7 دقیقه
آپدیت One UI 7 برای گوشی گلکسی A05s منتشر شد
آپدیت One UI 7 برای گوشی گلکسی A05s منتشر شد
2 دقیقه
آیفون 17 پرو مکس با طراحی جدید و بدنه ضخیم تر دیده شد
آیفون 17 پرو مکس با طراحی جدید و بدنه ضخیم تر دیده شد
3 دقیقه
چرا قدرت تویوتا RAV4 مدل 2026 در اروپا کمتر است؟
چرا قدرت تویوتا RAV4 مدل 2026 در اروپا کمتر است؟
3 دقیقه
اپلیکیشن Reminder سامسونگ در One UI 8 تغییر می کند
اپلیکیشن Reminder سامسونگ در One UI 8 تغییر می کند
4 دقیقه
اپل احتمالا از iOS 26 در رویداد WWDC 2025 رونمایی می کند
اپل احتمالا از iOS 26 در رویداد WWDC 2025 رونمایی می کند
4 دقیقه
آی او اس 26 با ویژگی جدید باتری معرفی می شود
آی او اس 26 با ویژگی جدید باتری معرفی می شود
4 دقیقه
بررسی تبلت Idea Tab Pro لنوو scaled
نقد و بررسی تبلت Idea Tab Pro لنوو
9 دقیقه
قانون سه کلمه ای برای گرفتن پاسخ های حرفه ای از چت جی پی تی
قانون سه کلمه ای برای گرفتن پاسخ های حرفه ای از چت جی پی تی
4 دقیقه
معرفی ولوو XC70 جدید
معرفی ولوو XC70 جدید
5 دقیقه
شایعات بزرگ در مورد iOS 19
شایعات بزرگ در مورد iOS 19
7 دقیقه
وزن آیفون 17 ایر و جزئیاتی از بدنه و باتری فاش شد
وزن آیفون 17 ایر و جزئیاتی از بدنه و باتری فاش شد
4 دقیقه
اپل قرار است آیفون را طی سه سال آینده باز طراحی کند
اپل قرار است آیفون را طی سه سال آینده باز طراحی کند
6 دقیقه

جالب از سراسر وب

محافظ برق

برقکار شبانه روزی

بیمه موبایل معلم

سرور مجازی ایران

خرید جم فری فایر

داکر

خرید سی پی فوری

هاست ووکامرس ارزان

آموزش مکانیک خودرو

تعمیر تلویزیون هیمالیا

خرید رمان انگلیسی زبان اصلی

مرتبط با همین مطلب

آموزش کامل استفاده از Quick Share در اندروید
آموزش

آموزش کامل استفاده از Quick Share در اندروید

5 دقیقه
گوگل فلو تی وی تجربه ای تازه از تماشای ویدیوهای هوش مصنوعی
نرم افزار و اپلیکیشن

گوگل فلو تی وی تجربه ای تازه از تماشای ویدیوهای هوش مصنوعی

6 دقیقه
کلاستور پلتفرمی کاربردی برای دانش آموزان و والدین آن ها
نرم افزار و اپلیکیشن

کلاستور پلتفرمی کاربردی برای دانش آموزان و والدین آن ها

7 دقیقه
سامسونگ به دنبال دوربین های نازک تر در سری گلکسی S26
اخبار موبایل و گجت ها

سامسونگ به دنبال دوربین های نازک تر در سری گلکسی S26

2 دقیقه
روکیداروکیدا
© تمامی حقوق برای رسانه روکیدا محفوظ است.
Welcome Back!

Sign in to your account

Username or Email Address
Password

رمز عبور را فراموش کرده اید؟