انارمگ
۰

حفظ امنیت کودکان در ios 15; سیستم اسکن CSAM اپل و هر آن‌چه باید درباره آن بدانید

امنیت کودکان در ios15

اپل در گزارشی سه فناوری جدید را در جهت در حفظ امنیت کودکان از تصاویر کودک‌آزاری معرفی کرد. با این فناوری تمامی عکس‌هایی که در آیکلود بارگذاری می‌شوند جهت جلوگیری از سو استفاده جنسی کودکان اسکن خواهد شد. این مورد بسیار مورد نقد و بررسی قرار گرفته و خشم برخی از کاربران اپل را نیز بر انگیخته است. در این مطلب از انارمگ، هر آن‌چه درباره‌ی سیستم جدید حفظ امنیت کودکان در ios 15 با استفاده از فناوری اسکن اپل باید بدانید را برایتان آورده‌ایم.

آخرین اخبار اپل درباره‌ی اسکن CSAM

در ۱۳ اوت کریگ فدریگی، معاون اول نرم افزار اپل در مصاحبه‌ای با وال استریت ژورنال گفت: طرز کار این سیستم به‌طور گسترده‌ای مورد تحریف و سواستفاده قرار گرفته است. وی در ادامه نحوه‌ی کار سیستم را توضیح داد که در ادامه برایتان آورده‌ایم. اپل همچنین جزئیاتی درباره‌ی ویژگی‌های امنیتی در Messages و ویژگی تشخیص CSAMمنتشر کرد.

گزارشی در رویترز اعلام کرد که صدها پیام نگران‌کننده درباره‌ی این سیستم در کانال اپل منتشر شد.

حفظ امنیت کودکان در ios 15

حفظ امنیت کودکان در ios 15

اصول اولیه

فناوری‌ جدید اپل چیست؟

اپل ویژگی‌های جدید anti-CSAM خود را در سه حوزه‌ی Messages ،iCloud Photos و Siri ارائه می‌دهد. نحوه‌ی اجرای هر یک از آن ها با توجه به گفته‌های اپل در اینجا آمده است.

Messages: برنامه‌ی Messages از یادگیری ماشینی در دستگاهای اپل برای هشدار به کودکان و والدین در مورد محتوای حساس استفاده می‌کند.

iCloud Photos: قبل از ذخیره‌ی تصاویر در iCloud Photos یک فرایند روی دستگاه‌ اپل برای آن تصویر در برابر هشدار های شناخته شده‌ی CSAM انجام می‌شود.

Siri و Search: در Siri و Search منبع اضافی را برای کمک به کودکان و والدین برای حفظ امنیت آنلاین و دریافت پیام در شرایط نا امن فراهم می‌کند.

سیستم جدید چه زمانی اجرایی می‌شود؟

اپل می‌گوید که ویژگی جدید Messages و iCloud Photos و Siri در iOS 15 و iPadOS ۱۵ و macOS عرضه خواهد شد. اپل اعلام نکرده است که این ویژگی‌ها همزمان با ورود iOS 15 عرضه می‌شود یا خیر، بنابراین احتمال دارد که در بروزرسانی‌های بعدی ارائه شود. برای اسکن iCloud Photos نیز تاریخ مشخصی اعلام نشده است اما به احتمال زیاد اواخر امسال وارد بازار می‌شود.

حفظ امنیت کودکان در ios 15

حفظ امنیت کودکان در ios 15

دلیل معرفی این سیستم چیست؟

کریگ فدریگی در مصاحبه با وال استریت ژورنال گفت: “دلیل انتشار آن با ios 15  این است که ما آن را کشف کرده‌ایم! “

اسکن CSAM

آیا فناوری اسکن به این معنا است که اپل می‌تواند تصاویر کاربران را ببیند؟

نه دقیقا. اپل این فناوری را این‌گونه توضیح می‌دهد: «به جای اسکن تصاویر در آیکلود، این سیستم با استفاده از پایگاه داده‌های متشکل از هشدارهای شناخته‌شده CSAM که توسط سازمان امنیت کودکان NCMEC و دیگر سازمان‌های حمایت از حقوق کودکان تهیه شده است، مطابقت تصاویر را بررسی می کند. اپل این پایگاه داده را به مجموعه‌ای از هشدارهای ناخوشایند تبدیل و بطور ایمن در دستگاه کاربران ذخیره می‌کند.» همانطور که اپل توضیح می‌دهد این سیستم به شدت به دنبال تصاویر خاص و شناحته شده است. یک کارمند اپل فقط مسئول است که تصاویر قابل هشدار را برچسب‌گذاری کند و سیستم هر زمان با آن ها تلاقی داشته باشد هشدار می‌دهد.

آیا این که اپل تصاویر دستگاه کاربران را اسکن می‌کند درست است؟

جواب هم بله است و هم خیر. این یک سیستم چند وجهی است. اپل می‌گوید این سیستم برای کسانی که iCloud Photos را در آیفون خود غیر فعال کرده‌اند کار نمی‌کند. البته هنوز مسخص نیست که این اسکن تنها روی تصاویر بارگذاری شده در iCloud Photos انجام می‌شود یا همه‌ی تصاویر. اما این مشخص است که نتایج اسکن ( و این که هم‌خوانی دارد یا خیر ) تنها زمانی همراه تصاویر ارسال می‌شود که در آیکلود بارگذاری شده باشد. اپل می‌گوید: آیکلود نیمی دیگر از الگوریتم را انجام می‌دهد. بنابراین در حالی‌ که تصاویر روی دستگاه اسکن می‌شوند برای تکمیل کار به آیکلود نیاز است. وی با تاکید می‌گوید که این سیستم عینا قسمتی از پروسه خطی ذخیره‌ی تصاویر در آیکلود است.

اگر سیستم تصاویر CSAM را تشخیص دهد چه اتفاقی خواهد افتاد؟

از آن جایی که سیستم تنها با تصاویر CSAM ارائه شده توسط NCMEC کار می‌کند، فقط تصاویری را گزارش می‌دهد که در تصاویر CSAM داخل iCloud Photos شناخته شده‌اند. آستانه‌ی تشخیص CSAM چیزی حدود ۳۰ ثانیه است. اپل قبل از این که تصمیم بگیرد به NCMEC گزارش بدهد یک بررسی انسانی انجام می‌دهد. هیچ گزارش خودکاری هم به مراجع قانونی وجود ندارد.

آیا ممکن است سیستم تصویر واقعی کودک را به عنوان یک تصویر CSAM تشخیص دهد؟

این مورد بسیار بعید به نظر می‌رسد زیرا که سیستم فقط برای تشخیص تصاویر شناخته شده طراحی شده است. اپل می‌گوید امکان این که سیستم تصویری را به اشتباه تشخیص دهد کمتر از یک تریلیون است و حتی قبل از این که این اتفاق بیفتد یک بررسی انسانی قبل از گزارش به مقامات قانونی صورت خواهد گرفت. علاوه بر این‌ها فرایند تجدید نظر برای هر کسی که احساس می‌کند حساب او به اشتباه تشخیص داده شده است وجود دارد.

آیا می‌توان از اسکن تصاویر CSAM در iCloud Photos جلوگیری کنیم؟

نه این امکان وجود ندارد. تنها راه این است که iCloud Photos را برای جلوگیری از کار این سیستم غیر فعال کنیم. هنوز کاملا مشخص نیست که آیا این کار باعث می‌شود که اسکن تصاویر روی دستگاه اپل بطور کامل غیر فعال شود یا خیر. اما قطعی است که این اسکن‌ها تنها هنگامی که تصاویر در iCloud Photos بازگذاری شود توسط اپل بررسی خواهد شد.

حفظ امنیت کودکان در ios 15

حفظ امنیت کودکان در ios 15

Messages

آیا اپل تمام تصاویر ما در پیام‌ها را نیز اسکن می‌کند؟

نه. تدابیر ایمنی اپل در پیام‌ها تنها برای محافظت از کودکان طراحی شده است و فقط برای حساب‌های مخصوص کودکان که در iCloud توسط خانواده ایجاد شده، اعمال می‌شود.

 ساز و کار سیستم چگونه است؟

امنیت در پیام‌ها برای کودکان یک سیستم متفاوت از اسکن CSAM برای iCloud Photos است. در این سیستم به جای مقایسه با تصاویر مشخص شده که امکان سو استفاده جنسی در آن ها است، تصاویر ارسال یا دریافت شده در پیام‌ها را با استفاده از الگوریتم یادگیری ماشینی برای تشخیص هر گونه محتوای مرتبط با آزار و سو استفاده جنسی کودکان، بررسی و تجزیه و تحلیل می‌کنند. تصاویر با اپل یا هر انجمنی مانند NCMEC به اشتراک گذاشته نمی‌شود. این سیستمی است که می‌توانند در حساب‌های متعلق به کودکان برای هشدار اعمال کنند.

آیا والدین می‌توانند این سیستم را غیر فعال کنند؟

والدین باید شخصا ویژگی جدید اسکن پیام‌ها را در حساب‌هاای مخصوص کودکان فعال کنند و هر زمان که بخواهند می‌توانند آن‌ را غیر فعال کنند.

آیا iMessages هنوز رمزگذاری سراسری دارد؟

بله، اپل می‌گوید امنیت ارتباطات در پیام‌ها ویژگی‌های حریم خصوصی در پیام‌ها را تغییر نخواهد داد و اپل هرگز به ارتباطات دسترسی پیدا نمی‌کند. علاوه بر این‌ها اپل در ارتباطات، ارزیابی تصاویر و اعلان‌ها دخالتی ندارد.

در صورتی که یک تصویر واضح جنسی کشف شود چه خواهد شد؟

هنگامی که والدین این ویژگی را برای حساب کودکان فعال کرده و کودک تصویر واضح جنسی را دریافت یا ارسال کند، تصویر تار خواهد شد و هشداری به او داده می شود که در صورتی که نمی‌خواهد تصویر را مشاهده نکند. برای حساب‌های متعلق به کودکان زیر ۱۲ سال، والدین می‌توانند parental notifications ( اعلان‌های مخصوص والدین) را فعال کنند، تا در صورت ارسال یا دریافت تصویری که مشخص شده مشکل جنسی دارد، به والدین اعلانی ارسال شود.

 Siri و Search

اپل همچنین از  Siri و Search  برای گزارش‌های تصاویر CSAM و جستجوهایی که امنیت کودکان را به خطر می‌اندازد و به دنبال آن اطلاع و هشدار به کودکان و والدین استفاده می‌کند. علاوه بر این Siri و Search را بروزرسانی می‌کند تا در صورتی که کاربران جستجوهایی مرتبط با CSAM انجام می‌دهند، مداخله کند. اپل می‌گوید این مداخله شامل ارسال هشدار به کاربر می‌شود و اطلاع از این که آیا به این مورد مشکل زا و مضر علاقه دارد یا خیر. همچنین منابع لازم برای کمک در این زمینه را فراهم می‌کند.

جنجال بر سر چیست؟ با این تقاسیر چرا مردم اعتراض دارند؟

در صورتی که اکثر مردم موافق با محدوده‌ی دخالت اپل در این سیستم هستند، کارشناسان و ناظران و حامیان حفظ حریم خصوصی نگران احتمال سو استفاده در این زمینه هستند. به عنوان مثال ادوراد اسنودن، که برنامه‌های نظارتی جهانی توسط NSA را افشا کرد و در تبعید به سر می‌برد، در توئییتی نوشت: مهم نیست نیت اپل خوب است یا نه، اپل با این کار نظارت گسترده‌ای را در سراسر جهان اعمال خواهد کرد. اشتباه نکنید، اگر امروز بتوانند تصاویر نامناسب برای کودکان را اسکن کنند، فردا می توانند هر چیز دیگری را نیز اسکن کنند. علاوه بر این بنیاد مرزهای الکترونیکی نیز از این سیستم انتقاد کرد و متیو گریم، استاد رمزنگاری احتمال سو استفاده از سیستمی را که اپل طراحی کرده را توضیح داد.

 

نظرات کاربران

  •  چنانچه دیدگاهی توهین آمیز باشد و متوجه نویسندگان و سایر کاربران باشد تایید نخواهد شد.
  •  چنانچه دیدگاه شما جنبه‌ی تبلیغاتی داشته باشد تایید نخواهد شد.
  •  چنانچه از لینک سایر وبسایت‌ها و یا وبسایت خود در دیدگاه استفاده کرده باشید، تایید نخواهد شد.
  •  چنانچه در دیدگاه خود از شماره تماس، ایمیل و آیدی تلگرام استفاده کرده باشید، تایید نخواهد شد.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *