بررسی تخصصی

اپل در مورد برنامه های خود برای شناسایی CSAM شناخته شده ذخیره شده در عکس های iCloud سکوت می کند

اکنون بیش از یک سال از اعلام برنامه‌های اپل برای سه ویژگی جدید ایمنی کودک می‌گذرد، از جمله سیستمی برای شناسایی تصاویر سوء استفاده جنسی از کودکان (CSAM) ذخیره شده در iCloud Photos، گزینه‌ای برای محو کردن عکس‌های غیراخلاقی جنسی در برنامه پیام‌ها، و منابع بهره کشی از کودکان برای سیری دو ویژگی اخیر اکنون در دسترس هستند، اما اپل در مورد برنامه های خود برای ویژگی تشخیص CSAM سکوت می کند.

ویژگی عمومی iCloud
اپل در ابتدا اعلام کرد که تشخیص CSAM در به‌روزرسانی iOS 15 و iPadOS 15 تا پایان سال 2021 اجرا می‌شود، اما این شرکت در نهایت این ویژگی را براساس «بازخورد مشتریان، گروه‌های مدافع، محققان و دیگران» به تعویق انداخت.

در سپتامبر 2021، اپل به روز رسانی زیر را در صفحه ایمنی کودک خود منتشر کرد:

قبلاً ما برنامه‌هایی را برای ویژگی‌هایی اعلام کرده بودیم که به محافظت از کودکان در برابر شکارچیانی که از ابزارهای ارتباطی برای استخدام و بهره‌برداری از آنها استفاده می‌کنند و برای کمک به محدود کردن گسترش مواد سوء استفاده جنسی از کودکان، کمک می‌کند. بر اساس بازخورد مشتریان، گروه‌های مدافع، محققان و دیگران، تصمیم گرفته‌ایم در ماه‌های آینده زمان بیشتری را برای جمع‌آوری اطلاعات و ایجاد بهبودها قبل از انتشار این ویژگی‌های بسیار مهم ایمنی کودک صرف کنیم.

در دسامبر 2021، اپل آپدیت فوق و تمام ارجاعات به برنامه های تشخیص CSAM خود را از صفحه ایمنی کودک خود حذف کرد، اما سخنگوی اپل اطلاع داد. آستانه که برنامه های اپل برای این ویژگی تغییر نکرده است. با این حال، تا آنجا که ما می دانیم، اپل از آن زمان تاکنون به طور عمومی در مورد این برنامه ها اظهار نظر نکرده است.

ما با اپل تماس گرفتیم تا بپرسیم آیا این ویژگی هنوز برنامه ریزی شده است یا خیر. اپل بلافاصله به درخواست اظهار نظر پاسخ نداد.

اپل با اجرای iOS 15.2 و سایر به‌روزرسانی‌های نرم‌افزاری در دسامبر 2021، با پیاده‌سازی ویژگی‌های ایمنی کودک خود برای برنامه پیام‌ها و سیری پیش رفت و ویژگی برنامه پیام‌ها را به استرالیا، کانادا، نیوزلند و بریتانیا با iOS گسترش داد. 15.5 و سایر نرم افزارهای منتشر شده در می 2022.

اپل گفت که سیستم تشخیص CSAM آن “با در نظر گرفتن حریم خصوصی کاربر طراحی شده است.” این سیستم «تطابق روی دستگاه را با استفاده از پایگاه داده هش‌های تصویر CSAM» از سازمان‌های ایمنی کودکان انجام می‌دهد، که اپل آن را به «مجموعه‌ای از هش‌های ناخوانا تبدیل می‌کند که به طور ایمن در دستگاه‌های کاربران ذخیره می‌شود».

اپل قصد داشت حساب‌های iCloud را با هش‌های تصویر CSAM به مرکز ملی کودکان گمشده و مورد بهره‌کشی (NCMEC)، یک سازمان غیرانتفاعی که با همکاری سازمان‌های مجری قانون ایالات متحده کار می‌کند، گزارش کند. اپل گفت که یک “آستانه” وجود خواهد داشت که “کمتر از یک در یک تریلیون شانس در سال” را تضمین می کند که یک حساب به اشتباه توسط سیستم پرچم گذاری شود، به علاوه بازبینی دستی حساب های پرچم گذاری شده توسط یک انسان.

برنامه‌های اپل توسط طیف گسترده‌ای از افراد و سازمان‌ها از جمله محققان امنیتی، بنیاد مرز الکترونیک (EFF)، سیاستمداران، گروه‌های سیاست‌گذاری، محققان دانشگاه‌ها و حتی برخی از کارمندان اپل مورد انتقاد قرار گرفت.

برخی از منتقدان استدلال می‌کنند که ویژگی‌های ایمنی کودکان اپل می‌تواند یک «درپشتی» در دستگاه‌ها ایجاد کند که دولت‌ها یا سازمان‌های مجری قانون می‌توانند از آن برای نظارت بر کاربران استفاده کنند. نگرانی دیگر، موارد مثبت کاذب بود، از جمله احتمال اینکه شخصی عمداً تصاویر CSAM را به حساب iCloud شخص دیگری اضافه کند تا حساب خود را پرچم گذاری کند.

توجه: با توجه به ماهیت سیاسی یا اجتماعی بحث در مورد این موضوع، موضوع بحث در انجمن اخبار سیاسی ما قرار دارد. همه اعضای انجمن و بازدیدکنندگان سایت می توانند موضوع را مطالعه و دنبال کنند، اما ارسال پست به اعضای انجمن با حداقل 100 پست محدود می شود.

Rate this post

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا