اپل در مورد برنامه های خود برای شناسایی CSAM شناخته شده ذخیره شده در عکس های iCloud سکوت می کند
اکنون بیش از یک سال از اعلام برنامههای اپل برای سه ویژگی جدید ایمنی کودک میگذرد، از جمله سیستمی برای شناسایی تصاویر سوء استفاده جنسی از کودکان (CSAM) ذخیره شده در iCloud Photos، گزینهای برای محو کردن عکسهای غیراخلاقی جنسی در برنامه پیامها، و منابع بهره کشی از کودکان برای سیری دو ویژگی اخیر اکنون در دسترس هستند، اما اپل در مورد برنامه های خود برای ویژگی تشخیص CSAM سکوت می کند.
اپل در ابتدا اعلام کرد که تشخیص CSAM در بهروزرسانی iOS 15 و iPadOS 15 تا پایان سال 2021 اجرا میشود، اما این شرکت در نهایت این ویژگی را براساس «بازخورد مشتریان، گروههای مدافع، محققان و دیگران» به تعویق انداخت.
در سپتامبر 2021، اپل به روز رسانی زیر را در صفحه ایمنی کودک خود منتشر کرد:
قبلاً ما برنامههایی را برای ویژگیهایی اعلام کرده بودیم که به محافظت از کودکان در برابر شکارچیانی که از ابزارهای ارتباطی برای استخدام و بهرهبرداری از آنها استفاده میکنند و برای کمک به محدود کردن گسترش مواد سوء استفاده جنسی از کودکان، کمک میکند. بر اساس بازخورد مشتریان، گروههای مدافع، محققان و دیگران، تصمیم گرفتهایم در ماههای آینده زمان بیشتری را برای جمعآوری اطلاعات و ایجاد بهبودها قبل از انتشار این ویژگیهای بسیار مهم ایمنی کودک صرف کنیم.
در دسامبر 2021، اپل آپدیت فوق و تمام ارجاعات به برنامه های تشخیص CSAM خود را از صفحه ایمنی کودک خود حذف کرد، اما سخنگوی اپل اطلاع داد. آستانه که برنامه های اپل برای این ویژگی تغییر نکرده است. با این حال، تا آنجا که ما می دانیم، اپل از آن زمان تاکنون به طور عمومی در مورد این برنامه ها اظهار نظر نکرده است.
ما با اپل تماس گرفتیم تا بپرسیم آیا این ویژگی هنوز برنامه ریزی شده است یا خیر. اپل بلافاصله به درخواست اظهار نظر پاسخ نداد.
اپل با اجرای iOS 15.2 و سایر بهروزرسانیهای نرمافزاری در دسامبر 2021، با پیادهسازی ویژگیهای ایمنی کودک خود برای برنامه پیامها و سیری پیش رفت و ویژگی برنامه پیامها را به استرالیا، کانادا، نیوزلند و بریتانیا با iOS گسترش داد. 15.5 و سایر نرم افزارهای منتشر شده در می 2022.
اپل گفت که سیستم تشخیص CSAM آن “با در نظر گرفتن حریم خصوصی کاربر طراحی شده است.” این سیستم «تطابق روی دستگاه را با استفاده از پایگاه داده هشهای تصویر CSAM» از سازمانهای ایمنی کودکان انجام میدهد، که اپل آن را به «مجموعهای از هشهای ناخوانا تبدیل میکند که به طور ایمن در دستگاههای کاربران ذخیره میشود».
اپل قصد داشت حسابهای iCloud را با هشهای تصویر CSAM به مرکز ملی کودکان گمشده و مورد بهرهکشی (NCMEC)، یک سازمان غیرانتفاعی که با همکاری سازمانهای مجری قانون ایالات متحده کار میکند، گزارش کند. اپل گفت که یک “آستانه” وجود خواهد داشت که “کمتر از یک در یک تریلیون شانس در سال” را تضمین می کند که یک حساب به اشتباه توسط سیستم پرچم گذاری شود، به علاوه بازبینی دستی حساب های پرچم گذاری شده توسط یک انسان.
برنامههای اپل توسط طیف گستردهای از افراد و سازمانها از جمله محققان امنیتی، بنیاد مرز الکترونیک (EFF)، سیاستمداران، گروههای سیاستگذاری، محققان دانشگاهها و حتی برخی از کارمندان اپل مورد انتقاد قرار گرفت.
برخی از منتقدان استدلال میکنند که ویژگیهای ایمنی کودکان اپل میتواند یک «درپشتی» در دستگاهها ایجاد کند که دولتها یا سازمانهای مجری قانون میتوانند از آن برای نظارت بر کاربران استفاده کنند. نگرانی دیگر، موارد مثبت کاذب بود، از جمله احتمال اینکه شخصی عمداً تصاویر CSAM را به حساب iCloud شخص دیگری اضافه کند تا حساب خود را پرچم گذاری کند.
توجه: با توجه به ماهیت سیاسی یا اجتماعی بحث در مورد این موضوع، موضوع بحث در انجمن اخبار سیاسی ما قرار دارد. همه اعضای انجمن و بازدیدکنندگان سایت می توانند موضوع را مطالعه و دنبال کنند، اما ارسال پست به اعضای انجمن با حداقل 100 پست محدود می شود.