اپل طرح های بحث برانگیز برای شناسایی CSAM شناخته شده در عکس های iCloud را کنار می گذارد
طبق بیانیه ای که با iCloud Photos به اشتراک گذاشته شده، علاوه بر در دسترس قرار دادن رمزگذاری سرتاسر برای iCloud Photos، اپل امروز اعلام کرد که از برنامه های بحث برانگیز خود برای شناسایی مواد سوء استفاده جنسی از کودکان (CSAM) ذخیره شده در iCloud Photos صرف نظر کرده است. سیمی.
بیانیه کامل اپل:
پس از مشاوره گسترده با کارشناسان برای جمعآوری بازخورد در مورد طرحهای حمایت از کودکان که سال گذشته پیشنهاد دادیم، سرمایهگذاری خود را در ویژگی ایمنی ارتباطات که برای اولین بار در دسامبر 2021 در دسترس قرار دادیم، عمیقتر میکنیم. همچنین تصمیم گرفتهایم با تشخیص CSAM پیشنهادی قبلی خود پیش نرویم. ابزاری برای iCloud Photos. کودکان را می توان بدون استفاده از اطلاعات شخصی توسط شرکت ها محافظت کرد و ما به همکاری با دولت ها، حامیان کودکان و سایر شرکت ها برای کمک به محافظت از جوانان، حفظ حق حریم خصوصی آنها و تبدیل اینترنت به مکانی امن برای کودکان و همه ما ادامه خواهیم داد. .
در آگوست 2021، اپل برنامههای خود را برای سه ویژگی جدید ایمنی کودک اعلام کرد، از جمله سیستمی برای شناسایی تصاویر CSAM شناخته شده ذخیره شده در iCloud Photos، یک گزینه ایمنی ارتباطات که عکسهای غیراخلاقی جنسی را در برنامه پیامها محو میکند و منابع سوءاستفاده از کودکان برای Siri. Communication Safety در دسامبر 2021 با iOS 15.2 در ایالات متحده راه اندازی شد و از آن زمان به بریتانیا، کانادا، استرالیا و نیوزلند گسترش یافته است و منابع Siri نیز در دسترس هستند، اما تشخیص CSAM هرگز راه اندازی نشد.
اپل در ابتدا اعلام کرد که تشخیص CSAM در بهروزرسانی iOS 15 و iPadOS 15 تا پایان سال 2021 اجرا میشود، اما این شرکت در نهایت این ویژگی را براساس «بازخورد مشتریان، گروههای مدافع، محققان و دیگران» به تعویق انداخت. اکنون، پس از یک سال سکوت، اپل برنامههای شناسایی CSAM را به کلی کنار گذاشته است.
اپل قول داده است که سیستم تشخیص CSAM خود “با در نظر گرفتن حریم خصوصی کاربر طراحی شده است.” این سیستم میتوانست «تطابق روی دستگاه را با استفاده از پایگاهدادهای از هشهای تصویر CSAM» از سازمانهای ایمنی کودکان انجام دهد، که اپل آن را به «مجموعهای از هشهای غیرقابل خواندن تبدیل میکند که به طور ایمن در دستگاههای کاربران ذخیره میشود».
اپل قصد داشت حسابهای iCloud را با هشهای تصویر CSAM به مرکز ملی کودکان گمشده و مورد بهرهکشی (NCMEC)، یک سازمان غیرانتفاعی که با همکاری سازمانهای مجری قانون ایالات متحده کار میکند، گزارش کند. اپل گفت که یک “آستانه” وجود خواهد داشت که “کمتر از یک در یک تریلیون شانس در سال” یک حساب را به اشتباه توسط سیستم پرچم گذاری می کند، به علاوه بازبینی دستی حساب های پرچم گذاری شده توسط یک انسان را تضمین می کند.
برنامههای اپل توسط طیف گستردهای از افراد و سازمانها از جمله محققان امنیتی، بنیاد مرز الکترونیک (EFF)، سیاستمداران، گروههای سیاستگذاری، محققان دانشگاهها و حتی برخی از کارمندان اپل مورد انتقاد قرار گرفت.
برخی از منتقدان استدلال کردند که این ویژگی یک “درپشتی” در دستگاه ها ایجاد می کند که دولت ها یا سازمان های مجری قانون می توانند از آن برای نظارت بر کاربران استفاده کنند. نگرانی دیگر، موارد مثبت کاذب بود، از جمله احتمال اینکه شخصی عمداً تصاویر CSAM را به حساب iCloud شخص دیگری اضافه کند تا حساب خود را پرچم گذاری کند.
توجه: با توجه به ماهیت سیاسی یا اجتماعی بحث در مورد این موضوع، موضوع بحث در انجمن اخبار سیاسی ما قرار دارد. همه اعضای انجمن و بازدیدکنندگان سایت می توانند موضوع را مطالعه و دنبال کنند، اما ارسال پست به اعضای انجمن با حداقل 100 پست محدود می شود.