بررسی تخصصی

اپل طرح های بحث برانگیز برای شناسایی CSAM شناخته شده در عکس های iCloud را کنار می گذارد

طبق بیانیه ای که با iCloud Photos به اشتراک گذاشته شده، علاوه بر در دسترس قرار دادن رمزگذاری سرتاسر برای iCloud Photos، اپل امروز اعلام کرد که از برنامه های بحث برانگیز خود برای شناسایی مواد سوء استفاده جنسی از کودکان (CSAM) ذخیره شده در iCloud Photos صرف نظر کرده است. سیمی.

اپل طرح های بحث برانگیز برای شناسایی CSAM شناخته شده در عکس های iCloud را کنار می گذارد
بیانیه کامل اپل:

پس از مشاوره گسترده با کارشناسان برای جمع‌آوری بازخورد در مورد طرح‌های حمایت از کودکان که سال گذشته پیشنهاد دادیم، سرمایه‌گذاری خود را در ویژگی ایمنی ارتباطات که برای اولین بار در دسامبر 2021 در دسترس قرار دادیم، عمیق‌تر می‌کنیم. همچنین تصمیم گرفته‌ایم با تشخیص CSAM پیشنهادی قبلی خود پیش نرویم. ابزاری برای iCloud Photos. کودکان را می توان بدون استفاده از اطلاعات شخصی توسط شرکت ها محافظت کرد و ما به همکاری با دولت ها، حامیان کودکان و سایر شرکت ها برای کمک به محافظت از جوانان، حفظ حق حریم خصوصی آنها و تبدیل اینترنت به مکانی امن برای کودکان و همه ما ادامه خواهیم داد. .

در آگوست 2021، اپل برنامه‌های خود را برای سه ویژگی جدید ایمنی کودک اعلام کرد، از جمله سیستمی برای شناسایی تصاویر CSAM شناخته شده ذخیره شده در iCloud Photos، یک گزینه ایمنی ارتباطات که عکس‌های غیراخلاقی جنسی را در برنامه پیام‌ها محو می‌کند و منابع سوءاستفاده از کودکان برای Siri. Communication Safety در دسامبر 2021 با iOS 15.2 در ایالات متحده راه اندازی شد و از آن زمان به بریتانیا، کانادا، استرالیا و نیوزلند گسترش یافته است و منابع Siri نیز در دسترس هستند، اما تشخیص CSAM هرگز راه اندازی نشد.

اپل در ابتدا اعلام کرد که تشخیص CSAM در به‌روزرسانی iOS 15 و iPadOS 15 تا پایان سال 2021 اجرا می‌شود، اما این شرکت در نهایت این ویژگی را براساس «بازخورد مشتریان، گروه‌های مدافع، محققان و دیگران» به تعویق انداخت. اکنون، پس از یک سال سکوت، اپل برنامه‌های شناسایی CSAM را به کلی کنار گذاشته است.

اپل قول داده است که سیستم تشخیص CSAM خود “با در نظر گرفتن حریم خصوصی کاربر طراحی شده است.” این سیستم می‌توانست «تطابق روی دستگاه را با استفاده از پایگاه‌داده‌ای از هش‌های تصویر CSAM» از سازمان‌های ایمنی کودکان انجام دهد، که اپل آن را به «مجموعه‌ای از هش‌های غیرقابل خواندن تبدیل می‌کند که به طور ایمن در دستگاه‌های کاربران ذخیره می‌شود».

اپل قصد داشت حساب‌های iCloud را با هش‌های تصویر CSAM به مرکز ملی کودکان گمشده و مورد بهره‌کشی (NCMEC)، یک سازمان غیرانتفاعی که با همکاری سازمان‌های مجری قانون ایالات متحده کار می‌کند، گزارش کند. اپل گفت که یک “آستانه” وجود خواهد داشت که “کمتر از یک در یک تریلیون شانس در سال” یک حساب را به اشتباه توسط سیستم پرچم گذاری می کند، به علاوه بازبینی دستی حساب های پرچم گذاری شده توسط یک انسان را تضمین می کند.

برنامه‌های اپل توسط طیف گسترده‌ای از افراد و سازمان‌ها از جمله محققان امنیتی، بنیاد مرز الکترونیک (EFF)، سیاستمداران، گروه‌های سیاست‌گذاری، محققان دانشگاه‌ها و حتی برخی از کارمندان اپل مورد انتقاد قرار گرفت.

برخی از منتقدان استدلال کردند که این ویژگی یک “درپشتی” در دستگاه ها ایجاد می کند که دولت ها یا سازمان های مجری قانون می توانند از آن برای نظارت بر کاربران استفاده کنند. نگرانی دیگر، موارد مثبت کاذب بود، از جمله احتمال اینکه شخصی عمداً تصاویر CSAM را به حساب iCloud شخص دیگری اضافه کند تا حساب خود را پرچم گذاری کند.

توجه: با توجه به ماهیت سیاسی یا اجتماعی بحث در مورد این موضوع، موضوع بحث در انجمن اخبار سیاسی ما قرار دارد. همه اعضای انجمن و بازدیدکنندگان سایت می توانند موضوع را مطالعه و دنبال کنند، اما ارسال پست به اعضای انجمن با حداقل 100 پست محدود می شود.

Rate this post

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا