بررسی تخصصی

شکایت 1.2 میلیارد دلاری اپل در مورد سیستم تشخیص CSAM رها شده است

بر اساس گزارشی که از سوی اپل منتشر شده است، اپل به دلیل تصمیم خود مبنی بر کنار گذاشتن طرح های اسکن عکس های iCloud برای سوء استفاده جنسی از کودکان (CSAM) با شکایتی به دنبال غرامت 1.2 میلیارد دلاری مواجه است. نیویورک تایمز.

شکایت 1.2 میلیارد دلاری اپل در مورد سیستم تشخیص CSAM رها شده است
این شکایت که در روز شنبه در کالیفرنیای شمالی ارائه شد، نشان دهنده گروهی بالقوه 2680 قربانی است و ادعا می‌کند که شکست اپل در اجرای ابزارهای ایمنی کودک که قبلاً اعلام شده بود، به انتشار محتوای مضر اجازه داده است که باعث آسیب مداوم به قربانیان شود.

در سال 2021، اپل اعلام کرد که قصد دارد تشخیص CSAM را در کنار سایر ویژگی‌های ایمنی کودکان در iCloud Photos پیاده‌سازی کند. با این حال، این شرکت با واکنش شدید حامیان حریم خصوصی، محققان امنیتی و گروه‌های سیاستی مواجه شد که استدلال می‌کردند این فناوری می‌تواند درهای پشتی بالقوه برای نظارت دولت ایجاد کند. اپل متعاقباً این ابتکار را به تعویق انداخت و بعداً آن را رها کرد.

اپل در توضیح تصمیم خود در آن زمان گفت که اجرای اسکن جهانی فضای ذخیره‌سازی iCloud خصوصی کاربران، آسیب‌پذیری‌های امنیتی بزرگی را معرفی می‌کند که عوامل مخرب به طور بالقوه می‌توانند از آنها سوء استفاده کنند. اپل همچنین ابراز نگرانی کرد که چنین سیستمی می‌تواند یک سابقه مشکل ساز ایجاد کند، زیرا وقتی زیرساخت اسکن محتوا برای یک هدف وجود داشته باشد، ممکن است با فشار برای گسترش به برنامه‌های نظارتی گسترده‌تر در انواع مختلف محتوا و پلت‌فرم‌های پیام‌رسان، از جمله آنهایی که از رمزگذاری استفاده می‌کنند، مواجه شود.

شاکی اصلی این شکایت که با نام مستعار تشکیل شده است، گفت که همچنان اخطارهای اجرای قانون را در مورد افرادی دریافت می کند که متهم به داشتن تصاویر سوء استفاده از او از زمانی که او نوزاد بوده است. این دادخواست استدلال می‌کند که تصمیم اپل برای ادامه ندادن به اقدامات ایمنی اعلام‌شده خود، قربانیان را مجبور کرده است بارها و بارها آسیب‌های خود را دوباره زنده کنند.

در پاسخ به این شکایت، سخنگوی اپل، فرد ساینز، بر تعهد این شرکت به مبارزه با استثمار کودکان تاکید کرد و اظهار داشت که اپل “به طور فوری و فعالانه برای مبارزه با این جنایات بدون به خطر انداختن امنیت و حریم خصوصی همه کاربران خود، نوآوری می کند.” اپل به ویژگی‌های موجود مانند Communication Safety که به کودکان در مورد محتوای نامناسب بالقوه هشدار می‌دهد، به عنوان نمونه‌هایی از تلاش‌های مداوم خود برای محافظت از کودکان اشاره کرد.

توجه: با توجه به ماهیت سیاسی یا اجتماعی بحث در مورد این موضوع، موضوع بحث در انجمن اخبار سیاسی ما قرار دارد. همه اعضای انجمن و بازدیدکنندگان سایت می توانند موضوع را مطالعه و دنبال کنند، اما ارسال پست به اعضای انجمن با حداقل 100 پست محدود می شود.

Rate this post

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا