بررسی تخصصی

کمیسیون اروپا پیش نویس قانونی را منتشر می کند که تشخیص اجباری مواد سوء استفاده جنسی از کودکان در پلتفرم های دیجیتال را اعمال می کند.

طبق گزارش جدیدی که امروز منتشر شد، کمیسیون اروپا قرار است این هفته پیش نویس قانونی را منتشر کند که می تواند شرکت های فناوری مانند اپل و گوگل را ملزم کند تا تصاویر غیرقانونی کودک آزاری را در پلتفرم های خود شناسایی، حذف و به مجری قانون گزارش دهند.

کمیسیون اروپا
با توجه به نشت پیشنهاد به دست آمده توسط سیاسیEC معتقد است اقدامات داوطلبانه برخی از شرکت‌های دیجیتال تاکنون برای رسیدگی به سوء استفاده فزاینده از خدمات آنلاین برای اهداف اشتراک‌گذاری محتوای سوءاستفاده جنسی از کودکان «ناکافی» بوده است، به همین دلیل است که کمیسیون می‌خواهد شناسایی چنین مطالبی را اجباری کند.

گفته می‌شود پس از ماه‌ها لابی، گروه‌هایی که شرکت‌های فناوری و سازمان‌های حقوق کودک را نمایندگی می‌کنند، منتظرند تا ببینند قوانین چقدر می‌تواند سخت‌گیرانه باشد و چگونه بدون اینکه شرکت‌های فناوری مجبور به اسکن دامنه محتوای کاربران باشند، کار خواهند کرد – این عمل غیرقانونی تلقی می‌شود. دیوان دادگستری اتحادیه اروپا در سال 2016.

جدای از اینکه شناسایی مواد غیرقانونی در چارچوب قانون چگونه عمل می کند، گروه های حفظ حریم خصوصی و شرکت های فناوری نگران هستند که مدیران اتحادیه اروپا ممکن است منجر به ایجاد درب های پشتی برای سرویس های پیام رسانی رمزگذاری شده سرتاسر شود که محتویات آنها برای دسترسی به محتوای آنها قابل دسترسی نباشد. پلت فرم میزبانی

یلوا یوهانسون، کمیسر امور داخلی اتحادیه اروپا گفته است که راه حل های فنی برای ایمن نگه داشتن مکالمات در حین یافتن محتوای غیرقانونی وجود دارد، اما کارشناسان امنیت سایبری با این نظر مخالف هستند.

الا یاکوبوسکا در گفتگو با وی گفت: اتحادیه اروپا نباید چیزهایی را پیشنهاد کند که از نظر فناوری غیرممکن است. سیاسی. Jakubowska مشاور سیاست در حقوق دیجیتال اروپا (EDRI)، شبکه ای متشکل از 45 سازمان غیردولتی (NGO) است.

یاکوبوفسکا گفت: «این ایده که همه صدها میلیون نفر در اتحادیه اروپا ارتباطات خصوصی صمیمی خود را داشته باشند، جایی که آنها انتظار منطقی دارند که خصوصی است، به جای آن به شکلی بی رویه و به طور کلی 24/7 اسکن شود، بی سابقه است. .

با این حال، نمایندگان پارلمان اروپا در مورد این موضوع همسو نیستند. موریتز کورنر، عضو پارلمان اروپای میانه رو Renew Europe، در واکنش به درز این پیشنهاد گفت: سیاسی پیشنهاد کمیسیون به این معنی است که “حریم خصوصی مکاتبات دیجیتال مرده است.”

این بحث داغ منعکس کننده جنجال سال گذشته پیرامون طرح اپل برای جستجوی CSAM (مواد آزار جنسی کودکان) در آیفون و آیپد است.

اپل در آگوست 2021 مجموعه برنامه‌ریزی‌شده‌ای از ویژگی‌های ایمنی کودک را اعلام کرد، از جمله اسکن کتابخانه‌های iCloud Photos کاربران برای CSAM و ایمنی ارتباطات برای هشدار به کودکان و والدین آنها هنگام دریافت یا ارسال عکس‌های غیراخلاقی جنسی. ویژگی دوم، و مسلماً کمتر بحث برانگیز است، در حال حاضر در پلتفرم iMessage اپل فعال است. روش اپل برای اسکن CSAM هنوز به کار گرفته نشده است.

پس از اعلام اپل، این ویژگی ها توسط طیف گسترده ای از افراد و سازمان ها، از جمله محققان امنیتی، بنیاد مرز الکترونیک (EFF)، رئیس سابق امنیت فیس بوک، سیاستمداران، گروه های سیاست، محققان دانشگاه و حتی برخی از کارمندان اپل مورد انتقاد قرار گرفت.

اکثر انتقادها متوجه تشخیص CSAM روی دستگاه اپل بود که توسط محققان به دلیل تکیه بر فناوری خطرناکی که با نظارت محدود بود مورد انتقاد قرار گرفت و به دلیل ناکارآمدی در شناسایی تصاویر سوء استفاده جنسی از کودکان مورد تمسخر قرار گرفت.

اپل در ابتدا سعی کرد با انتشار اطلاعات دقیق و به اشتراک گذاشتن مصاحبه با مدیران شرکت، برخی سوء تفاهم ها را برطرف کند و به کاربران اطمینان دهد تا نگرانی ها را برطرف کند. با این حال، علی‌رغم تلاش‌های اپل، این جنجال از بین نرفت و اپل تصمیم گرفت عرضه CSAM را پس از سیل انتقادات به تعویق بیندازد.

اپل گفت که تصمیمش برای تأخیر «براساس بازخورد مشتریان، گروه‌های مدافع، محققان و دیگران است… ما تصمیم گرفته‌ایم در ماه‌های آینده زمان بیشتری را برای جمع‌آوری اطلاعات و ایجاد بهبودها قبل از انتشار این ویژگی‌های حیاتی ایمنی کودک اختصاص دهیم».

در دسامبر 2021، اپل بی سر و صدا تمام اشاره های CSAM را از صفحه وب ایمنی کودک خود حذف کرد، و نشان داد که طرح بحث برانگیز خود برای شناسایی تصاویر سوء استفاده جنسی از کودکان در آیفون ها و آیپدها به دنبال انتقادات قابل توجهی که از روش های آن وارد شده بود، به حالت تعلیق درآمد.

با این حال، اپل می‌گوید که برنامه‌هایش برای شناسایی CSAM از سپتامبر تغییر نکرده است، که نشان می‌دهد شناسایی CSAM به شکلی هنوز در آینده وجود دارد.

توجه: با توجه به ماهیت سیاسی یا اجتماعی بحث در مورد این موضوع، موضوع بحث در انجمن اخبار سیاسی ما قرار دارد. همه اعضای انجمن و بازدیدکنندگان سایت می توانند موضوع را مطالعه و دنبال کنند، اما ارسال پست به اعضای انجمن با حداقل 100 پست محدود می شود.

Rate this post

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا