برنامه اپل برای جستجوی کودک آزاری – اشک در مرکز حفظ حریم خصوصی | حریم خصوصی


به گفته کارشناسان امنیت و رمزنگاری جهانی ، فناوری هایی مانند اپل برای جستجوی آیفون در جستجوی تصاویری از سوء استفاده جنسی از کودکان ، درهای نظارت گسترده و باز شدن در معرض سوء استفاده قرار می گیرند.

بر اساس تجزیه و تحلیل محققان مدرسه کندی هاروارد ، موسسه فناوری ماساچوست (MIT) و دانشگاه ، اسکن سمت مشتری (CSS) دسترسی به داده های دستگاه های کاربر ، از جمله داده های ذخیره شده را فراهم می کند که “ردیابی را به سطح جدیدی می برد” . ” کمبریج ، از جمله موارد دیگر.

آنها می نویسند که فناوری ارائه نرم افزار پس زمینه بر روی دستگاه های مصرف کننده “حریم خصوصی شهروندان را از بین می برد” اما دارای نقص است و می تواند از آنهایی که نیاز به استفاده و سوء استفاده دارند اجتناب کند.

نویسندگان در کتاب “خطاها در جیب ما ، خطر اسکن از طرف مشتری” ، تجزیه و تحلیل CSS 46 صفحه ای که در سایت دسترسی آزاد arXiv منتشر شده است ، می گویند: “در واقع ، CSS یک تصاحب دسته جمعی است ، هرچند خودکار و توزیع شده. .. CSS شهروندان تابع قانون را آسیب پذیرتر می کند ، زیرا دستگاه های شخصی آنها را می توان در مقیاس صنعتی جستجو کرد.

وی گفت: حتی اگر در ابتدا برای بررسی مطالب مربوط به سوء استفاده جنسی از کودکان استفاده می شد ، محتواهایی که آشکارا غیرقانونی است ، فشار زیادی برای گسترش دامنه آن خواهد بود. در این صورت یافتن راهی برای مقاومت در برابر گسترش آن یا کنترل سوء استفاده از سیستم برای ما دشوار خواهد بود. “

برنامه های اپل که امسال معرفی شد شامل تکنیکی به نام “کیسه ادراک” برای مقایسه عکس ها با تصاویر شناخته شده از کودک آزاری زمانی است که مصرف کنندگان آنها را روی ابر بارگذاری می کنند. اگر این شرکت کبریت های کافی را تشخیص دهد ، قبل از علامت گذاری حساب کاربری برای اجرای قانون ، تصاویر را به صورت دستی بررسی می کند.

اپل ماه گذشته پس از رد پاسخ های پاسخ دهندگان قبل از کمپین حفظ حریم خصوصی ، اجرای آن را متوقف کرد ، اما نه قبل از اینکه محققان موفق به ایجاد تصاویر بسیار متفاوتی شوند که اثر انگشت یکسانی داشته باشند و بنابراین شبیه به سیستم اسکن اپل به نظر برسند و نتایج مثبت کاذب ایجاد کنند.

دیگران توانسته اند عکس این کار را انجام دهند: خروجی ریاضی یک ویدیو را بدون تغییر ظاهر تغییر دهید ، بنابراین نتایج منفی کاذب ایجاد می شود.

نویسندگان گزارش می گویند افراد ممکن است سعی کنند اسکنرها را خاموش کرده یا از استفاده از دستگاه هایی مانند iPhone با CSS اجتناب کنند. آنها افزودند: “به فروشنده نرم افزار ، اپراتور زیرساخت و سرپرست برنامه باید اعتماد کرد. اگر هر یک از آنها یا پرسنل اصلی آنها رفتار نادرستی داشته باشند یا آسیب ببینند ، هک شوند یا مجبور شوند ، امنیت سیستم ممکن است با شکست مواجه شود. “

در حالی که CSS ممکن است برای هدف قرار دادن محتوای خاص برنامه ریزی شده باشد ، این گزارش هشدار می دهد: “به ترس دیگر تروریست ها بیایید ، فقط یک کلیک کوچک برای کاهش یا حذف حفاظت فعلی.”

به نظر می رسد اپل در گذشته تحت فشار دولت بوده است ، مانند انتقال داده های iCloud مصرف کننده چینی خود به مراکز داده تحت کنترل شرکت دولتی چینی و حذف برنامه رای گیری تاکتیکی الکسی ناوالن ، رهبر مخالف زندانی روسیه. از فروشگاه برنامه روسی شما

راس اندرسون ، یکی از نویسندگان این گزارش و استاد مهندسی امنیت در دانشگاه کمبریج ، گفت: “این یک قدم بسیار کوچک از آنجا است. [targeting child sexual abuse material] به گفته دولت های مختلف ، “در اینجا لیستی از تصاویر دیگری است که ما می خواهیم در لیست عکس های شیطنت آمیز آیفون در کشورمان قرار دهیم.”

در پاسخ به اظهارات ، اپل در بیانیه ای به گاردین اشاره کرد و گفت: “بر اساس بازخورد مشتریان ، وکلا ، محققان و دیگران ، ما تصمیم گرفتیم در ماه های آینده زمان بیشتری را به جمع آوری اطلاعات و بهبود قبل از آزادی این کودک انتقادی اختصاص دهیم. گزارشات ایمنی اقدامات.

دیدگاهتان را بنویسید