[ad_1]

پنج آیفون روی میز است
بزرگنمایی / سری iPhone برای 2020. از چپ به راست: iPhone 12 Pro Max ، iPhone 12 Pro ، iPhone 12 ، iPhone SE و iPhone 12 mini.

به گفته افرادی که با برنامه های خود آشنا هستند ، اپل قصد دارد نرم افزاری را برای آیفون های آمریکایی برای اسکن تصاویر کودک آزاری نصب کند که این امر در بین محققان امنیتی نگران کننده است و هشدار می دهند که این می تواند دریچه ای برای نظارت بر وسایل شخصی میلیون ها نفر باز کند.

به گفته دو محقق امنیتی آشنا به جلسه مجازی ، اپل در اوایل این هفته سیستم پیشنهادی خود – معروف به “neuralMatch” را برای برخی از دانشمندان آمریکایی توضیح داد. آنها گفتند که برنامه ها می توانند در این هفته به طور گسترده تری اعلام شوند.

این سیستم خودکار اگر احساس کرد تصاویر غیرقانونی پیدا شده است ، پیش از این به یک تیم بازبینی کننده هشدار می دهد که در صورت تأیید صحت مطالب ، با نیروی انتظامی تماس می گیرد. در ابتدا ، این طرح فقط در ایالات متحده اعمال می شود.

اپل از اظهارنظر خودداری کرد.

این پیشنهادات شامل تلاش اپل برای یافتن سازش بین وعده خود برای حفظ حریم خصوصی مشتریان و درخواست های مداوم دولت ها ، مجریان قانون و کمپین های ایمنی کودکان برای کمک بیشتر در تحقیقات جنایی ، از جمله تروریسم و ​​پورنوگرافی کودکان است.

تنش بین شرکت های فناوری مانند اپل و فیس بوک ، که از افزایش استفاده از رمزگذاری در محصولات و خدمات خود دفاع می کنند ، و اجرای قانون تنها پس از شکایت سازنده آیفون از FBI در سال 2016 برای دسترسی به آیفون یک مظنون تروریستی پس از تیراندازی در این کشور تشدید شده است. سان برناردینو ، کالیفرنیا

محققان امنیتی در حالی که از تلاش ها برای مبارزه با خشونت علیه کودکان حمایت می کنند ، نگران هستند که اپل به دولت های سراسر جهان اجازه می دهد تا به اطلاعات شخصی شهروندان خود ، به طور بالقوه دور از هدف اولیه خود دسترسی پیدا کنند.

“این ایده کاملاً وحشتناک است زیرا منجر به نظارت گسترده ای می شود. به به تلفن ها و لپ تاپ های ما “گفت: راس اندرسون ، استاد مهندسی امنیت در دانشگاه کمبریج.

به گفته محققان ، اگرچه این سیستم در حال حاضر برای تشخیص سوء استفاده جنسی از کودکان آموزش می بیند ، اما می توان آن را برای اسکن هرگونه تصویر و متن موردنظر دیگر ، مانند بریدن سر وحشت یا علائم ضد دولتی در طول اعتراضات ، تطبیق داد. سابقه اپل همچنین ممکن است فشار را بر سایر شرکت های فناوری برای استفاده از تکنیک های مشابه افزایش دهد.

متیو گرین ، استاد امنیت در دانشگاه جان هاپکینز که معتقد است اولین محقق است ، می گوید: “این سد را می شکند – دولت ها از همه درخواست خواهند کرد.” یک توییت ارسال کنید در مورد مسئله

الک مافت ، محقق امنیتی و فعال در زمینه حفظ حریم خصوصی که قبلاً در فیس بوک و دلیورو کار می کرد ، گفت که این اقدام اپل “ساختمانی” و “یک گام بزرگ و واپس گرا در جهت حفظ حریم خصوصی است.”

“اپل برای فعال سازی حریم خصوصی را بازیابی کرده است 1984،” او گفت.

سیستم های ذخیره سازی ابر ابر و سایت های شبکه های اجتماعی در حال اسکن تصاویر کودک آزاری هستند ، اما هنگام تلاش برای دسترسی به داده های ذخیره شده در یک دستگاه شخصی ، این روند پیچیده تر می شود.

آلن وودوارد ، استاد امنیت کامپیوتر در دانشگاه ساری ، گفت: سیستم اپل کمتر تهاجمی است زیرا این بررسی از طریق تلفن انجام می شود و “فقط در صورت مطابقت ، اعلان برای جستجوگران ارسال می شود.” این رویکرد غیرمتمرکز بهترین رویکردی است که می توانید در صورت ادامه این مسیر اتخاذ کنید. “

الگوریتم neuralMatch اپل به طور مداوم عکس هایی را که در iPhone کاربران ایالات متحده ذخیره شده اند و در سیستم پشتیبان گیری iCloud او بارگذاری می شوند ، اسکن می کند. عکسهای کاربرانی که از طریق فرآیندی به نام “هش” به رشته ای از اعداد تبدیل شده اند با عکسهای موجود در پایگاه داده تصاویر شناخته شده از سوء استفاده جنسی از کودکان مقایسه می شود.

این سیستم بر روی 200،000 تصویر سوء استفاده جنسی که توسط مرکز ملی کودکان مفقود شده و استثمار نشده در ایالات متحده جمع آوری شده است ، آموزش داده شده است.

به گفته افراد آشنا با این برنامه ها ، هر عکسی که در iCloud در ایالات متحده بارگذاری شود ، “کوپن ایمنی” دریافت می کند که می گوید مظنون است یا نه. هنگامی که تعدادی از عکسها به عنوان مشکوک علامت گذاری شدند ، اپل اجازه می دهد تا همه عکسهای مشکوک رمزگشایی شده و در صورت آشکار غیرقانونی بودن ، به مقامات مربوطه ارسال شوند.

© 2021 Financial Times Ltd. همه حقوق محفوظ است به هیچ وجه توزیع ، کپی یا اصلاح نکنید.



[ad_2]

منبع: tarjome-news.ir