[ad_1]

عکس نزدیک از یک انگشت زن در صفحه تاریک تلفن هوشمند در حال چرخش.

بلافاصله پس از اعلام امروز که اپل اسکن آیفون را برای مشاهده تصاویر کودک آزاری آغاز می کند ، این شرکت طرح خود را تأیید کرد و جزئیات آن را در یک بیانیه خبری و خلاصه فنی ارائه کرد.

اپل در بیانیه ای گفت: “روش اپل برای تشخیص CSAM (مواد سوء استفاده جنسی از کودکان) برای محرمانه نگه داشتن کاربران طراحی شد.” “به جای اسکن تصاویر در ابر ، سیستم با استفاده از پایگاه داده ای از هش های CSAM شناخته شده تصویر ارائه شده توسط NCMEC (مرکز ملی کودکان مفقود شده و استثمار شده) و سایر سازمان های ایمنی کودکان با دستگاه مطابقت دارد. اپل این پایگاه داده را به صورت غیر قابل خواندن تغییر داد. مجموعه ای از هش ها که به طور ایمن در دستگاه کاربران ذخیره می شود. “

اپل جزئیات بیشتری در مورد سیستم تشخیص CSAM در یک خلاصه فنی ارائه کرد و گفت که سیستم آن از آستانه ای استفاده می کند “مجموعه ای از دقت بسیار بالا را ارائه می دهد و کمتر از یک در یک تریلیون شانس در سال برای برچسب زدن اشتباه یک حساب را تضمین می کند.”

اپل گفت که تغییرات در اواخر امسال در به روزرسانی های iOS 15 ، iPadOS 15 ، watchOS 8 و macOS Monterey اعمال می شود. اپل همچنین نرم افزاری را برای تجزیه و تحلیل تصاویر در برنامه Messages برای سیستم جدیدی به کار می گیرد که “هنگام دریافت یا ارسال عکس های جنسی به کودکان و والدین آنها هشدار می دهد”.

اپل متهم به ایجاد “نظارت بر زیرساخت ها” شد

علیرغم اطمینان اپل ، کارشناسان امنیتی و حامیان حریم خصوصی از این طرح انتقاد کرده اند.

گرگ نودهایم ، یکی از مدیران این بخش می گوید: “اپل در حال جایگزینی سیستم رمزگذاری استاندارد به صنعت خود با زیرساخت های نظارتی و سانسور است که نه تنها در ایالات متحده بلکه در سراسر جهان در معرض سوء استفاده و تصرف قرار می گیرد.” پروژه امنیت و نظارت مرکز دموکراسی و فناوری. اپل باید این تغییرات را رها کند و اعتماد مشتریان خود را به امنیت و یکپارچگی داده های آنها در دستگاه ها و خدمات اپل بازگرداند. “

سالهاست که اپل در برابر فشارهای دولت آمریکا برای نصب “درب پشت” در سیستمهای رمزگذاری خود مقاومت کرده و می گوید که این امر امنیت همه کاربران را تضعیف می کند. اپل به دلیل این موقعیت مورد ستایش کارشناسان امنیتی قرار گرفته است. پروفسور جان هاپکینز ، متیو گرین ، استاد دانشگاه رمزنگاری ، در برنامه توییتر خود گفت که اپل با برنامه خود برای استقرار نرم افزاری که دستگاه را اسکن می کند و نتایج مشترکی را با مقامات به اشتراک می گذارد ، به طور خطرناکی به عنوان یک ابزار نظارتی دولتی عمل می کند.

او گفت که اسکن مشتریان اپل ، که امروز اعلام شد ، در نهایت می تواند “عنصر اصلی در افزودن نظارت بر سیستم های پیام رسانی رمزگذاری شده باشد.” نوشتبه “توانایی افزودن سیستم های اسکن مانند این به E2E [end-to-end encrypted] سیستم های پیام رسانی یک “تحقیق” عمده توسط نیروی انتظامی در سراسر جهان است. ”

اسکن پیام ها و تداخل Siri

اپل علاوه بر اسکن دستگاه های تصویربرداری که با پایگاه داده CSAM مطابقت دارد ، برنامه Messages را به روز می کند تا “ابزارهای جدیدی برای هشدار به کودکان و والدین آنها هنگام دریافت یا ارسال عکس های جنسی” اضافه کند.

اپل گفت: “پیام ها از یادگیری ماشینی در دستگاه برای تجزیه و تحلیل تصاویر پیوست و تعیین اینکه آیا عکس از نظر جنسی آشکار است استفاده می کند. این ویژگی به گونه ای طراحی شده است که اپل به پیام ها دسترسی نداشته باشد.”

هنگامی که تصویری در پیام ها برچسب گذاری می شود ، “عکس تار می شود و به کودک هشدار داده می شود ، منابع مفیدی در اختیار او قرار می گیرد و به او اطمینان داده می شود که اگر نمی خواهد این عکس را ببیند مشکلی نیست.” این سیستم به والدین اجازه می دهد در صورت مشاهده عکس برچسب زده شده ، پیام دریافت کنند و “اگر کودک سعی کند عکس هایی با جنسیت ارسال کند ، محافظت های مشابهی وجود دارد. قبل از ارسال عکس به کودک هشدار داده می شود و والدین می توانند پیام دریافت کنند. اگر کودک تصمیم به ارسال آن داشته باشد ، “اپل گفت.

اپل همچنین اعلام کرد Siri و Search را به منظور “ارائه اطلاعات و کمک گسترده به والدین و فرزندان در صورت مواجهه با موقعیت های خطرناک” به روز می کند. Siri و Search “هنگامی که کاربران جستجوهای مربوط به CSAM را جستجو می کنند مداخله می کنند” و “به کاربران توضیح می دهند که علاقه به این موضوع مضر و مشکل آفرین است و منابعی را از شرکای خود برای کمک در این زمینه ارائه می دهند”.

مرکز دموکراسی و فناوری اسکن عکس ها در پیام ها را “درب پشت” نامید و نوشت:

مکانیزمی که به اپل اجازه می دهد تصاویر را در Messages اسکن کند ، جایگزینی برای درب پشتی نیست – درب پشتی است. اسکن توسط مشتری در یک “انتهای” ارتباط ، امنیت انتقال را نقض می کند و اطلاع رسانی به شخص ثالث (والدین) در مورد محتوای ارتباطات ، محرمانه بودن آن را تضعیف می کند. سازمان های سراسر جهان نسبت به اسکن توسط مشتری هشدار می دهند ، زیرا می تواند به عنوان راهی برای دولت ها و شرکت ها برای کنترل محتوای پیام های خصوصی مورد استفاده قرار گیرد.

فناوری تجزیه و تحلیل تصویر اپل

سند فنی اپل در مورد کشف CSAM شامل چندین وعده محرمانه بودن در مقدمه است. در این بیانیه آمده است: “اپل در مورد تصاویری که با پایگاه داده معروف CSAM مطابقت ندارند ، چیزی نمی آموزد.” “تا زمانی که آستانه مطابقت برای حساب iCloud Photos فراتر نرود ، اپل به فراداده یا مشتقات بصری برای مطابقت تصاویر CSAM دسترسی ندارد.”

فناوری هش اپل NeuralHash نام دارد و “یک تصویر را تجزیه و تحلیل کرده و آن را به یک عدد منحصر به فرد مخصوص آن تصویر تبدیل می کند”. فقط یک تصویر دیگر که تقریباً یکسان به نظر می رسد می تواند همان تعداد را تولید کند. به عنوان مثال ، تصاویری که از نظر اندازه یا کیفیت کدگذاری متفاوت هستند ، هنوز هم ارزش NeuralHash را دارند. “

قبل از اینکه یک iPhone یا سایر دستگاه های اپل تصویری را در iCloud بارگذاری کنند ، “دستگاه یک کوپن امنیتی رمزنگاری ایجاد می کند که نتیجه مسابقه را رمزگذاری می کند. همچنین NeuralHash و مشتق بصری تصویر را رمزگذاری می کند. این کوپن به همراه تصویر در iCloud Photos بارگذاری می شود. ”

با استفاده از “اشتراک آستانه” ، سیستم اپل اطمینان می دهد که محتویات کوپن های امنیتی توسط اپل قابل تفسیر نیست مگر اینکه حساب iCloud Photos از آستانه برخی از محتوای CSAM عبور کند. “تنها در صورت فراتر رفتن از آستانه ، فناوری رمزنگاری به اپل اجازه می دهد تا محتویات کوپن های امنیتی مرتبط با تصاویر CSAM مربوطه را تفسیر کند.”

اپل با اشاره به احتمال 1 در 1 تریلیون مثبت کاذب ، گفت که “در حال بررسی دستی تمام گزارشات ارائه شده به NCMEC برای اطمینان از گزارش دقیق”. اگر معتقد باشند که حساب آنها به اشتباه علامت گذاری شده است ، می توانند “در مورد بازیابی حساب خود شکایت کنند”.

دستگاه های کاربر برای ذخیره پایگاه داده CSAM کور

اپل توضیح داد که دستگاه های مصرف کننده یک “پایگاه داده کور” را ذخیره می کنند که به دستگاه اجازه می دهد زمان مطابقت یک عکس با یک تصویر در پایگاه داده CSAM را تشخیص دهد.

ابتدا ، اپل NeuralHashes مربوط به CSAM معروف را از سازمان های ایمنی کودکان فوق الذکر دریافت می کند. این NeuralHashes پس از یک سری از تغییرات است که شامل آخرین مرحله کور کننده رانده شده توسط رمزنگاری منحنی بیضوی. کور کردن با استفاده از راز سرور کور کننده ای که فقط برای اپل شناخته شده است انجام می شود. هش های کور CSAM در یک جدول هش قرار می گیرند ، جایی که موقعیت در جدول هش کاملاً تابعی از NeuralHash تصویر CSAM است. این پایگاه داده کور به طور ایمن در دستگاه های کاربران ذخیره می شود. ویژگی های رمزنگاری منحنی بیضوی اطمینان می دهد که هیچ دستگاهی نمی تواند هش های اصلی تصاویر CSAM را از یک پایگاه داده کور استنباط کند.

یک آیفون یا دستگاه دیگر عکس های کاربر را تجزیه و تحلیل می کند ، NeuralHash را محاسبه می کند و “ورودی در جدول هش کور شده” را جستجو می کند. این دستگاه “همچنین از هش کور استفاده می کند که سیستم برای دستیابی به کلید رمزگذاری مشتق شده” و از این کلید رمزگذاری “برای رمزگذاری داده های بار مرتبط” استفاده می کند.

همراه با مراحل دیگر ، این اطمینان می دهد که فقط تصاویر منطبق با پایگاه داده CSAM رمزگشایی می شوند ، اپل نوشت:

اگر هش تصویر کاربر با ورودی در لیست هش CSAM شناخته شده مطابقت داشته باشد ، NeuralHash تصویر کاربر دقیقاً به یک هش کور تبدیل می شود اگر در طول راه اندازی پایگاه داده یک سری تغییرات را انجام داده باشد. بر اساس این ویژگی ، سرور قادر خواهد بود از سرفصل رمزنگاری (استخراج شده از NeuralHash) استفاده کند و با استفاده از قسمت مخفی سرور ، می تواند کلید رمزگذاری دریافتی را محاسبه کرده و داده های بار مرتبط را با موفقیت رمزگشایی کند.

اگر تصویر کاربر مطابقت نداشته باشد ، مرحله بالا منجر به کلید مشتق رمزگذاری صحیح نمی شود و سرور نمی تواند داده های بار مرتبط را رمزگشایی کند. به این ترتیب ، سرور چیزی در مورد تصاویر ناهماهنگ نمی آموزد.

دستگاه از نتیجه مسابقه چیزی نمی داند زیرا مستلزم آگاهی از راز کور کننده سرور است.

در نهایت ، مشتری تصویر را به همراه کوپن روی سرور بارگذاری می کند که حاوی داده های بارگذاری رمزگذاری شده و سربرگ رمزنگاری است.

همانطور که قبلاً ذکر شد ، می توانید خلاصه فنی را در اینجا بخوانید. اپل همچنین توضیحات طولانی تر و مفصل تری در مورد فناوری رمزنگاری “گذراندن مجموعه خصوصی” منتشر کرد که تعیین می کند آیا یک عکس با پایگاه داده CSAM مطابقت دارد بدون اینکه نتیجه آن مشخص شود.



[ad_2]

منبع: tarjome-news.ir