[ad_1]

حالا که ماشین ها قابل یادگیری هستند ، آیا می توان آنها را بی یاد گرفت؟

آندری اونوفریانکو گتی ایماژ

همه نوع شرکت ها از یادگیری ماشینی برای تجزیه و تحلیل خواسته ها ، ناپسندها یا چهره افراد استفاده می کنند. برخی از محققان اکنون س differentال متفاوتی را مطرح می کنند: چگونه می توانیم ماشین ها را به فراموشی بسپاریم؟

یک زمینه نوپا در علوم کامپیوتر به نام ماشین بی یادگیری به دنبال راه هایی برای القای فراموشی انتخابی در نرم افزار هوش مصنوعی است. هدف این است که هرگونه اثری از یک شخص یا نقطه داده خاص از سیستم یادگیری ماشین بدون تأثیر بر عملکرد آن حذف شود.

در صورت عملی شدن ، این مفهوم می تواند به افراد کنترل بیشتری بر داده ها و ارزش ناشی از آن بدهد. اگرچه ممکن است کاربران در حال حاضر از برخی شرکت ها بخواهند اطلاعات شخصی خود را حذف کنند ، اما معمولاً نمی دانند که اطلاعات آنها در راه اندازی یا آموزش چه الگوریتم هایی کمک کرده است. توسعه ماشین آلات می تواند به فرد این امکان را بدهد که هم داده های خود را بارگیری کند و هم شرکت بتواند از آنها سود ببرد.

اگرچه برای هرکسی که می خواهد آنچه را که به صورت آنلاین به اشتراک می گذارند بصری باشد ، این مفهوم فراموشی مصنوعی به ایده های جدیدی در علوم کامپیوتر نیاز دارد. شرکت ها میلیون ها دلار برای آموزش الگوریتم های یادگیری ماشین برای شناسایی چهره ها یا رتبه بندی پست های اجتماعی هزینه می کنند ، زیرا الگوریتم ها اغلب می توانند سریعتر از کدگذاری افراد مشکل را حل کنند. اما پس از آموزش ، سیستم یادگیری ماشین به راحتی یا حتی قابل فهم تغییر نمی کند. روش مرسوم برای از بین بردن تأثیر یک نقطه داده خاص ، بازگرداندن سیستم از ابتدا است ، که یک تمرین بالقوه گران است. آرون روث ، استاد دانشگاه پنسیلوانیا که بر روی یادگیری ماشین کار می کند ، می گوید: “این مطالعه با هدف یافتن راه میانه ای انجام شده است.” “آیا می توانیم همه تأثیر داده های شخصی را هنگامی که می خواهند آنها را حذف کنند حذف کنیم ، اما از هزینه کامل بازآموزی از ابتدا جلوگیری کنیم؟”

کار ماشین های یادگیرنده تا حدی با توجه روزافزون به روش هایی که هوش مصنوعی می تواند محرمانه بودن را نقض کند ، ایجاد می شود. تنظیم کننده های داده در سراسر جهان مدت هاست این قدرت را دارند که شرکت ها را مجبور به حذف اطلاعات سوء استفاده کنند. شهروندان در برخی از مکانها ، مانند اتحادیه اروپا و کالیفرنیا ، حتی حق دارند از یک شرکت بخواهند در صورت تغییر نظر در آنچه که افشا کرده است ، داده های خود را حذف کند. اخیراً ، تنظیم کننده های ایالات متحده و اروپا گفته اند که صاحبان سیستم های هوش مصنوعی گاهی اوقات باید پا را فراتر بگذارند: برای حذف سیستمی که برای داده های حساس آموزش دیده است.

سال گذشته ، تنظیم کننده اطلاعات بریتانیا به شرکت ها هشدار داد که برخی از نرم افزارهای یادگیری ماشین ممکن است مشمول حقوق GDPR مانند حذف داده ها شوند ، زیرا سیستم هوش مصنوعی ممکن است حاوی اطلاعات شخصی باشد. محققان امنیتی نشان داده اند که گاهی اوقات می توان الگوریتم ها را مجبور به حذف اطلاعات حساس مورد استفاده در ایجاد آنها کرد. در اوایل سال جاری ، کمیسیون تجارت فدرال ایالات متحده ، شرکت تشخیص چهره Paravision را مجبور کرد مجموعه ای از عکس های نادرست به دست آمده از چهره و الگوریتم های یادگیری ماشین آموزش داده شده با آنها را حذف کند. روهیت چوپرا ، کمیسر FTC ، از تاکتیک های اجرایی جدید به عنوان راهی برای مجبور کردن شرکتی که قوانین داده را نقض می کند ، تقاضا کرد که “نتایج تقلب خود را از دست بدهد”.

حوزه کوچک تحقیقات ماشین با برخی از مسائل عملی و ریاضی ناشی از این تغییرات نظارتی دست و پنجه نرم می کند. محققان نشان داده اند که می توانند الگوریتم های یادگیری ماشین را در شرایط خاصی فراموش کنند ، اما این تکنیک هنوز برای زمان نخست آماده نیست. روث گفت: “همانطور که برای یک منطقه جوان معمول است ، بین آنچه که آن منطقه به دنبال انجام آن است و آنچه ما اکنون می دانیم چگونه است تفاوت وجود دارد.”

یک رویکرد امیدوارکننده که در سال 2019 توسط محققان دانشگاههای تورنتو و ویسکانسین مدیسون پیشنهاد شد ، شامل تقسیم خروجی پروژه یادگیری ماشین جدید به چندین قسمت است. سپس هرکدام به طور جداگانه قبل از ترکیب نتایج در مدل نهایی یادگیری ماشین پردازش می شوند. اگر بعداً یک نقطه داده فراموش شود ، فقط بخشی از داده های ورودی اولیه باید پردازش شوند. نشان داده شده است که این رویکرد بر روی داده های خرید آنلاین و مجموعه ای از بیش از یک میلیون عکس کار می کند.

روث و همکارانش از پن ، هاروارد و استنفورد اخیراً نقصی در این رویکرد نشان دادند و نشان دادند که در صورت درخواست های حذف در یک دنباله خاص ، تصادفی یا توسط یک بازیگر مخرب ، سیستم از شیرگیری از بین می رود. آنها همچنین نشان دادند که چگونه می توان مشکل را کاهش داد.

گوتام کامات ، استاد دانشگاه واترلو که در زمینه یادگیری نیز کار می کند ، می گوید مشکلی که پروژه شناسایی کرده و برطرف کرده است نمونه ای از سوالات فراوان در مورد چگونگی واداشتن دستگاه به یادگیری بیشتر از کنجکاوی کنجکاو است. تیم تحقیقاتی خود در حال بررسی میزان کاهش دقت سیستم است ، و باعث می شود که به طور مداوم از نقاط مختلف داده جدا شود.

کامات همچنین علاقمند است راه هایی را پیدا کند که یک شرکت بتواند اثبات کند – یا یک بررسی نظارتی داشته باشد – که یک سیستم واقعاً آنچه را که باید یاد بگیرد فراموش کرده است. او گفت: “من احساس می کنم کمی پایین تر است ، اما شاید در نهایت آنها برای مواردی از این دست حسابرسان داشته باشند.”

دلایل نظارتی برای بررسی امکان عدم یادگیری ماشین به احتمال زیاد با افزایش دقت FTC و دیگران در بررسی قدرت الگوریتم ها افزایش می یابد. روبن بینز ، استاد دانشگاه آکسفورد که در زمینه حفاظت از داده ها مطالعه می کند ، می گوید این تصور در سال های اخیر در ایالات متحده و اروپا افزایش یافته است که افراد باید در مورد سرنوشت و نتایج داده های خود نظر داشته باشند.

قبل از اینکه شرکت های فناوری بتوانند یادگیری ماشینی را به عنوان راهی برای کنترل بیشتر افراد بر سرنوشت الگوریتمی داده های خود به مردم ارائه دهند ، کار فنی مجازی لازم است. حتی در آن صورت ، فناوری ممکن است تغییرات زیادی در مورد خطرات حریم خصوصی دوران هوش مصنوعی ایجاد نکند.

محرمانه بودن متمایز ، یک تکنیک هوشمندانه برای تعیین محدودیت های ریاضی در مورد آنچه یک سیستم می تواند برای فرد نشت کند ، مقایسه مفیدی را ارائه می دهد. اپل ، گوگل و مایکروسافت همگی این فناوری را تحسین می کنند ، اما از آن نسبتاً نادر استفاده می شود و خطرات حفظ حریم خصوصی همچنان زیاد است.

بینس می گوید که در حالی که واقعا مفید است ، “در موارد دیگر ، این چیزی است که یک شرکت بیشتر انجام می دهد تا نشان دهد که نوآور است.” او مظنون است که ماشین های یادگیرنده می توانند شبیه به هم باشند ، این نشان دهنده مهارت فنی است تا یک تغییر اساسی در حفاظت از داده ها. حتی اگر ماشین ها یاد بگیرند که فراموش کنند ، کاربران باید به خاطر داشته باشند که مراقب باشند با چه کسانی داده ها را به اشتراک می گذارند.

این داستان در ابتدا در wired.com ظاهر شد.

[ad_2]

منبع: tarjome-news.ir