گوگل پس از جلوگیری از کاغذ رو به عقب ، با بهترین محقق هوش مصنوعی کار می کند


بزرگنمایی / تیمنیت گبرو ، محقق سابق هوش مصنوعی گوگل ، در صحنه 3 در TechCrunch Disrupt SF 2018 Day 3 در مرکز موسکون در 7 سپتامبر 2018 در سانفرانسیسکو ، کالیفرنیا صحبت می کند.

کیمبرلی وایت گتی ایماژ

روز پنجشنبه ، گوگل تلاش کرد تا عواقب ترک یک محقق برجسته هوش مصنوعی را محدود کند ، زیرا یک گروه اینترنتی مانع انتشار مقاله ای در مورد مسئله مهم اخلاق هوش مصنوعی شد.

تیمنیت گبرو ، رئیس اخلاق هوش مصنوعی گوگل ، در توییتر گفت که پس از رد روزنامه اخراج شده است.

جف دین ، ​​رئیس هوش مصنوعی گوگل ، روز پنجشنبه در یک ایمیل داخلی به کارمندان خود از این تصمیم دفاع کرد و گفت که روزنامه “به نوار انتشار ما پاسخ نداد.” وی همچنین ترک دکتر گبرو را استعفا در پاسخ به امتناع گوگل از موافقت با شرایط نامشخصی که وی برای ماندن در این شرکت تعیین کرده بود ، توصیف کرد.

این جنجال تهدید کرده است که با تحقیق داخلی در مورد هوش مصنوعی که می تواند به تجارت آن آسیب برساند ، و همچنین مشکلات دیرینه این شرکت در تلاش برای ایجاد تنوع در نیروی کار ، فعالیت گوگل را روشن کند.

قبل از عزیمت ، گبرو در نامه ای به همكاران خود شكایت كرد كه گوگل در برابر ادعاهای این شركت مبنی بر اینكه می خواهد نسبت زنان را در صفوف خود افزایش دهد ، “پاسخگویی صفر” ندارد. در نامه الکترونیکی ، که برای اولین بار در Platformer منتشر شد ، همچنین تصمیم برای مسدود کردن مقاله وی به عنوان بخشی از روند “خاموش کردن صداهای حاشیه ای” شرح داده شده است.

یک نفر که از نزدیک با Gebru همکاری می کرد گفت که در گذشته مدیریت گوگل به دلیل فعالیت آن در ایجاد تنوع بیشتر تنش هایی داشته است. این مرد افزود ، اما دلیل فوری خروج وی تصمیم این شرکت بود که اجازه انتشار مقاله علمی را نمی دهد که وی با همکاری هم نویسنده است.

این مقاله تعصبات بالقوه را در مدلهای زبان در مقیاس بزرگ ، یکی از داغترین زمینه های جدید تحقیقات زبان طبیعی بررسی می کند. سیستم هایی مانند OpenAI’s GPA-3 و سیستم خود گوگل ، برت ، سعی می کنند کلمه بعدی را در هر عبارت یا جمله پیش بینی کنند ، روشی که برای تایپ خودکار شگفت آور کارآمد استفاده می شود و گوگل از آن برای درک بهتر سوالات جستجوی پیچیده استفاده می کند. .

مدل های زبان در مورد مقادیر زیادی از متن که معمولاً از اینترنت گرفته می شود ، آموزش می بینند و این هشدارهایی را به وجود می آورد که ممکن است تعصبات نژادی و سایر تعصبات موجود در مطالب اولیه آموزشی را بدست آورند.

امیلی بندر ، استاد زبانشناسی محاسبات در دانشگاه واشنگتن که یکی از نویسندگان این مقاله است ، گفت: “از خارج ، به نظر می رسد شخصی از گوگل به نفع منافع آنها است.”

“آزادی علمی بسیار مهم است – در صورت وجود خطرات [research] در مکانهایی اتفاق می افتد که [don’t] این آزادی آکادمیک را داشته باشید “، به شرکتها یا دولتها قدرت” بستن “تحقیقاتی را که آنها تأیید نمی کنند ، می دهد ، وی افزود.

بندر گفت که نویسندگان امیدوارند مقاله را با تحقیقات جدیدتر به موقع برای تصویب در کنفرانسی که قبلاً در آن ارائه شده است ، به روز کنند. اما وی افزود که معمول است که با توجه به پیشرفت سریع کار در چنین زمینه هایی ، تحقیقات جدیدتر جایگزین چنین کارهایی شوند. “هیچ مقاله ای در ادبیات تحقیق کامل نیست.”

جولین کورنبیزه ، محقق سابق هوش مصنوعی در DeepMind ، یک گروه هوش مصنوعی مستقر در لندن ، متعلق به والدین گوگل ، آلفابت ، گفت که این اختلاف “خطرات تحقیقات هوش مصنوعی و یادگیری ماشین در چند دست را نشان می دهد. از فعالان قدرتمند در صنعت به دلیل اجازه سانسور در زمینه تصمیم گیری درباره انتشار یا عدم انتشار. “

وی افزود که گبرو “بسیار با استعداد است – ما در این زمینه به محققانی از کالیبر او ، بدون فیلتر نیاز داریم.” گبرو بلافاصله به درخواست ها برای اظهار نظر پاسخ نداد.

دین گفت این مقاله که با سه محقق Google دیگر و همکاران خارجی آن نوشته شده است ، “تحقیقات اخیر را برای کاهش خطر سوگیری در نظر نگرفته است.” وی افزود که این مقاله “در مورد تأثیر مدل های بزرگ بر محیط زیست صحبت می کند ، اما تحقیقات بیشتر را که نشان دهنده کارایی بسیار بیشتری است ، نادیده می گیرد.”

© 2020 فایننشال تایمز گیم کلیه حقوق محفوظ است به هیچ وجه توزیع مجدد ، کپی یا اصلاح نکنید.


منبع: tarjome-news.ir

Leave a reply

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>