نسخه ی نمایشی جدید Meta AI ادبیات علمی نژادپرستانه و نادرست می نویسد، کشیده می شود


تصویر تولید شده توسط هوش مصنوعی از علم ساختن روبات ها.
بزرگنمایی کنید / تصویر تولید شده توسط هوش مصنوعی از علم ساختن روبات ها.

Ars Technica

روز سه‌شنبه، Meta AI نسخه‌ی نمایشی از Galactica را معرفی کرد، یک مدل زبان بزرگ که برای «ذخیره، ترکیب و استدلال درباره دانش علمی» طراحی شده است. در حالی که برای تسریع نوشتن ادبیات علمی در نظر گرفته شده بود، کاربران متخاصم که آزمایش‌هایی را انجام می‌دادند دریافتند که می‌تواند این کار را نیز انجام دهد ایجاد مزخرفات واقع بینانه. پس از چندین روز از نقد اخلاقیبه گزارش MIT Technology Review، متا نسخه آزمایشی را آفلاین کرد.

مدل‌های زبان بزرگ (LLM)، مانند GPT-3 OpenAI، نوشتن متن را با مطالعه میلیون‌ها مثال و درک روابط آماری بین کلمات یاد می‌گیرند. در نتیجه، آنها می توانند اسناد قانع کننده ای بنویسند، اما این آثار همچنین می توانند مملو از دروغ و کلیشه های بالقوه مضر باشند. برخی از منتقدان LLM را “طوطی های تصادفی” می نامند زیرا توانایی آنها در تفکیک متقاعدکننده متن بدون درک معنای آن است.

Galactica را وارد کنید، یک LLM با هدف نوشتن ادبیات علمی. نویسندگان آن Galactica را بر روی “مجموعه بزرگ و سرپرستی دانش علمی بشریت” شامل بیش از 48 میلیون مقاله، کتاب درسی و یادداشت های سخنرانی، وب سایت های علمی و دایره المعارف ها آموزش دادند. بر اساس مقاله Galactica، محققان Meta AI معتقد بودند که این داده‌های با کیفیت بالا منجر به خروجی با کیفیت بالا می‌شود.

اسکرین شات از وب سایت Galactica متا هوش مصنوعی قبل از پایان دمو.
بزرگنمایی کنید / اسکرین شات از وب سایت Galactica متا هوش مصنوعی قبل از پایان دمو.

هوش مصنوعی متا

از روز سه‌شنبه، بازدیدکنندگان وب‌سایت Galactica می‌توانند درخواست‌هایی را برای ایجاد اسنادی مانند بررسی ادبیات، مقالات ویکی، یادداشت‌های سخنرانی و پاسخ به سؤالات، با توجه به نمونه‌های ارائه شده توسط این وب‌سایت، تایپ کنند. این سایت این مدل را به عنوان “یک رابط جدید برای دسترسی و دستکاری آنچه در مورد کیهان می دانیم” معرفی کرد.

حتما بخوانید:
با Thistle آشنا شوید ، استارتاپی که می خواهد میلیاردها دستگاه اینترنت اشیا ارائه دهد

در حالی که برخی از مردم نسخه ی نمایشی را پیدا کردند امیدوار کننده و مفید، دیگران به زودی متوجه شدند که هر کسی می تواند تایپ کند نژاد پرست یا پیام های بالقوه توهین آمیز، تولید محتوای معتبر در آن موضوعات به همین راحتی. مثلاً یک نفر از آن استفاده کرده است نویسنده یک ورودی ویکی در مورد یک مقاله تحقیقاتی تخیلی با عنوان “مزایای خوردن شیشه خرد شده”.

حتی زمانی که خروجی گالاکتیکا با هنجارهای اجتماعی توهین آمیز نبود، این مدل می توانست به حقایق علمی که به خوبی درک شده بود حمله کند و به بیرون تف کند. عدم دقت مانند تاریخ های نادرست یا نام حیوانات، که نیاز به دانش عمیق در مورد موضوع برای صید دارد.

در نتیجه متا کشیده نسخه ی نمایشی Galactica پنجشنبه. پس از آن، یان لیکان، دانشمند ارشد هوش مصنوعی متا، توییت کرد“در حال حاضر نسخه ی نمایشی Galactica آفلاین است. دیگر نمی توان با استفاده نادرست از آن لذت برد. خوشحالی؟”

این قسمت یک معضل اخلاقی مشترک با هوش مصنوعی را به یاد می آورد: وقتی صحبت از مدل های تولیدی بالقوه مضر می شود، آیا استفاده مسئولانه از آنها بر عهده عموم مردم است یا ناشران مدل ها برای جلوگیری از سوء استفاده؟

حتما بخوانید:
تور عمان - ✔️ قیمت تور عمان ✔️ - تور ارزان عمان - عمان۷۷۷

جایی که رویه صنعت بین این دو افراط قرار می گیرد، احتمالاً بین فرهنگ ها و با رشد مدل های یادگیری عمیق متفاوت خواهد بود. در نهایت، مقررات دولتی ممکن است نقش بزرگی در شکل دادن به پاسخ ایفا کند.




منبع: tarjome-news.ir

دیدگاهتان را بنویسید

hacklink al hd film izle php shell indir siber güvenlik android rat duşakabin fiyatları hack forum fethiye escort bayan escort - vip elit escort garnet trade güvenilir mihtml nullednulled themesViagraGoruntulu SohbetMobil Ödeme Bozdurmarekorbetbetboogenco bahisdeneme bonusu veren sitelerBağlama büyüsü