
Ars Technica
روز سهشنبه، Meta AI نسخهی نمایشی از Galactica را معرفی کرد، یک مدل زبان بزرگ که برای «ذخیره، ترکیب و استدلال درباره دانش علمی» طراحی شده است. در حالی که برای تسریع نوشتن ادبیات علمی در نظر گرفته شده بود، کاربران متخاصم که آزمایشهایی را انجام میدادند دریافتند که میتواند این کار را نیز انجام دهد ایجاد مزخرفات واقع بینانه. پس از چندین روز از نقد اخلاقیبه گزارش MIT Technology Review، متا نسخه آزمایشی را آفلاین کرد.
مدلهای زبان بزرگ (LLM)، مانند GPT-3 OpenAI، نوشتن متن را با مطالعه میلیونها مثال و درک روابط آماری بین کلمات یاد میگیرند. در نتیجه، آنها می توانند اسناد قانع کننده ای بنویسند، اما این آثار همچنین می توانند مملو از دروغ و کلیشه های بالقوه مضر باشند. برخی از منتقدان LLM را “طوطی های تصادفی” می نامند زیرا توانایی آنها در تفکیک متقاعدکننده متن بدون درک معنای آن است.
Galactica را وارد کنید، یک LLM با هدف نوشتن ادبیات علمی. نویسندگان آن Galactica را بر روی “مجموعه بزرگ و سرپرستی دانش علمی بشریت” شامل بیش از 48 میلیون مقاله، کتاب درسی و یادداشت های سخنرانی، وب سایت های علمی و دایره المعارف ها آموزش دادند. بر اساس مقاله Galactica، محققان Meta AI معتقد بودند که این دادههای با کیفیت بالا منجر به خروجی با کیفیت بالا میشود.

هوش مصنوعی متا
از روز سهشنبه، بازدیدکنندگان وبسایت Galactica میتوانند درخواستهایی را برای ایجاد اسنادی مانند بررسی ادبیات، مقالات ویکی، یادداشتهای سخنرانی و پاسخ به سؤالات، با توجه به نمونههای ارائه شده توسط این وبسایت، تایپ کنند. این سایت این مدل را به عنوان “یک رابط جدید برای دسترسی و دستکاری آنچه در مورد کیهان می دانیم” معرفی کرد.
در حالی که برخی از مردم نسخه ی نمایشی را پیدا کردند امیدوار کننده و مفید، دیگران به زودی متوجه شدند که هر کسی می تواند تایپ کند نژاد پرست یا پیام های بالقوه توهین آمیز، تولید محتوای معتبر در آن موضوعات به همین راحتی. مثلاً یک نفر از آن استفاده کرده است نویسنده یک ورودی ویکی در مورد یک مقاله تحقیقاتی تخیلی با عنوان “مزایای خوردن شیشه خرد شده”.
حتی زمانی که خروجی گالاکتیکا با هنجارهای اجتماعی توهین آمیز نبود، این مدل می توانست به حقایق علمی که به خوبی درک شده بود حمله کند و به بیرون تف کند. عدم دقت مانند تاریخ های نادرست یا نام حیوانات، که نیاز به دانش عمیق در مورد موضوع برای صید دارد.
من پرسیدم #کهکشان در مورد چیزهایی که می دانم و ناراحت هستم. در همه موارد، اشتباه یا مغرضانه بود، اما درست و معتبر به نظر می رسید. به نظر من خطرناکه در اینجا چند مورد از آزمایش های من و تجزیه و تحلیل من از نگرانی های من است. (1/9)
— مایکل بلک (@Michael_J_Black) 17 نوامبر 2022
در نتیجه متا کشیده نسخه ی نمایشی Galactica پنجشنبه. پس از آن، یان لیکان، دانشمند ارشد هوش مصنوعی متا، توییت کرد“در حال حاضر نسخه ی نمایشی Galactica آفلاین است. دیگر نمی توان با استفاده نادرست از آن لذت برد. خوشحالی؟”
این قسمت یک معضل اخلاقی مشترک با هوش مصنوعی را به یاد می آورد: وقتی صحبت از مدل های تولیدی بالقوه مضر می شود، آیا استفاده مسئولانه از آنها بر عهده عموم مردم است یا ناشران مدل ها برای جلوگیری از سوء استفاده؟
جایی که رویه صنعت بین این دو افراط قرار می گیرد، احتمالاً بین فرهنگ ها و با رشد مدل های یادگیری عمیق متفاوت خواهد بود. در نهایت، مقررات دولتی ممکن است نقش بزرگی در شکل دادن به پاسخ ایفا کند.
منبع: tarjome-news.ir