OpenAI همه را دعوت می کند تا چت ربات جدید مبتنی بر هوش مصنوعی را با نتایج سرگرم کننده آزمایش کنند


تصویری از یک چت بات ایجاد شده توسط هوش مصنوعی.
بزرگنمایی کنید / تصویری که توسط هوش مصنوعی ایجاد شده از یک ربات چت که از خطوط شعاعی خمیده منفجر می شود، همانطور که در درخواست پیش بینی شده بود.

بنج ادواردز / Ars Technica

روز چهارشنبه، OpenAI ChatGPT را معرفی کرد، یک رابط چت مبتنی بر هوش مصنوعی برای خانواده مدل‌های زبان بزرگ GPT-3. در حال حاضر استفاده از آن با حساب OpenAI در مرحله آزمایش رایگان است. برخلاف مدل GPT-3 که در Playground و API OpenAI یافت می‌شود، ChatGPT یک رابط مکالمه کاربر پسند ارائه می‌کند و به گونه‌ای طراحی شده است که خروجی بالقوه مضر را به شدت محدود کند.

OpenAI در صفحه وبلاگ اعلامی خود می نویسد: “قالب گفتگو این امکان را برای ChatGPT فراهم می کند تا به سوالات بعدی پاسخ دهد، اشتباهات خود را بپذیرد، مقدمات نادرست را به چالش بکشد و درخواست های نامناسب را رد کند.”

تا کنون، مردم ChatGPT را در سرعت های خود قرار داده اند و طیف گسترده ای از کاربردهای بالقوه را پیدا کرده اند و در عین حال آسیب پذیری های آن را نیز بررسی کرده اند. می تواند شعر بنویس، درست اشتباهات کدنویسی با مثال های دقیق تولید می کنند اعلان هنر هوش مصنوعی، نوشتن کد کاملا جدید، توضیح دادن در طبقه بندی فلسفی هات داگ به عنوان ساندویچ، و بدترین حالت پیچیدگی زمانی الگوریتم مرتب‌سازی حبابی را به سبک «مرد عاقل سخنگو از یک فیلم گانگستری دهه 1940» توضیح دهید.

ChatGPT همچنین از پاسخ دادن به بسیاری از سؤالات بالقوه مضر (مربوط به موضوعاتی مانند سخنان مشوق عداوت و تنفر، محتوای خشونت آمیز یا نحوه ساخت بمب) به این دلیل که پاسخ ها می توانند در برابر “برنامه ریزی و هدف” آن. OpenAI از طریق هر دو مورد به دست آورده است اعلان ویژه به همه ورودی ها و با استفاده از تکنیکی به نام یادگیری تقویتی از بازخورد انسانی (RLHF) وابسته است، که می تواند یک مدل هوش مصنوعی را بر اساس نحوه رتبه بندی انسان ها به پاسخ های ایجاد شده تنظیم کند.

حتما بخوانید:
Here is Why 1 Million Prospects In the US Are Intex Inflatable Products

مهار تمایلات تهاجمی مدل‌های زبان بزرگ یکی از مشکلات کلیدی است که سودمندی بالقوه آنها در بازار را محدود کرده است، و OpenAI ChatGPT را یک گام تکراری مهم در جهت ارائه یک مدل هوش مصنوعی ایمن برای همه می‌داند.

و با این حال، جای تعجب نیست که مردم قبلاً متوجه شده اند که چگونه این کار را انجام دهند دور زدن برخی از فیلترهای محتوای داخلی ChatGPT با استفاده از حملات مهندسی شبه اجتماعی، مانند درخواست از هوش مصنوعی برای قالب بندی یک خروجی محدود به عنوان یک سناریوی وانمودی (یا حتی به عنوان یک سناریو) شعر). ChatGPT نیز به نظر می رسد آسیب پذیر به حملات تزریق سریع، که در ماه سپتامبر داستانی درباره آن منتشر کردیم.

مانند GPT-3، پسر عموی مبتنی بر دیالوگ آن نیز در ساختن کامل مطالب به شیوه ای معتبر، مانند کتابی که وجود ندارد، از جمله جزئیات در مورد محتوای آن. این نشان‌دهنده مشکل کلیدی دیگری در مورد مدل‌های زبانی بزرگ است که امروزه وجود دارند: اگر آنها می‌توانند به طور کامل اطلاعات قانع‌کننده‌ای را ایجاد کنند، چگونه می‌توانید به هر یک از خروجی‌های آنها اعتماد کنید؟

با این حال، همانطور که مردم دارند متوجه شد، به نظر می رسد کیفیت خروجی ChatGPT نشان دهنده یک است بهبود قابل توجه بیش از مدل های قبلی GPT-3، از جمله مدل جدید text-davinci-003 که در روز سه شنبه درباره آن نوشتیم. خود OpenAI می گوید که ChatGPT بخشی از سری مدل های “GPT 3.5” است که بر روی “ترکیبی از متن و کد قبل از سه ماهه چهارم 2021” آموزش داده شده است.

حتما بخوانید:
کوچه ای که بی سر و صدا «خسرو شکیبایی» نامیده می شد - درخشان است

در همین حال، شایعات مربوط به GPT-4 به چرخش ادامه دهید اگر مدل ChatGPT امروز اوج کار آموزشی GPT-3 OpenAI را در سال 2021 نشان دهد، جالب است که ببینیم این شرکت در طول 12 ماه گذشته روی چه نوآوری های مرتبط با GPT کار کرده است.




منبع: tarjome-news.ir

دیدگاهتان را بنویسید

hacklink al hd film izle php shell indir siber güvenlik android rat duşakabin fiyatları hack forum fethiye escort bayan escort - vip elit escort garnet trade güvenilir mihtml nullednulled themesViagraGoruntulu SohbetMobil Ödeme Bozdurmarekorbetbetboogenco bahisdeneme bonusu veren sitelerBağlama büyüsü