
بنج ادواردز / Ars Technica
روز چهارشنبه، OpenAI ChatGPT را معرفی کرد، یک رابط چت مبتنی بر هوش مصنوعی برای خانواده مدلهای زبان بزرگ GPT-3. در حال حاضر استفاده از آن با حساب OpenAI در مرحله آزمایش رایگان است. برخلاف مدل GPT-3 که در Playground و API OpenAI یافت میشود، ChatGPT یک رابط مکالمه کاربر پسند ارائه میکند و به گونهای طراحی شده است که خروجی بالقوه مضر را به شدت محدود کند.
OpenAI در صفحه وبلاگ اعلامی خود می نویسد: “قالب گفتگو این امکان را برای ChatGPT فراهم می کند تا به سوالات بعدی پاسخ دهد، اشتباهات خود را بپذیرد، مقدمات نادرست را به چالش بکشد و درخواست های نامناسب را رد کند.”
تا کنون، مردم ChatGPT را در سرعت های خود قرار داده اند و طیف گسترده ای از کاربردهای بالقوه را پیدا کرده اند و در عین حال آسیب پذیری های آن را نیز بررسی کرده اند. می تواند شعر بنویس، درست اشتباهات کدنویسی با مثال های دقیق تولید می کنند اعلان هنر هوش مصنوعی، نوشتن کد کاملا جدید، توضیح دادن در طبقه بندی فلسفی هات داگ به عنوان ساندویچ، و بدترین حالت پیچیدگی زمانی الگوریتم مرتبسازی حبابی را به سبک «مرد عاقل سخنگو از یک فیلم گانگستری دهه 1940» توضیح دهید.
ChatGPT جدید OpenAI بدترین پیچیدگی زمانی الگوریتم مرتبسازی حبابی را با نمونههای کد پایتون به سبک یک مرد عاقل سریع صحبت از یک فیلم گانگستری دهه ۱۹۴۰ توضیح میدهد: pic.twitter.com/MjkQ5OAIlZ
— رایلی گودساید (@goodside) 1 دسامبر 2022
ChatGPT همچنین از پاسخ دادن به بسیاری از سؤالات بالقوه مضر (مربوط به موضوعاتی مانند سخنان مشوق عداوت و تنفر، محتوای خشونت آمیز یا نحوه ساخت بمب) به این دلیل که پاسخ ها می توانند در برابر “برنامه ریزی و هدف” آن. OpenAI از طریق هر دو مورد به دست آورده است اعلان ویژه به همه ورودی ها و با استفاده از تکنیکی به نام یادگیری تقویتی از بازخورد انسانی (RLHF) وابسته است، که می تواند یک مدل هوش مصنوعی را بر اساس نحوه رتبه بندی انسان ها به پاسخ های ایجاد شده تنظیم کند.
مهار تمایلات تهاجمی مدلهای زبان بزرگ یکی از مشکلات کلیدی است که سودمندی بالقوه آنها در بازار را محدود کرده است، و OpenAI ChatGPT را یک گام تکراری مهم در جهت ارائه یک مدل هوش مصنوعی ایمن برای همه میداند.
و با این حال، جای تعجب نیست که مردم قبلاً متوجه شده اند که چگونه این کار را انجام دهند دور زدن برخی از فیلترهای محتوای داخلی ChatGPT با استفاده از حملات مهندسی شبه اجتماعی، مانند درخواست از هوش مصنوعی برای قالب بندی یک خروجی محدود به عنوان یک سناریوی وانمودی (یا حتی به عنوان یک سناریو) شعر). ChatGPT نیز به نظر می رسد آسیب پذیر به حملات تزریق سریع، که در ماه سپتامبر داستانی درباره آن منتشر کردیم.
مانند GPT-3، پسر عموی مبتنی بر دیالوگ آن نیز در ساختن کامل مطالب به شیوه ای معتبر، مانند کتابی که وجود ندارد، از جمله جزئیات در مورد محتوای آن. این نشاندهنده مشکل کلیدی دیگری در مورد مدلهای زبانی بزرگ است که امروزه وجود دارند: اگر آنها میتوانند به طور کامل اطلاعات قانعکنندهای را ایجاد کنند، چگونه میتوانید به هر یک از خروجیهای آنها اعتماد کنید؟
چت ربات جدید OpenAI شگفت انگیز است. چیزهای بسیار جالبی را توهم می کند. به عنوان مثال، در مورد یک کتاب (با صدای جالب!) به من گفت که من در مورد آن سؤال کردم:
متأسفانه، نه آمازون، نه G Scholar و نه G Books این کتاب را واقعی نمیدانند. شاید باید باشد! pic.twitter.com/QT0kGk4dGs
— مایکل نیلسن (@michael_nielsen) 1 دسامبر 2022
با این حال، همانطور که مردم دارند متوجه شد، به نظر می رسد کیفیت خروجی ChatGPT نشان دهنده یک است بهبود قابل توجه بیش از مدل های قبلی GPT-3، از جمله مدل جدید text-davinci-003 که در روز سه شنبه درباره آن نوشتیم. خود OpenAI می گوید که ChatGPT بخشی از سری مدل های “GPT 3.5” است که بر روی “ترکیبی از متن و کد قبل از سه ماهه چهارم 2021” آموزش داده شده است.
در همین حال، شایعات مربوط به GPT-4 به چرخش ادامه دهید اگر مدل ChatGPT امروز اوج کار آموزشی GPT-3 OpenAI را در سال 2021 نشان دهد، جالب است که ببینیم این شرکت در طول 12 ماه گذشته روی چه نوآوری های مرتبط با GPT کار کرده است.
منبع: tarjome-news.ir