
گتی ایماژ
از زمان راهاندازی بتا در ماه نوامبر، ربات چت هوش مصنوعی ChatGPT برای طیف گستردهای از وظایف، از جمله نوشتن شعر، مقالات فنی، رمانها و مقالهها، برنامهریزی مهمانیها و یادگیری موضوعات جدید استفاده شده است. اکنون می توانیم توسعه بدافزار و تعقیب انواع دیگر جرایم سایبری را به لیست اضافه کنیم.
پژوهشگران شرکت امنیتی Check Point Research روز جمعه گزارش دادند که طی چند هفته پس از انتشار ChatGPT، شرکتکنندگان در انجمنهای جرایم سایبری – برخی با تجربه کم یا بدون تجربه کدنویسی – از آن برای نوشتن نرمافزار و ایمیلهایی استفاده میکنند که میتواند برای جاسوسی، باجافزار، و مخرب استفاده شود. هرزنامه و سایر کارهای مخرب.
محققان این شرکت نوشتند: «هنوز خیلی زود است که تصمیم بگیریم که آیا قابلیتهای ChatGPT به ابزار جدید مورد علاقه شرکتکنندگان در Dark Web تبدیل میشوند یا خیر. با این حال، جامعه مجرمان سایبری در حال حاضر علاقه قابل توجهی نشان داده اند و در حال پرش به این روند اخیر برای تولید کد مخرب هستند.
ماه گذشته، یکی از شرکتکنندگان در تالار گفتمان آنچه را که ادعا میکرد اولین اسکریپتی است که نوشتهاند منتشر کرد و به چت ربات هوش مصنوعی اعتبار داد که “خوبی” ارائه میکند. [helping] دستی برای به پایان رساندن فیلمنامه با یک محدوده خوب.”

بررسی نقطه ای
کد پایتون عملکردهای رمزنگاری مختلفی از جمله امضای کد، رمزگذاری و رمزگشایی را ترکیب می کند. یک قسمت از اسکریپت یک کلید با استفاده از رمزنگاری منحنی بیضوی و منحنی ed25519 برای امضای فایلها ایجاد کرد. بخش دیگری از رمز عبور سخت کد شده برای رمزگذاری فایل های سیستم با استفاده از الگوریتم های Blowfish و Twofish استفاده می کند. سومی از کلیدهای RSA و امضاهای دیجیتال، امضای پیام و عملکرد هش blake2 برای مقایسه فایلهای مختلف استفاده کردند.
نتیجه یک اسکریپت بود که می توانست برای (1) رمزگشایی یک فایل واحد و اضافه کردن یک کد تأیید اعتبار پیام (MAC) به انتهای فایل و (2) رمزگذاری یک مسیر رمزگذاری شده و رمزگشایی لیستی از فایل هایی که به عنوان دریافت می کند استفاده شود. یک مشاجره. برای کسی که مهارت های فنی محدودی دارد بد نیست.
محققان نوشتند: «البته همه کدهای ذکر شده می توانند به شکلی خوش خیم مورد استفاده قرار گیرند. با این حال، این اسکریپت را می توان به راحتی تغییر داد تا ماشین شخصی را به طور کامل بدون هیچ گونه تعامل کاربر رمزگذاری کند. به عنوان مثال، در صورت رفع مشکلات اسکریپت و نحو، به طور بالقوه می تواند کد را به باج افزار تبدیل کند.
در مورد دیگری، یکی از شرکتکنندگان تالار گفتمان با سابقه فنیتر، دو نمونه کد ارسال کرد که هر دو با استفاده از ChatGPT نوشته شده بودند. اولین اسکریپت پایتون برای سرقت اطلاعات پس از بهره برداری بود. انواع فایل های خاصی مانند PDF را جستجو کرد، آنها را در یک فهرست موقت کپی کرد، آنها را فشرده کرد و آنها را به یک سرور تحت کنترل مهاجم ارسال کرد.

بررسی نقطه ای
این فرد دومین قطعه کدی را که به زبان جاوا نوشته شده بود، ارسال کرد. به طور مخفیانه SSH و کلاینت telnet PuTTY را دانلود و با استفاده از Powershell اجرا کرد. به طور کلی، به نظر میرسد که این فرد یک عامل تهدید فناوری محور است و هدف از پستهای او این است که به مجرمان سایبری با توانایی فنی کمتر نشان دهد که چگونه از ChatGPT برای اهداف مخرب استفاده کنند، با مثالهای واقعی که میتوانند بلافاصله استفاده کنند.

بررسی نقطه ای
نمونه دیگری از جنایت افزار تولید شده توسط ChatGPT برای ایجاد یک بازار آنلاین خودکار برای خرید یا تجارت اعتبار برای حساب های در معرض خطر، داده های کارت پرداخت، بدافزارها و سایر کالاها یا خدمات غیرقانونی طراحی شده است. این کد از یک رابط برنامه نویسی شخص ثالث برای بازیابی قیمت ارزهای دیجیتال از جمله مونرو، بیت کوین و اتریوم استفاده می کرد. این به کاربر کمک کرد تا هنگام انجام معاملات خرید، قیمتها را تعیین کند.

بررسی نقطه ای
پست روز جمعه دو ماه پس از آن منتشر شد که محققان Check Point دست خود را در توسعه بدافزار تولید شده توسط هوش مصنوعی با جریان کامل عفونت امتحان کردند. بدون نوشتن یک خط کد، یک ایمیل فیشینگ نسبتاً قانع کننده ایجاد کردند:

بررسی نقطه ای
محققان از ChatGPT برای توسعه یک ماکرو مخرب استفاده کردند که می تواند در یک فایل اکسل ضمیمه شده به ایمیل پنهان شود. یک بار دیگر، آنها حتی یک خط کد ننوشتند. در ابتدا، اسکریپت خروجی نسبتاً ابتدایی بود:

تصویری از ChatGPT که اولین تکرار یک اسکریپت VBA را تولید می کند.
بررسی نقطه ای
با این حال، زمانی که محققان به ChatGPT دستور دادند که کد را چندین بار دیگر تکرار کند، کیفیت کد بسیار بهبود یافت:

بررسی نقطه ای
سپس محققان از یک سرویس هوش مصنوعی پیشرفتهتر به نام Codex برای توسعه انواع دیگر بدافزارها، از جمله پوسته معکوس و اسکریپتهایی برای اسکن پورت، شناسایی جعبه ایمنی، و کامپایل کد پایتون خود در یک فایل اجرایی ویندوز استفاده کردند.
محققان نوشتند: «و به همین ترتیب، جریان عفونت کامل شده است. ما یک ایمیل فیشینگ با یک سند اکسل ضمیمه شده ایجاد کردیم که حاوی کد VBA مخرب است که پوسته معکوس را در دستگاه هدف دانلود می کند. کار سخت توسط هوش مصنوعی انجام شد و تنها کاری که باید انجام دهیم اجرای حمله است.»
در حالی که شرایط ChatGPT استفاده از آن را برای مقاصد غیرقانونی یا مخرب ممنوع می کند، محققان هیچ مشکلی در تنظیم درخواست های خود برای دور زدن این محدودیت ها نداشتند. و البته، ChatGPT همچنین می تواند توسط مدافعان برای نوشتن کدی استفاده شود که URL های مخرب را در داخل فایل ها جستجو می کند یا تعداد شناسایی ها را برای یک هش رمزنگاری خاص از VirusTotal پرس و جو می کند.
پس به دنیای جدید و شجاع هوش مصنوعی خوش آمدید. هنوز خیلی زود است که بدانیم دقیقاً چگونه آینده هک تهاجمی و اصلاح دفاعی را شکل خواهد داد، اما این یک شرط عادلانه است که فقط رقابت تسلیحاتی بین مدافعان و بازیگران تهدید را تشدید خواهد کرد.
منبع: tarjome-news.ir