FraudGPT یک مدل زبان است که برای کمک به مجرمان در فعالیتهای کلاهبرانگیز تنظیم شده است. بیاموزید که محافظت از خود در برابر تهدیدات احتمالی چیست.
ظهور هوش مصنوعی (AI) یک شمشیر دو لبه است. مانند هر فناوری دگرگونکننده، هوش مصنوعی پتانسیل بسیار زیاد اما خطرات بسیار زیادی را نیز ارائه میکند. علیرغم فشارهای قاطع برای تنظیم هوش مصنوعی، به نظر می رسد بازیگران تهدید جلوتر از منحنی شده اند.
یک ابزار جدید به سبک ChatGPT، FraudGPT، در بین مجرمان سایبری مورد توجه قرار گرفته است و به آنها اجازه می دهد تا بخش بزرگی از عملیات کلاهبرداری خود را خودکار و بهتر اجرا کنند. هر کسی می تواند قربانی شود، بنابراین مهم است که در جریان قرار گیرد. در اینجا همه چیزهایی است که تاکنون در مورد FraudGPT می دانیم.
FraudGPT چیست؟
FraudGPT یک ابزار هوش مصنوعی است که توسط یک مدل زبان بزرگ طراحی شده است که به ویژه برای کمک به مجرمان سایبری در ارتکاب جرایم سایبری تنظیم شده است. ابزار هوش مصنوعی مبتنی بر اشتراک به عوامل تهدید اجازه می دهد تا فعالیت های مجرمانه خود مانند کارتینگ، فیشینگ و ایجاد بدافزار را تسهیل کنند.
اگرچه جزئیات در مورد این ابزار بسیار محدود است، محققان Netenrich، یک شرکت تحقیقاتی امنیتی، چندین آگهی را در وب تاریک که این ابزار را تبلیغ میکنند، کشف کردهاند. طبق گزارش تحقیقاتی Netenrich، هزینه اشتراک بین 200 دلار در ماه تا 1700 دلار در سال متغیر است.
برای تصویر بهتر از ابزار، میتوانید به تقلب GPT ChatGPT فکر کنید، اما برای تقلب. اما کلاهبرداری GPT دقیقا چگونه کار می کند و مجرمان سایبری چگونه از آن استفاده می کنند؟
FraudGPT چگونه کار می کند؟
در هسته خود، FraudGPT تفاوت قابل توجهی با هر ابزاری که توسط یک مدل زبان بزرگ ارائه می شود، ندارد. به عبارت دیگر، این ابزار خود یک رابط تعاملی برای مجرمان برای دسترسی به نوع خاصی از مدل زبانی است که برای ارتکاب جرایم سایبری تنظیم شده است.
هنوز متوجه نشدی؟ در اینجا یک ایده تقریبی از آنچه در مورد آن صحبت می کنیم وجود دارد. در روزهای اولیه راه اندازی ChatGPT، چت ربات هوش مصنوعی می تواند تقریباً برای انجام هر کاری از جمله کمک به مجرمان سایبری در ایجاد بدافزار مورد استفاده قرار گیرد. این امکان پذیر بود زیرا مدل زبان اصلی ChatGPT بر روی مجموعه دادهای آموزش داده شده بود که احتمالاً شامل نمونههایی از طیف وسیعی از دادهها، از جمله دادههایی است که میتواند به یک سرمایهگذاری جنایی کمک کند.
مدلهای زبان بزرگ معمولاً از چیزهای خوب مانند نظریههای علمی، اطلاعات بهداشتی و سیاست گرفته تا موارد نه چندان خوب مانند نمونههایی از کدهای بدافزار، پیامهای کاردینگ و کمپینهای فیشینگ و سایر مواد مجرمانه تغذیه میشوند. هنگامی که با نوع مجموعه دادههای مورد نیاز برای آموزش مدلهای زبانی مانند مدلی که ChatGPT را تقویت میکند، سروکار داریم، تقریباً اجتنابناپذیر است که مدل حاوی نمونههایی از مواد ناخواسته باشد.
علیرغم تلاشهای معمولی دقیق برای حذف مواد ناخواسته در مجموعه داده، برخی از آنها از بین میروند و معمولاً هنوز به اندازه کافی هستند تا به مدل توانایی تولید مواد برای تسهیل جرایم سایبری را بدهند. به همین دلیل است که با مهندسی سریع مناسب، میتوانید ابزارهایی مانند ChatGPT، Google Bard، و Bing AI را برای کمک به نوشتن ایمیلهای کلاهبرداری یا بدافزار رایانهای دریافت کنید.
اگر ابزارهایی مانند ChatGPT می توانند به مجرمان سایبری در ارتکاب جنایات با وجود تمام تلاش ها برای ایمن کردن این چت ربات های هوش مصنوعی کمک کنند، اکنون به قدرت ابزاری مانند FraudGPT فکر کنید که به طور خاص روی مواد مخرب تنظیم شده است تا برای جرایم سایبری مناسب باشد. مثل این است که دوقلو شیطانی ChatGPT استروئید مصرف کرده است.
بنابراین، برای استفاده از این ابزار، مجرمان میتوانند همان طور که با ChatGPT انجام میدهند، ربات چت را تحریک کنند. آنها میتوانند از آن بخواهند که مثلاً برای جین دو، که در شرکت ABC کار میکند، یک ایمیل فیشینگ بنویسد، یا شاید از او بخواهند که بدافزار را با استفاده از C++ بنویسد تا تمام فایلهای PDF را از رایانه ویندوز 10 بدزدد. مجرمان اساساً فقط مکانیزاسیون شیطانی را ایجاد می کنند و به چت بات اجازه می دهند کارهای سنگین را انجام دهد.
چگونه می توانید از خود در برابر تقلب GPT محافظت کنید؟
علیرغم اینکه نوع جدیدی از ابزار است، تهدید ناشی از FraudGPT اساساً متفاوت نیست. می توان گفت که این امر اتوماسیون و کارایی بیشتری را برای روش های از قبل ایجاد شده برای اجرای جرایم سایبری معرفی می کند.
مجرمانی که از این ابزار استفاده میکنند، حداقل از نظر تئوری، میتوانند ایمیلهای فیشینگ قانعکنندهتر بنویسند، کلاهبرداریهای بهتری را برنامهریزی کنند و بدافزارهای مؤثرتری ایجاد کنند، اما آنها عمدتاً همچنان به روشهای شناخته شده برای اجرای برنامههای پلید خود تکیه میکنند. در نتیجه، راه های ایجاد شده برای محافظت از خود همچنان اعمال می شود:
- مراقب پیامهای ناخواستهای باشید که درخواست اطلاعات میکنند یا شما را راهنمایی میکنند تا روی پیوندها کلیک کنید. در این پیام ها اطلاعات ارائه نکنید یا روی پیوندها کلیک نکنید، مگر اینکه منبع را تأیید کنید.
- برای بررسی مشروعیت، با استفاده از یک شماره مستقل و تأیید شده مستقیماً با شرکت ها تماس بگیرید. از اطلاعات تماس ارائه شده در پیام های مشکوک استفاده نکنید.
- از رمزهای عبور قوی و منحصربهفرد استفاده کنید که شکستن آنها سخت است و در صورت موجود بودن برای همه حسابها، از احراز هویت دو مرحلهای استفاده کنید. هرگز رمزهای عبور یا کدهای ارسال شده برای شما را به اشتراک نگذارید.
- مرتباً صورتهای حساب را برای فعالیت مشکوک بررسی کنید.
- نرم افزار را به روز نگه دارید و از ابزارهای آنتی ویروس یا ضد بدافزار استفاده کنید.
- اسنادی که حاوی اطلاعات هویتی شخصی یا مالی هستند را در صورت عدم نیاز، خرد کنید.
برای اطلاعات بیشتر در مورد نحوه محافظت از خود، راهنمای ما را در مورد نحوه محافظت از خود در عصر هوش مصنوعی بخوانید.
برای محافظت از خود مطلع باشید
ظهور ابزارهایی مانند FraudGPT به ما یادآوری میکند که علیرغم تمام خوبیهایی که هوش مصنوعی میتواند برای ما انجام دهد، همچنان ابزار بسیار قدرتمندی در دست بازیگران تهدید است.
از آنجایی که دولتها و شرکتهای بزرگ هوش مصنوعی در مسابقهای دیوانهوار برای اتخاذ راههای بهتر برای تنظیم هوش مصنوعی پیش میروند، مهم است که از تهدیدی که در حال حاضر هوش مصنوعی ایجاد میکند آگاه باشید و اقدامات احتیاطی لازم را برای محافظت از خود انجام دهید.