هوش مصنوعی مولد یک شمشیر دولبه است که برای حمله و دفاع در برابر جرایم سایبری استفاده می شود.
هوش مصنوعی مولد (AI) اخیرا در کانون توجه قرار گرفته است. ربات چت مبتنی بر هوش مصنوعی ChatGPT و دیگر سیستمهای پشتیبانی شده از پردازش زبان طبیعی مانند VALL-E هوش مصنوعی مولد را برای عموم مردم به ارمغان آوردهاند و فواید و اثرات سوء آن را آشکار کردهاند.
یکی از نگرانی های اصلی در مورد هوش مصنوعی مولد این واقعیت است که می توان از آن برای ارتقاء سوء استفاده های مخرب و ارائه حملات سایبری پیچیده تر استفاده کرد. بنابراین، چگونه هکرها از هوش مصنوعی مولد در حملات خود استفاده می کنند و این چه معنایی برای آینده امنیت سایبری دارد؟
هوش مصنوعی مولد چیست و چگونه کار می کند؟
همانطور که از نامش پیداست، هوش مصنوعی مولد نوعی از هوش مصنوعی است که قادر به تولید محتوای جدید – تصویر، متن، صدا و داده های مصنوعی است.
یکی از نمونههای معروف ChatGPT است، یک ربات چت مبتنی بر هوش مصنوعی که با آن میتوانید مکالمات انسانمانندی داشته باشید و توصیههای فوقالعادهای برای فیلم دریافت کنید، یعنی اگر نمیتوانید به ماموریت معنادارتری برای ارسال ChatGPT فکر کنید.
اجازه دهید یک یا دو ایده به شما بدهیم—شما می توانید ChatGPT را دریافت کنید تا همه آن ایمیل های دشوار را برای شما بنویسد، از ChatGPT به عنوان یک ابزار ترجمه استفاده کنید و حتی ChatGPT را به دستیار برنامه ریزی غذای سالم خود تبدیل کنید. در مجموع، در عرض چند ثانیه، این چت بات می تواند محتوای به ظاهر جدید و متقاعدکننده ای ارائه دهد و آن را به شیوه ای کاملاً درست از نظر سیاسی ارائه کند.
با این حال، هنوز یک هوش مصنوعی مولد نمی تواند به گونه ای که انسان می تواند خلاق باشد. این به این دلیل است که از الگوریتمهای یادگیری ماشینی بدون نظارت و نیمه نظارت برای پردازش دادههای بسیار زیاد و تولید خروجیهای سفارشی استفاده میکند.
به عنوان مثال، اگر میخواهید یک نقاشی شبیه پیکاسو را از یک هوش مصنوعی مولد مانند DALL-E 2 سفارش دهید، باید توضیحات خود را در یک قسمت مشخص تایپ کنید – مثلاً «گرنیکای پیکاسو اما با بچه گربهها» – و به آن بچسبید. برای چند ثانیه در طول این مدت، هوش مصنوعی تمام ویژگیهای خاص سبک هنرمندی را که قبلاً آموخته است، اعمال میکند، بچهگربهها را برای اندازهگیری خوب اضافه میکند و چیزی اصیل ارائه میکند—ما آن تصویر را که میتوانید کمی در بالا ببینید، دریافت کردیم.
چگونه هکرها از هوش مصنوعی در حملات خود استفاده می کنند؟
افراد بد همیشه جذب الگوریتم های خوب بوده اند. بنابراین جای تعجب نیست که آنها از هوش مصنوعی مولد برای تقویت حملات خود سوء استفاده می کنند. با استفاده از روشهای ML مانند یادگیری تقویتی و شبکههای متخاصم مولد، مجرمان سایبری میتوانند حملات سایبری جدید و پیچیدهتری داشته باشند که میتوانند از دفاع سایبری استاندارد عبور کنند.
یکی از نمونههای این انحراف، چت ربات «برترین» OpenAI است، زیرا ChatGPT توسط مجرمان سایبری برای نوشتن بدافزار استفاده میشود. در ابتدا، ChatGPT تماماً سرگرم کننده و بازی به نظر می رسید، اما اکنون به عنوان یکی از تهدیدهای اصلی امنیت و حریم خصوصی در معرض دید قرار گرفته است. اگر دوست دارید با ChatGPT چت کنید، بهتر است مراقب کارهایی که مجرمان سایبری می توانند با ChatGPT انجام دهند، باشید.
به طور خلاصه، ChatGPT و سایر ابزارهای مولد هوش مصنوعی زندگی را برای مجرمان سایبری آسانتر و برای تیمهای امنیتی سختتر کردهاند. برخی از راه هایی که بازیگران تهدید سایبری از هوش مصنوعی در حملات خود استفاده می کنند عبارتند از:
- ساخت بدافزار بهتر و پیچیدهتر: در دست هکرها، از هوش مصنوعی مولد میتوان برای تولید انواع بدافزارها و اجرای حملات استفاده کرد. در ترکیب با مدلهای هوش مصنوعی، بدافزار میتواند قصد خود را پنهان کند تا زمانی که به هدف بد خود برسد.
- نوشتن ایمیلهای فیشینگ شخصیشده و مبتنی بر هوش مصنوعی: با کمک هوش مصنوعی مولد، ایمیلهای فیشینگ دیگر نشانههای کلاهبرداری را ندارند – مانند املای ضعیف، گرامر بد، و نداشتن زمینه. به علاوه، با هوش مصنوعی مانند ChatGPT، عوامل تهدید می توانند حملات فیشینگ را با سرعت و مقیاس بی سابقه ای انجام دهند.
- تولید دادههای جعلی عمیق: از آنجایی که میتواند تقلید متقاعدکنندهای از فعالیتهای انسانی (مانند نوشتار، گفتار و تصاویر) ایجاد کند، هوش مصنوعی مولد میتواند در فعالیتهای متقلبانه مانند سرقت هویت، کلاهبرداری مالی و اطلاعات نادرست استفاده شود.
- شکستن CAPTCHA و حدس زدن رمز عبور: CAPTCHA که توسط سایتها و شبکهها برای مقابله با رباتهایی که به دنبال دسترسی غیرمجاز هستند استفاده میشود، اکنون میتوان CAPTCHA توسط هکرها دور زد. با استفاده از ML، آنها همچنین می توانند سایر وظایف تکراری مانند حدس زدن رمز عبور و حملات brute-force را نیز انجام دهند.
- خرابکاری ML در تشخیص تهدیدات سایبری: اگر یک سیستم امنیتی با موارد مثبت کاذب بیش از حد غرق شود، یک هکر می تواند آن را با یک حمله سایبری واقعی غافلگیر کند.
چگونه می توانیم با تهدیدات هوش مصنوعی مولد مبارزه کنیم؟
با پیچیدهتر شدن حملات سایبری و جدیتر شدن پیامدهای آن، سیستمهای امنیتی سنتی به چیزهایی از دوران گذشته تبدیل خواهند شد. با توانایی یادگیری از حملات قبلی و سازگاری، هوش مصنوعی دارایی ارزشمندی هم برای مجرمان سایبری و هم برای دشمنان آنها است.
استفاده از هوش مصنوعی در امنیت سایبری دارای مزایای جدی مانند تشخیص سریعتر تهدید، شناسایی تهدید و پاسخ به تهدید است – بنابراین، مبارزه با آتش با آتش پاسخ درستی به نظر می رسد. قبل از اینکه مجرمان سایبری یاد بگیرند که چگونه ضربات ویرانگر را به افراد و شرکت ها در سراسر جهان وارد کنند، متخصصان امنیت سایبری باید به سیستم های مجهز به هوش مصنوعی خود بیاموزند که از خود در برابر این حملات محافظت کنند.
با این حال، همه چیز به هوش مصنوعی بستگی ندارد. از این گذشته، ما همچنین میتوانیم امنیت و حریم خصوصی خود را با روشهای آزمایششده و آزمایششده مانند احراز هویت چند عاملی (MFA)، فناوری بیومتریک، استفاده از مدیر رمز عبور، استفاده از بهترین ابزارهای رمزگذاریشده همکاری، و یک ابزار خوب و قدیمی تقویت کنیم. حس مشترک.
مبارزه با هوش مصنوعی با هوش مصنوعی
بنابراین، آیا در آینده نزدیک شاهد جنگ های امنیت سایبری هوش مصنوعی خواهیم بود؟ خب امیدواریم نه با این حال، همانطور که هوش مصنوعی به پیشرفت خود ادامه می دهد و برای همه – مجرمان سایبری و متخصصان امنیت سایبری به طور یکسان قابل دسترسی است – نقش هوش مصنوعی و ML در سال های آینده بزرگتر خواهد شد.