شاید در مورد حملات خصمانه در رابطه با هوش مصنوعی و یادگیری ماشین شنیده باشید، اما آنها چیست؟ اهداف آنها چیست؟
فناوری اغلب به این معنی است که زندگی ما راحت تر و امن تر است. با این حال، در عین حال، چنین پیشرفتهایی راههای پیچیدهتری را برای مجرمان سایبری برای حمله به ما و فاسد کردن سیستمهای امنیتی ما باز کرده و آنها را ناتوان کرده است.
هوش مصنوعی (AI) می تواند توسط متخصصان امنیت سایبری و مجرمان سایبری به طور یکسان مورد استفاده قرار گیرد. به طور مشابه، سیستم های یادگیری ماشینی (ML) را می توان هم برای خیر و هم برای بد استفاده کرد. این فقدان قطبنمای اخلاقی، حملات خصمانه در ML را به یک چالش رو به رشد تبدیل کرده است. بنابراین در واقع حملات خصمانه چیست؟ هدف آنها چیست؟ و چگونه می توانید در برابر آنها محافظت کنید؟
حملات خصمانه در یادگیری ماشینی چیست؟
ML دشمن یا حملات خصمانه، حملات سایبری هستند که هدف آنها فریب یک مدل ML با ورودی مخرب است و در نتیجه منجر به کاهش دقت و عملکرد ضعیف میشود. بنابراین، برخلاف نامش، ML متخاصم یک نوع یادگیری ماشینی نیست، بلکه تکنیکهای مختلفی است که مجرمان سایبری (معروف به دشمنان) برای هدف قرار دادن سیستمهای ML استفاده میکنند.
هدف اصلی چنین حملاتی معمولا فریب دادن مدل برای ارائه اطلاعات حساس، عدم شناسایی فعالیت های تقلبی، تولید پیش بینی های نادرست، یا خراب کردن گزارش های مبتنی بر تحلیل است. در حالی که انواع مختلفی از حملات خصمانه وجود دارد، آنها اغلب شناسایی هرزنامه مبتنی بر یادگیری عمیق را هدف قرار می دهند.
احتمالاً درباره حمله دشمن در وسط شنیده اید، که یک تکنیک فیشینگ پیچیده جدید و مؤثرتر است که شامل سرقت اطلاعات خصوصی، کوکی های جلسه و حتی دور زدن روش های احراز هویت چند عاملی (MFA) می شود. خوشبختانه، شما می توانید با فناوری MFA مقاوم در برابر فیشینگ مبارزه کنید.
انواع حملات خصمانه
ساده ترین راه برای طبقه بندی انواع حملات خصمانه، تفکیک آنها به دو دسته اصلی حملات هدفمند و حملات غیر هدفمند است. همانطور که پیشنهاد می شود، حملات هدفمند دارای یک هدف خاص (مانند یک شخص خاص) هستند، در حالی که حملات غیر هدفمند شخص خاصی را در ذهن ندارند: آنها می توانند تقریباً هر کسی را هدف قرار دهند. جای تعجب نیست که حملات غیر هدفمند نسبت به همتایان هدفمند خود زمان کمتری را صرف می کنند اما موفقیت آمیزتر نیز هستند.
این دو نوع را می توان بیشتر به حملات خصمانه جعبه سفید و جعبه سیاه تقسیم کرد، جایی که رنگ نشان دهنده دانش یا عدم دانش مدل هدفمند ML است. قبل از اینکه عمیقتر به حملات جعبه سفید و جعبه سیاه بپردازیم، اجازه دهید نگاهی گذرا به رایجترین انواع حملات دشمن بیندازیم.
- Evasion: حملات فرار که بیشتر در سناریوهای بدافزار استفاده میشوند، سعی میکنند با پنهان کردن محتوای ایمیلهای آلوده به بدافزار و هرزنامه، از شناسایی فرار کنند. با استفاده از روش آزمون و خطا، مهاجم داده ها را در زمان استقرار دستکاری می کند و محرمانه بودن یک مدل ML را خراب می کند. جعل بیومتریک یکی از رایج ترین نمونه های حمله فرار است.
- مسمومیت داده ها: همچنین به عنوان حملات آلوده شناخته می شود، هدف این حملات دستکاری مدل ML در طول دوره آموزش یا استقرار و کاهش دقت و عملکرد است. با معرفی ورودیهای مخرب، مهاجمان مدل را مختل میکنند و تشخیص نوع دادههای نمونهای که مدل ML را خراب میکنند را برای متخصصان امنیتی سخت میکنند.
- خطاهای بیزانسی: این نوع حمله باعث از بین رفتن سرویس سیستم در نتیجه یک خطای بیزانسی در سیستم هایی می شود که نیاز به اجماع بین تمام گره های آن دارند. هنگامی که یکی از گرههای مورد اعتماد آن سرکش شد، میتواند یک حمله انکار سرویس (DoS) را ناهار انجام دهد و سیستم را خاموش کند و از برقراری ارتباط سایر گرهها جلوگیری کند.
- استخراج مدل: در یک حمله استخراج، دشمن یک سیستم جعبه سیاه ML را بررسی میکند تا دادههای آموزشی آن یا – در بدترین حالتها – خود مدل را استخراج کند. سپس، با در دست داشتن یک کپی از یک مدل ML، دشمن می تواند بدافزار خود را در برابر آنتی بدافزار/آنتی ویروس آزمایش کند و نحوه دور زدن آن را بیابد.
- حملات استنتاج: مانند حملات استخراج، هدف در اینجا این است که مدل ML اطلاعاتی را در مورد داده های آموزشی خود نشت کند. با این حال، حریف سپس تلاش میکند تا مشخص کند از کدام مجموعه داده برای آموزش سیستم استفاده شده است تا بتواند از آسیبپذیریها یا سوگیریها در آن سوء استفاده کند.
جعبه سفید در مقابل حملات خصمانه جعبه سیاه در مقابل جعبه خاکستری
آنچه این سه نوع حمله خصمانه را متمایز می کند میزان دانش دشمنان در مورد عملکرد درونی سیستم های ML است که قصد حمله به آنها را دارند. در حالی که روش جعبه سفید به اطلاعات جامع در مورد مدل ML هدفمند (شامل معماری و پارامترهای آن) نیاز دارد، روش جعبه سیاه نیازی به اطلاعات ندارد و فقط می تواند خروجی های آن را مشاهده کند.
در همین حال، مدل جعبه خاکستری در وسط این دو نقطه افراطی قرار دارد. بر اساس آن، دشمنان می توانند اطلاعاتی در مورد مجموعه داده ها یا جزئیات دیگری در مورد مدل ML داشته باشند، اما نه همه آنها.
چگونه می توانید از یادگیری ماشینی در برابر حملات دشمن دفاع کنید؟
در حالی که انسانها هنوز جزء حیاتی در تقویت امنیت سایبری هستند، هوش مصنوعی و ML یاد گرفتهاند که چگونه حملات مخرب را شناسایی و از آن جلوگیری کنند – آنها میتوانند دقت شناسایی تهدیدات مخرب، نظارت بر فعالیت کاربر، شناسایی محتوای مشکوک و موارد دیگر را افزایش دهند. اما آیا آنها می توانند حملات خصمانه را عقب برانند و از مدل های ML محافظت کنند؟
یکی از راههایی که میتوانیم با حملات سایبری مبارزه کنیم، آموزش سیستمهای ML برای شناسایی حملات خصمانه با افزودن نمونههایی به روش آموزشی آنها است.
بر خلاف این رویکرد brute force، روش تقطیر دفاعی پیشنهاد میکند که از مدل اولیه و کارآمدتر برای کشف ویژگیهای حیاتی یک مدل ثانویه و کمتر کارآمد و سپس بهبود دقت مدل ثانویه با مدل اولیه استفاده کنیم. مدل های ML آموزش دیده با تقطیر دفاعی نسبت به نمونه های متخاصم حساسیت کمتری دارند، که باعث می شود آنها کمتر مستعد بهره برداری شوند.
ما همچنین میتوانیم الگوریتمهایی را که مدلهای ML برای طبقهبندی دادهها استفاده میکنند، تغییر دهیم، که میتواند حملات خصمانه را کمتر موفق کند.
یکی دیگر از تکنیک های قابل توجه، فشرده سازی ویژگی ها است، که فضای جستجوی موجود برای دشمنان را با “فشار دادن” ویژگی های ورودی غیر ضروری کاهش می دهد. در اینجا، هدف این است که موارد مثبت کاذب را به حداقل برسانیم و شناسایی نمونه های متخاصم را موثرتر کنیم.
حفاظت از یادگیری ماشینی و هوش مصنوعی
حملات خصمانه به ما نشان داده است که بسیاری از مدلهای ML را میتوان به روشهای شگفتآوری از بین برد. به هر حال، یادگیری ماشینی متخاصم هنوز یک زمینه تحقیقاتی جدید در حوزه امنیت سایبری است و مشکلات پیچیده زیادی برای هوش مصنوعی و ML دارد.
در حالی که راه حل جادویی برای محافظت از این مدل ها در برابر همه حملات متخاصم وجود ندارد، آینده احتمالاً تکنیک های پیشرفته تر و استراتژی های هوشمندتر را برای مقابله با این دشمن وحشتناک به ارمغان خواهد آورد.