خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

حملات خصمانه در یادگیری ماشینی چیست و چگونه می توانیم با آنها مبارزه کنیم؟

شاید در مورد حملات خصمانه در رابطه با هوش مصنوعی و یادگیری ماشین شنیده باشید، اما آنها چیست؟ اهداف آنها چیست؟

فناوری اغلب به این معنی است که زندگی ما راحت تر و امن تر است. با این حال، در عین حال، چنین پیشرفت‌هایی راه‌های پیچیده‌تری را برای مجرمان سایبری برای حمله به ما و فاسد کردن سیستم‌های امنیتی ما باز کرده و آنها را ناتوان کرده است.

هوش مصنوعی (AI) می تواند توسط متخصصان امنیت سایبری و مجرمان سایبری به طور یکسان مورد استفاده قرار گیرد. به طور مشابه، سیستم های یادگیری ماشینی (ML) را می توان هم برای خیر و هم برای بد استفاده کرد. این فقدان قطب‌نمای اخلاقی، حملات خصمانه در ML را به یک چالش رو به رشد تبدیل کرده است. بنابراین در واقع حملات خصمانه چیست؟ هدف آنها چیست؟ و چگونه می توانید در برابر آنها محافظت کنید؟

حملات خصمانه در یادگیری ماشینی چیست؟

شترمرغ واقعی از بالای حصار به شترمرغ تقلبی نگاه می کند.

ML دشمن یا حملات خصمانه، حملات سایبری هستند که هدف آنها فریب یک مدل ML با ورودی مخرب است و در نتیجه منجر به کاهش دقت و عملکرد ضعیف می‌شود. بنابراین، برخلاف نامش، ML متخاصم یک نوع یادگیری ماشینی نیست، بلکه تکنیک‌های مختلفی است که مجرمان سایبری (معروف به دشمنان) برای هدف قرار دادن سیستم‌های ML استفاده می‌کنند.

هدف اصلی چنین حملاتی معمولا فریب دادن مدل برای ارائه اطلاعات حساس، عدم شناسایی فعالیت های تقلبی، تولید پیش بینی های نادرست، یا خراب کردن گزارش های مبتنی بر تحلیل است. در حالی که انواع مختلفی از حملات خصمانه وجود دارد، آنها اغلب شناسایی هرزنامه مبتنی بر یادگیری عمیق را هدف قرار می دهند.

احتمالاً درباره حمله دشمن در وسط شنیده اید، که یک تکنیک فیشینگ پیچیده جدید و مؤثرتر است که شامل سرقت اطلاعات خصوصی، کوکی های جلسه و حتی دور زدن روش های احراز هویت چند عاملی (MFA) می شود. خوشبختانه، شما می توانید با فناوری MFA مقاوم در برابر فیشینگ مبارزه کنید.

مطلب مرتبط:   کلاهبرداری های سفر با هوش مصنوعی که باید در تابستان امسال مراقب باشید

انواع حملات خصمانه

برش مقوایی از زنی که از پنجره به بیرون نگاه می کند.

ساده ترین راه برای طبقه بندی انواع حملات خصمانه، تفکیک آنها به دو دسته اصلی حملات هدفمند و حملات غیر هدفمند است. همانطور که پیشنهاد می شود، حملات هدفمند دارای یک هدف خاص (مانند یک شخص خاص) هستند، در حالی که حملات غیر هدفمند شخص خاصی را در ذهن ندارند: آنها می توانند تقریباً هر کسی را هدف قرار دهند. جای تعجب نیست که حملات غیر هدفمند نسبت به همتایان هدفمند خود زمان کمتری را صرف می کنند اما موفقیت آمیزتر نیز هستند.

این دو نوع را می توان بیشتر به حملات خصمانه جعبه سفید و جعبه سیاه تقسیم کرد، جایی که رنگ نشان دهنده دانش یا عدم دانش مدل هدفمند ML است. قبل از اینکه عمیق‌تر به حملات جعبه سفید و جعبه سیاه بپردازیم، اجازه دهید نگاهی گذرا به رایج‌ترین انواع حملات دشمن بیندازیم.

  • Evasion: حملات فرار که بیشتر در سناریوهای بدافزار استفاده می‌شوند، سعی می‌کنند با پنهان کردن محتوای ایمیل‌های آلوده به بدافزار و هرزنامه، از شناسایی فرار کنند. با استفاده از روش آزمون و خطا، مهاجم داده ها را در زمان استقرار دستکاری می کند و محرمانه بودن یک مدل ML را خراب می کند. جعل بیومتریک یکی از رایج ترین نمونه های حمله فرار است.
  • مسمومیت داده ها: همچنین به عنوان حملات آلوده شناخته می شود، هدف این حملات دستکاری مدل ML در طول دوره آموزش یا استقرار و کاهش دقت و عملکرد است. با معرفی ورودی‌های مخرب، مهاجمان مدل را مختل می‌کنند و تشخیص نوع داده‌های نمونه‌ای که مدل ML را خراب می‌کنند را برای متخصصان امنیتی سخت می‌کنند.
  • خطاهای بیزانسی: این نوع حمله باعث از بین رفتن سرویس سیستم در نتیجه یک خطای بیزانسی در سیستم هایی می شود که نیاز به اجماع بین تمام گره های آن دارند. هنگامی که یکی از گره‌های مورد اعتماد آن سرکش شد، می‌تواند یک حمله انکار سرویس (DoS) را ناهار انجام دهد و سیستم را خاموش کند و از برقراری ارتباط سایر گره‌ها جلوگیری کند.
  • استخراج مدل: در یک حمله استخراج، دشمن یک سیستم جعبه سیاه ML را بررسی می‌کند تا داده‌های آموزشی آن یا – در بدترین حالت‌ها – خود مدل را استخراج کند. سپس، با در دست داشتن یک کپی از یک مدل ML، دشمن می تواند بدافزار خود را در برابر آنتی بدافزار/آنتی ویروس آزمایش کند و نحوه دور زدن آن را بیابد.
  • حملات استنتاج: مانند حملات استخراج، هدف در اینجا این است که مدل ML اطلاعاتی را در مورد داده های آموزشی خود نشت کند. با این حال، حریف سپس تلاش می‌کند تا مشخص کند از کدام مجموعه داده برای آموزش سیستم استفاده شده است تا بتواند از آسیب‌پذیری‌ها یا سوگیری‌ها در آن سوء استفاده کند.
مطلب مرتبط:   چگونه برنامه های بانکی جعلی می توانند شخصاً از شما کلاهبرداری کنند

جعبه سفید در مقابل حملات خصمانه جعبه سیاه در مقابل جعبه خاکستری

آنچه این سه نوع حمله خصمانه را متمایز می کند میزان دانش دشمنان در مورد عملکرد درونی سیستم های ML است که قصد حمله به آنها را دارند. در حالی که روش جعبه سفید به اطلاعات جامع در مورد مدل ML هدفمند (شامل معماری و پارامترهای آن) نیاز دارد، روش جعبه سیاه نیازی به اطلاعات ندارد و فقط می تواند خروجی های آن را مشاهده کند.

در همین حال، مدل جعبه خاکستری در وسط این دو نقطه افراطی قرار دارد. بر اساس آن، دشمنان می توانند اطلاعاتی در مورد مجموعه داده ها یا جزئیات دیگری در مورد مدل ML داشته باشند، اما نه همه آنها.

چگونه می توانید از یادگیری ماشینی در برابر حملات دشمن دفاع کنید؟

یک دسته از آجیل شکن های عصبانی با شمشیر.

در حالی که انسان‌ها هنوز جزء حیاتی در تقویت امنیت سایبری هستند، هوش مصنوعی و ML یاد گرفته‌اند که چگونه حملات مخرب را شناسایی و از آن جلوگیری کنند – آنها می‌توانند دقت شناسایی تهدیدات مخرب، نظارت بر فعالیت کاربر، شناسایی محتوای مشکوک و موارد دیگر را افزایش دهند. اما آیا آنها می توانند حملات خصمانه را عقب برانند و از مدل های ML محافظت کنند؟

یکی از راه‌هایی که می‌توانیم با حملات سایبری مبارزه کنیم، آموزش سیستم‌های ML برای شناسایی حملات خصمانه با افزودن نمونه‌هایی به روش آموزشی آن‌ها است.

بر خلاف این رویکرد brute force، روش تقطیر دفاعی پیشنهاد می‌کند که از مدل اولیه و کارآمدتر برای کشف ویژگی‌های حیاتی یک مدل ثانویه و کمتر کارآمد و سپس بهبود دقت مدل ثانویه با مدل اولیه استفاده کنیم. مدل های ML آموزش دیده با تقطیر دفاعی نسبت به نمونه های متخاصم حساسیت کمتری دارند، که باعث می شود آنها کمتر مستعد بهره برداری شوند.

مطلب مرتبط:   اسپلیت تونل چیست و آیا باید از آن استفاده کرد؟

ما همچنین می‌توانیم الگوریتم‌هایی را که مدل‌های ML برای طبقه‌بندی داده‌ها استفاده می‌کنند، تغییر دهیم، که می‌تواند حملات خصمانه را کمتر موفق کند.

یکی دیگر از تکنیک های قابل توجه، فشرده سازی ویژگی ها است، که فضای جستجوی موجود برای دشمنان را با “فشار دادن” ویژگی های ورودی غیر ضروری کاهش می دهد. در اینجا، هدف این است که موارد مثبت کاذب را به حداقل برسانیم و شناسایی نمونه های متخاصم را موثرتر کنیم.

حفاظت از یادگیری ماشینی و هوش مصنوعی

حملات خصمانه به ما نشان داده است که بسیاری از مدل‌های ML را می‌توان به روش‌های شگفت‌آوری از بین برد. به هر حال، یادگیری ماشینی متخاصم هنوز یک زمینه تحقیقاتی جدید در حوزه امنیت سایبری است و مشکلات پیچیده زیادی برای هوش مصنوعی و ML دارد.

در حالی که راه حل جادویی برای محافظت از این مدل ها در برابر همه حملات متخاصم وجود ندارد، آینده احتمالاً تکنیک های پیشرفته تر و استراتژی های هوشمندتر را برای مقابله با این دشمن وحشتناک به ارمغان خواهد آورد.