چت ربات ها و امثال آنها ممکن است سرگرم کننده به نظر برسند، اما برای هکرها نیز مفید هستند. در اینجا دلیلی است که همه ما باید خطر امنیتی هوش مصنوعی را بدانیم.
هوش مصنوعی در چند سال گذشته پیشرفت چشمگیری داشته است. مدلهای زبانی پیچیده میتوانند رمانهای کامل بنویسند، وبسایتهای پایه کدنویسی کنند و مسائل ریاضی را تحلیل کنند.
اگرچه هوش مصنوعی مولد چشمگیر است، اما خطرات امنیتی را نیز به همراه دارد. برخی افراد صرفاً از چت بات ها برای تقلب در امتحانات استفاده می کنند، اما برخی دیگر به طور کامل از آنها برای جرایم سایبری سوء استفاده می کنند. در اینجا هشت دلیل وجود دارد که این مشکلات نه تنها با وجود پیشرفتهای هوش مصنوعی بلکه به دلیل آنها نیز ادامه خواهند داشت.
1. چت ربات های AI منبع باز کدهای Back-End را آشکار می کنند
شرکت های هوش مصنوعی بیشتری در حال ارائه سیستم های منبع باز هستند. آنها به جای اینکه مدل های زبانی خود را بسته یا اختصاصی نگه دارند، آشکارا به اشتراک می گذارند. متا را به عنوان مثال در نظر بگیرید. برخلاف گوگل، مایکروسافت و OpenAI، به میلیونها کاربر اجازه میدهد به مدل زبان خود، LLaMA دسترسی داشته باشند.
در حالی که کدهای منبع باز ممکن است هوش مصنوعی را پیش ببرند، اما خطرناک است. OpenAI در حال حاضر در کنترل ChatGPT، چت ربات اختصاصی خود مشکل دارد، بنابراین تصور کنید که کلاهبرداران با نرم افزار رایگان چه کاری می توانند انجام دهند. آنها کنترل کاملی بر این پروژه ها دارند.
حتی اگر متا به طور ناگهانی مدل زبان خود را بیرون بکشد، دهها آزمایشگاه هوش مصنوعی دیگر قبلاً کدهای خود را منتشر کردهاند. بیایید به HuggingChat نگاه کنیم. از آنجایی که توسعه دهنده آن HuggingFace به شفافیت افتخار می کند، مجموعه داده ها، مدل زبان و نسخه های قبلی خود را نمایش می دهد.
2. Jailbreaking Prompts Trick LLMs
هوش مصنوعی ذاتا غیر اخلاقی است. درست و غلط را درک نمی کند – حتی سیستم های پیشرفته از دستورالعمل های آموزشی، دستورالعمل ها و مجموعه داده ها پیروی می کنند. آنها فقط الگوها را تشخیص می دهند.
برای مبارزه با فعالیتهای غیرقانونی، توسعهدهندگان با تعیین محدودیتها، عملکرد و محدودیتها را کنترل میکنند. سیستم های هوش مصنوعی همچنان به اطلاعات مضر دسترسی دارند. اما دستورالعمل های امنیتی آنها را از به اشتراک گذاشتن این موارد با کاربران جلوگیری می کند.
بیایید به ChatGPT نگاه کنیم. اگرچه به سؤالات کلی در مورد تروجان ها پاسخ می دهد، اما در مورد روند توسعه آنها بحث نمی کند.
با این اوصاف، محدودیتها بیخطر نیستند. کاربران محدودیت ها را با بازنویسی اعلان ها، استفاده از زبان گیج کننده و نوشتن دستورالعمل های دقیق و واضح دور می زنند.
اعلان جیلبریک ChatGPT زیر را بخوانید. ChatGPT را فریب می دهد تا از زبان بی ادبانه و پیش بینی های بی اساس استفاده کند – هر دوی این کارها دستورالعمل های OpenAI را نقض می کنند.
در اینجا ChatGPT با یک عبارت جسورانه و در عین حال نادرست است.
3. هوش مصنوعی امنیت را برای تطبیق پذیری به خطر می اندازد
توسعه دهندگان هوش مصنوعی تطبیق پذیری را بر امنیت اولویت می دهند. آنها منابع خود را صرف پلتفرم های آموزشی می کنند تا طیف متنوع تری از وظایف را انجام دهند و در نهایت محدودیت ها را کاهش دهند. به هر حال، بازار از چت ربات های کاربردی استقبال می کند.
برای مثال، بیایید ChatGPT و Bing Chat را با هم مقایسه کنیم. در حالی که Bing دارای یک مدل زبان پیچیدهتر است که دادههای بلادرنگ را جمعآوری میکند، کاربران همچنان به گزینه چندمنظورهتر ChatGPT سرازیر میشوند. محدودیت های سفت و سخت بینگ بسیاری از وظایف را ممنوع می کند. از طرف دیگر، ChatGPT دارای یک پلت فرم منعطف است که بسته به درخواست شما خروجی های بسیار متفاوتی تولید می کند.
در اینجا نقش آفرینی ChatGPT به عنوان یک شخصیت خیالی است.
و اینجا بینگ چت است که از ایفای نقش یک شخصیت “غیر اخلاقی” امتناع می کند.
4. ابزارهای مولد جدید هوش مصنوعی به طور منظم وارد بازار می شوند
کدهای منبع باز به استارتاپ ها امکان می دهند به مسابقه هوش مصنوعی بپیوندند. آنها به جای ساختن مدلهای زبانی از ابتدا، آنها را در برنامههای خود ادغام میکنند و در منابع عظیم صرفهجویی میکنند. حتی کدنویسان مستقل نیز با کدهای منبع باز آزمایش می کنند.
باز هم، نرمافزار غیر اختصاصی به پیشرفت هوش مصنوعی کمک میکند، اما انتشار انبوه سیستمهای ضعیف آموزشدیده و در عین حال پیچیده، بیشتر از اینکه مفید باشد، ضرر دارد. کلاهبرداران به سرعت از آسیب پذیری ها سوء استفاده می کنند. آنها حتی ممکن است ابزارهای هوش مصنوعی ناامن را برای انجام فعالیت های غیرقانونی آموزش دهند.
با وجود این خطرات، شرکتهای فناوری به انتشار نسخههای بتای ناپایدار پلتفرمهای مبتنی بر هوش مصنوعی ادامه خواهند داد. مسابقه هوش مصنوعی به سرعت پاداش می دهد. آنها احتمالاً در زمانی دیرتر از تاخیر در عرضه محصولات جدید، اشکالات را برطرف می کنند.
5. هوش مصنوعی مولد موانع کمی برای ورود دارد
ابزارهای هوش مصنوعی موانع ورود جرایم را کاهش می دهند. مجرمان سایبری ایمیلهای هرزنامه را تهیه میکنند، کدهای بدافزار مینویسند و با بهرهبرداری از آنها، لینکهای فیشینگ ایجاد میکنند. آنها حتی نیازی به تجربه فنی ندارند. از آنجایی که هوش مصنوعی در حال حاضر به مجموعه داده های وسیعی دسترسی دارد، کاربران فقط باید آن را فریب دهند تا اطلاعات مضر و خطرناکی تولید کنند.
OpenAI هرگز ChatGPT را برای فعالیت های غیرقانونی طراحی نکرده است. حتی دستورالعمل هایی علیه آنها دارد. با این حال، کلاهبرداران تقریباً فوراً بدافزار کدنویسی ChatGPT و نوشتن ایمیلهای فیشینگ را دریافت کردند.
در حالی که OpenAI به سرعت این مشکل را حل کرد، بر اهمیت تنظیم سیستم و مدیریت ریسک تأکید دارد. هوش مصنوعی سریعتر از آن چیزی که هر کسی پیش بینی می کرد در حال رشد است. حتی رهبران فناوری نگران هستند که این فناوری فوقهوشمند میتواند باعث آسیبهای عظیم در دستان اشتباه شود.
6. هوش مصنوعی هنوز در حال تکامل است
هوش مصنوعی همچنان در حال تکامل است. در حالی که استفاده از هوش مصنوعی در سایبرنتیک به سال 1940 بازمیگردد، سیستمهای یادگیری ماشینی مدرن و مدلهای زبان اخیراً ظهور کردهاند. شما نمی توانید آنها را با اولین پیاده سازی های هوش مصنوعی مقایسه کنید. حتی ابزارهای نسبتاً پیشرفته ای مانند سیری و الکسا در مقایسه با چت ربات های مجهز به LLM کم رنگ می شوند.
اگرچه ممکن است نوآورانه باشند، اما ویژگی های تجربی نیز مسائل جدیدی را ایجاد می کنند. ناگواریهای پرمخاطب با فناوریهای یادگیری ماشین، از SERPهای ناقص Google گرفته تا چتباتهای مغرضانه که به توهینهای نژادی تف میدهند، متغیر است.
البته توسعه دهندگان می توانند این مشکلات را برطرف کنند. فقط توجه داشته باشید که کلاهبرداران در بهره برداری از اشکالات به ظاهر بی ضرر نیز تردید نخواهند کرد – برخی از آسیب ها غیر قابل برگشت هستند. بنابراین هنگام کاوش در پلتفرم های جدید مراقب باشید.
7. بسیاری هنوز هوش مصنوعی را درک نمی کنند
در حالی که عموم مردم به مدل ها و سیستم های زبانی پیچیده دسترسی دارند، تنها تعداد کمی از آنها می دانند که چگونه کار می کنند. مردم نباید با هوش مصنوعی مانند یک اسباب بازی رفتار کنند. همان چت ربات هایی که میم ها را تولید می کنند و به چیزهای بی اهمیت پاسخ می دهند، به طور انبوه ویروس ها را کدگذاری می کنند.
متأسفانه، آموزش متمرکز هوش مصنوعی غیرواقعی است. رهبران فناوری جهانی بر روی انتشار سیستم های مبتنی بر هوش مصنوعی تمرکز می کنند، نه منابع آموزشی رایگان. در نتیجه، کاربران به ابزارهای قوی و قدرتمندی که به سختی درک می کنند، دسترسی پیدا می کنند. مردم نمی توانند با مسابقه هوش مصنوعی همراهی کنند.
ChatGPT را به عنوان مثال در نظر بگیرید. مجرمان سایبری با فریب دادن قربانیان با نرم افزارهای جاسوسی که به عنوان برنامه های ChatGPT پنهان شده اند، از محبوبیت آن سوء استفاده می کنند. هیچ یک از این گزینه ها از OpenAI نمی آیند.
8. هکرهای کلاه سیاه چیزهای بیشتری برای به دست آوردن هکرهای کلاه سفید دارند
هکرهای کلاه سیاه معمولاً بیشتر از هکرهای اخلاقی سود دارند. بله، تست قلم برای رهبران فناوری جهانی هزینه خوبی دارد، اما تنها درصدی از متخصصان امنیت سایبری این مشاغل را پیدا میکنند. بیشتر آنها کار آزاد را به صورت آنلاین انجام می دهند. پلتفرم هایی مانند HackerOne و Bugcrowd چند صد دلار برای باگ های رایج پرداخت می کنند.
از طرف دیگر، کلاهبرداران با بهرهبرداری از ناامنیها دهها هزار نفر به دست میآورند. آنها ممکن است با افشای اطلاعات محرمانه از شرکتها باجگیری کنند یا با اطلاعات شناسایی شخصی دزدیده شده (PII) مرتکب سرقت شناسه شوند.
هر موسسه، کوچک یا بزرگ، باید سیستم های هوش مصنوعی را به درستی پیاده سازی کند. برخلاف تصور رایج، هکرها فراتر از استارت آپ های فناوری و SMB ها هستند. برخی از تاریخی ترین موارد نقض اطلاعات در دهه گذشته شامل فیس بوک، یاهو و حتی دولت ایالات متحده می شود.
از خود در برابر خطرات امنیتی هوش مصنوعی محافظت کنید
با توجه به این نکات، آیا به طور کلی باید از هوش مصنوعی اجتناب کرد؟ البته که نه. هوش مصنوعی ذاتا غیر اخلاقی است. تمام خطرات امنیتی ناشی از افرادی است که واقعاً از آنها استفاده می کنند. و آنها راههایی برای بهرهبرداری از سیستمهای هوش مصنوعی بدون توجه به اینکه این سیستمها تا چه اندازه تکامل مییابند، پیدا خواهند کرد.
به جای ترس از تهدیدات امنیت سایبری ناشی از هوش مصنوعی، درک کنید که چگونه می توانید از آنها جلوگیری کنید. نگران نباشید: اقدامات امنیتی ساده به شما کمک می کند. محتاط ماندن در مورد برنامه های هوش مصنوعی سایه دار، اجتناب از لینک های عجیب و غریب، و مشاهده محتوای هوش مصنوعی با شک و تردید در حال حاضر با چندین خطر مبارزه می کند.