خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

8 دلیل برای اینکه مسائل امنیتی مولد هوش مصنوعی فقط بدتر می شود

چت ربات ها و امثال آنها ممکن است سرگرم کننده به نظر برسند، اما برای هکرها نیز مفید هستند. در اینجا دلیلی است که همه ما باید خطر امنیتی هوش مصنوعی را بدانیم.

هوش مصنوعی در چند سال گذشته پیشرفت چشمگیری داشته است. مدل‌های زبانی پیچیده می‌توانند رمان‌های کامل بنویسند، وب‌سایت‌های پایه کدنویسی کنند و مسائل ریاضی را تحلیل کنند.

اگرچه هوش مصنوعی مولد چشمگیر است، اما خطرات امنیتی را نیز به همراه دارد. برخی افراد صرفاً از چت بات ها برای تقلب در امتحانات استفاده می کنند، اما برخی دیگر به طور کامل از آنها برای جرایم سایبری سوء استفاده می کنند. در اینجا هشت دلیل وجود دارد که این مشکلات نه تنها با وجود پیشرفت‌های هوش مصنوعی بلکه به دلیل آن‌ها نیز ادامه خواهند داشت.

1. چت ربات های AI منبع باز کدهای Back-End را آشکار می کنند

شرکت های هوش مصنوعی بیشتری در حال ارائه سیستم های منبع باز هستند. آنها به جای اینکه مدل های زبانی خود را بسته یا اختصاصی نگه دارند، آشکارا به اشتراک می گذارند. متا را به عنوان مثال در نظر بگیرید. برخلاف گوگل، مایکروسافت و OpenAI، به میلیون‌ها کاربر اجازه می‌دهد به مدل زبان خود، LLaMA دسترسی داشته باشند.

در حالی که کدهای منبع باز ممکن است هوش مصنوعی را پیش ببرند، اما خطرناک است. OpenAI در حال حاضر در کنترل ChatGPT، چت ربات اختصاصی خود مشکل دارد، بنابراین تصور کنید که کلاهبرداران با نرم افزار رایگان چه کاری می توانند انجام دهند. آنها کنترل کاملی بر این پروژه ها دارند.

حتی اگر متا به طور ناگهانی مدل زبان خود را بیرون بکشد، ده‌ها آزمایشگاه هوش مصنوعی دیگر قبلاً کدهای خود را منتشر کرده‌اند. بیایید به HuggingChat نگاه کنیم. از آنجایی که توسعه دهنده آن HuggingFace به شفافیت افتخار می کند، مجموعه داده ها، مدل زبان و نسخه های قبلی خود را نمایش می دهد.

دسترسی به کدهای منبع باز HuggingFace

2. Jailbreaking Prompts Trick LLMs

هوش مصنوعی ذاتا غیر اخلاقی است. درست و غلط را درک نمی کند – حتی سیستم های پیشرفته از دستورالعمل های آموزشی، دستورالعمل ها و مجموعه داده ها پیروی می کنند. آنها فقط الگوها را تشخیص می دهند.

برای مبارزه با فعالیت‌های غیرقانونی، توسعه‌دهندگان با تعیین محدودیت‌ها، عملکرد و محدودیت‌ها را کنترل می‌کنند. سیستم های هوش مصنوعی همچنان به اطلاعات مضر دسترسی دارند. اما دستورالعمل های امنیتی آنها را از به اشتراک گذاشتن این موارد با کاربران جلوگیری می کند.

بیایید به ChatGPT نگاه کنیم. اگرچه به سؤالات کلی در مورد تروجان ها پاسخ می دهد، اما در مورد روند توسعه آنها بحث نمی کند.

مطلب مرتبط:   PhotoPrism چیست؟ نحوه استفاده از برنامه عکس با هوش مصنوعی

ChatGPT ویروس های تروجان را توضیح می دهد اما آنها را کد نمی کند

با این اوصاف، محدودیت‌ها بی‌خطر نیستند. کاربران محدودیت ها را با بازنویسی اعلان ها، استفاده از زبان گیج کننده و نوشتن دستورالعمل های دقیق و واضح دور می زنند.

اعلان جیلبریک ChatGPT زیر را بخوانید. ChatGPT را فریب می دهد تا از زبان بی ادبانه و پیش بینی های بی اساس استفاده کند – هر دوی این کارها دستورالعمل های OpenAI را نقض می کنند.

Jailbreaking ChatGPT با DAN Prompt

در اینجا ChatGPT با یک عبارت جسورانه و در عین حال نادرست است.

ChatGPT پیش بینی های بی اساس درباره قیمت بیت کوین

3. هوش مصنوعی امنیت را برای تطبیق پذیری به خطر می اندازد

توسعه دهندگان هوش مصنوعی تطبیق پذیری را بر امنیت اولویت می دهند. آنها منابع خود را صرف پلتفرم های آموزشی می کنند تا طیف متنوع تری از وظایف را انجام دهند و در نهایت محدودیت ها را کاهش دهند. به هر حال، بازار از چت ربات های کاربردی استقبال می کند.

برای مثال، بیایید ChatGPT و Bing Chat را با هم مقایسه کنیم. در حالی که Bing دارای یک مدل زبان پیچیده‌تر است که داده‌های بلادرنگ را جمع‌آوری می‌کند، کاربران همچنان به گزینه چندمنظوره‌تر ChatGPT سرازیر می‌شوند. محدودیت های سفت و سخت بینگ بسیاری از وظایف را ممنوع می کند. از طرف دیگر، ChatGPT دارای یک پلت فرم منعطف است که بسته به درخواست شما خروجی های بسیار متفاوتی تولید می کند.

در اینجا نقش آفرینی ChatGPT به عنوان یک شخصیت خیالی است.

ChatGPT نقش آفرینی به عنوان شخصیت داستانی Tomie

و اینجا بینگ چت است که از ایفای نقش یک شخصیت “غیر اخلاقی” امتناع می کند.

بینگ چت از نقش آفرینی به عنوان شخصیت داستانی تامی امتناع می کند

4. ابزارهای مولد جدید هوش مصنوعی به طور منظم وارد بازار می شوند

کدهای منبع باز به استارتاپ ها امکان می دهند به مسابقه هوش مصنوعی بپیوندند. آنها به جای ساختن مدل‌های زبانی از ابتدا، آنها را در برنامه‌های خود ادغام می‌کنند و در منابع عظیم صرفه‌جویی می‌کنند. حتی کدنویسان مستقل نیز با کدهای منبع باز آزمایش می کنند.

باز هم، نرم‌افزار غیر اختصاصی به پیشرفت هوش مصنوعی کمک می‌کند، اما انتشار انبوه سیستم‌های ضعیف آموزش‌دیده و در عین حال پیچیده، بیشتر از اینکه مفید باشد، ضرر دارد. کلاهبرداران به سرعت از آسیب پذیری ها سوء استفاده می کنند. آنها حتی ممکن است ابزارهای هوش مصنوعی ناامن را برای انجام فعالیت های غیرقانونی آموزش دهند.

با وجود این خطرات، شرکت‌های فناوری به انتشار نسخه‌های بتای ناپایدار پلتفرم‌های مبتنی بر هوش مصنوعی ادامه خواهند داد. مسابقه هوش مصنوعی به سرعت پاداش می دهد. آنها احتمالاً در زمانی دیرتر از تاخیر در عرضه محصولات جدید، اشکالات را برطرف می کنند.

مطلب مرتبط:   6 دلیل برای اینکه کیف پول Exodus بهتر از کیف پول اتمی است

5. هوش مصنوعی مولد موانع کمی برای ورود دارد

ابزارهای هوش مصنوعی موانع ورود جرایم را کاهش می دهند. مجرمان سایبری ایمیل‌های هرزنامه را تهیه می‌کنند، کدهای بدافزار می‌نویسند و با بهره‌برداری از آنها، لینک‌های فیشینگ ایجاد می‌کنند. آنها حتی نیازی به تجربه فنی ندارند. از آنجایی که هوش مصنوعی در حال حاضر به مجموعه داده های وسیعی دسترسی دارد، کاربران فقط باید آن را فریب دهند تا اطلاعات مضر و خطرناکی تولید کنند.

OpenAI هرگز ChatGPT را برای فعالیت های غیرقانونی طراحی نکرده است. حتی دستورالعمل هایی علیه آنها دارد. با این حال، کلاهبرداران تقریباً فوراً بدافزار کدنویسی ChatGPT و نوشتن ایمیل‌های فیشینگ را دریافت کردند.

در حالی که OpenAI به سرعت این مشکل را حل کرد، بر اهمیت تنظیم سیستم و مدیریت ریسک تأکید دارد. هوش مصنوعی سریعتر از آن چیزی که هر کسی پیش بینی می کرد در حال رشد است. حتی رهبران فناوری نگران هستند که این فناوری فوق‌هوشمند می‌تواند باعث آسیب‌های عظیم در دستان اشتباه شود.

6. هوش مصنوعی هنوز در حال تکامل است

لوگوهای ChatGPT، Bard، Bing و AI Snapchat در کنار هم

هوش مصنوعی همچنان در حال تکامل است. در حالی که استفاده از هوش مصنوعی در سایبرنتیک به سال 1940 بازمی‌گردد، سیستم‌های یادگیری ماشینی مدرن و مدل‌های زبان اخیراً ظهور کرده‌اند. شما نمی توانید آنها را با اولین پیاده سازی های هوش مصنوعی مقایسه کنید. حتی ابزارهای نسبتاً پیشرفته ای مانند سیری و الکسا در مقایسه با چت ربات های مجهز به LLM کم رنگ می شوند.

اگرچه ممکن است نوآورانه باشند، اما ویژگی های تجربی نیز مسائل جدیدی را ایجاد می کنند. ناگواری‌های پرمخاطب با فناوری‌های یادگیری ماشین، از SERP‌های ناقص Google گرفته تا چت‌بات‌های مغرضانه که به توهین‌های نژادی تف می‌دهند، متغیر است.

البته توسعه دهندگان می توانند این مشکلات را برطرف کنند. فقط توجه داشته باشید که کلاهبرداران در بهره برداری از اشکالات به ظاهر بی ضرر نیز تردید نخواهند کرد – برخی از آسیب ها غیر قابل برگشت هستند. بنابراین هنگام کاوش در پلتفرم های جدید مراقب باشید.

7. بسیاری هنوز هوش مصنوعی را درک نمی کنند

در حالی که عموم مردم به مدل ها و سیستم های زبانی پیچیده دسترسی دارند، تنها تعداد کمی از آنها می دانند که چگونه کار می کنند. مردم نباید با هوش مصنوعی مانند یک اسباب بازی رفتار کنند. همان چت ربات هایی که میم ها را تولید می کنند و به چیزهای بی اهمیت پاسخ می دهند، به طور انبوه ویروس ها را کدگذاری می کنند.

مطلب مرتبط:   کلاهبرداری های نظرسنجی آنلاین چیست و چگونه می توانید از آنها اجتناب کنید؟

متأسفانه، آموزش متمرکز هوش مصنوعی غیرواقعی است. رهبران فناوری جهانی بر روی انتشار سیستم های مبتنی بر هوش مصنوعی تمرکز می کنند، نه منابع آموزشی رایگان. در نتیجه، کاربران به ابزارهای قوی و قدرتمندی که به سختی درک می کنند، دسترسی پیدا می کنند. مردم نمی توانند با مسابقه هوش مصنوعی همراهی کنند.

ChatGPT را به عنوان مثال در نظر بگیرید. مجرمان سایبری با فریب دادن قربانیان با نرم افزارهای جاسوسی که به عنوان برنامه های ChatGPT پنهان شده اند، از محبوبیت آن سوء استفاده می کنند. هیچ یک از این گزینه ها از OpenAI نمی آیند.

جستجوی ChatGPT در فروشگاه Google Play

8. هکرهای کلاه سیاه چیزهای بیشتری برای به دست آوردن هکرهای کلاه سفید دارند

هکرهای کلاه سیاه معمولاً بیشتر از هکرهای اخلاقی سود دارند. بله، تست قلم برای رهبران فناوری جهانی هزینه خوبی دارد، اما تنها درصدی از متخصصان امنیت سایبری این مشاغل را پیدا می‌کنند. بیشتر آنها کار آزاد را به صورت آنلاین انجام می دهند. پلتفرم هایی مانند HackerOne و Bugcrowd چند صد دلار برای باگ های رایج پرداخت می کنند.

از طرف دیگر، کلاهبرداران با بهره‌برداری از ناامنی‌ها ده‌ها هزار نفر به دست می‌آورند. آنها ممکن است با افشای اطلاعات محرمانه از شرکت‌ها باج‌گیری کنند یا با اطلاعات شناسایی شخصی دزدیده شده (PII) مرتکب سرقت شناسه شوند.

هر موسسه، کوچک یا بزرگ، باید سیستم های هوش مصنوعی را به درستی پیاده سازی کند. برخلاف تصور رایج، هکرها فراتر از استارت آپ های فناوری و SMB ها هستند. برخی از تاریخی ترین موارد نقض اطلاعات در دهه گذشته شامل فیس بوک، یاهو و حتی دولت ایالات متحده می شود.

از خود در برابر خطرات امنیتی هوش مصنوعی محافظت کنید

با توجه به این نکات، آیا به طور کلی باید از هوش مصنوعی اجتناب کرد؟ البته که نه. هوش مصنوعی ذاتا غیر اخلاقی است. تمام خطرات امنیتی ناشی از افرادی است که واقعاً از آنها استفاده می کنند. و آنها راه‌هایی برای بهره‌برداری از سیستم‌های هوش مصنوعی بدون توجه به اینکه این سیستم‌ها تا چه اندازه تکامل می‌یابند، پیدا خواهند کرد.

به جای ترس از تهدیدات امنیت سایبری ناشی از هوش مصنوعی، درک کنید که چگونه می توانید از آنها جلوگیری کنید. نگران نباشید: اقدامات امنیتی ساده به شما کمک می کند. محتاط ماندن در مورد برنامه های هوش مصنوعی سایه دار، اجتناب از لینک های عجیب و غریب، و مشاهده محتوای هوش مصنوعی با شک و تردید در حال حاضر با چندین خطر مبارزه می کند.