همانطور که جهان با دستیاران هوش مصنوعی کنار می آید، ما در حال یادگیری همه چیزهای جالبی هستیم که آنها می توانند انجام دهند، چه خوب و چه بد. یکی از مثالهایی که به طور محکم در اردوگاه دوم فرود میآید، یک حمله تئوری است که ChatGPT را مجبور میکند تا یک وبسایت انتخابی را DDoS کند، اگرچه هنوز یک تهدید «واقعی» نیست.
همانطور که جهان با دستیاران هوش مصنوعی کنار می آید، ما در حال یادگیری همه چیزهای جالبی هستیم که آنها می توانند انجام دهند، چه خوب و چه بد. یکی از مثالهایی که به طور محکم در اردوگاه دوم فرود میآید، یک حمله تئوری است که ChatGPT را مجبور میکند تا یک وبسایت انتخابی را DDoS کند، اگرچه هنوز یک تهدید «واقعی» نیست.
ChatGPT می تواند تعداد نامحدودی اتصال هایپرلینک را در یک درخواست انجام دهد
همانطور که توسط Silicon Angle گزارش شده است، محققی به نام Benjamin Flesch کشف کرد که ChatGPT محدودیتی برای تعداد لینک هایی که هنگام ایجاد پاسخ به آن دسترسی دارد ندارد. نه تنها این، بلکه این سرویس بررسی نمی کند که آیا URL هایی که به آنها دسترسی دارد تکراری از وب سایت هایی هستند که قبلاً بررسی کرده است. نتیجه نهایی یک حمله تئوریک است که در آن یک بازیگر بد ChatGPT را دریافت می کند تا هزاران بار در هر پرس و جو به وب سایت های مشابه متصل شود:
این آسیبپذیری میتواند برای غلبه بر هر وبسایتی که یک کاربر مخرب میخواهد هدف قرار دهد مورد سوء استفاده قرار گیرد. با گنجاندن هزاران لینک در یک درخواست، یک مهاجم می تواند سرورهای OpenAI را وادار کند تا حجم عظیمی از درخواست های HTTP را به وب سایت قربانی ایجاد کنند. اتصالات همزمان می توانند زیرساخت سایت مورد نظر را تحت فشار قرار دهند یا حتی غیرفعال کنند و به طور موثر یک حمله DDoS را اجرا کنند.
بنجامین فلش معتقد است که این نقص به دلیل «روشهای برنامهنویسی ضعیف» ایجاد شده است و اگر OpenAI محدودیتهایی را در مورد نحوه خزیدن ChatGPT در اینترنت اضافه کند، پتانسیل انجام یک حمله DDoS «تصادفی» بر روی سرورها را نخواهد داشت.
الاد شولمن، بنیانگذار و مدیر اجرایی شرکت امنیتی مولد هوش مصنوعی Lasso Security Inc.، با نتیجه گیری بنجامین فلش موافقت کرد و در عین حال یک سوء استفاده بالقوه دیگر برای این حملات اضافه کرد. Elad معتقد است که اگر یک هکر بتواند حساب OpenAI شخصی را به خطر بیاندازد، می تواند “به راحتی بودجه ماهانه یک چت بات بزرگ مبتنی بر مدل زبانی را فقط در یک روز خرج کند” که اگر هیچ محافظی در برابر چنین اقداماتی محافظت نکند، آسیب مالی خواهد داشت.
امیدواریم با تکامل هوش مصنوعی، شرکتها محدودیتهایی را برای جلوگیری از سوءاستفاده بازیگران بد از خدمات خود اضافه کنند. به عنوان مثال، در حال حاضر راههای زیادی وجود دارد که هکرها از هوش مصنوعی مولد در حملات خود استفاده میکنند، و با بهبود کیفیت فناوری، تماسهای ویدیویی کلاهبرداری با هوش مصنوعی افزایش چشمگیری داشته است.