خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

ChatGPT از نظر تئوری می تواند حملات DDoS را در دستان اشتباه انجام دهد

همانطور که جهان با دستیاران هوش مصنوعی کنار می آید، ما در حال یادگیری همه چیزهای جالبی هستیم که آنها می توانند انجام دهند، چه خوب و چه بد. یکی از مثال‌هایی که به طور محکم در اردوگاه دوم فرود می‌آید، یک حمله تئوری است که ChatGPT را مجبور می‌کند تا یک وب‌سایت انتخابی را DDoS کند، اگرچه هنوز یک تهدید «واقعی» نیست.

همانطور که جهان با دستیاران هوش مصنوعی کنار می آید، ما در حال یادگیری همه چیزهای جالبی هستیم که آنها می توانند انجام دهند، چه خوب و چه بد. یکی از مثال‌هایی که به طور محکم در اردوگاه دوم فرود می‌آید، یک حمله تئوری است که ChatGPT را مجبور می‌کند تا یک وب‌سایت انتخابی را DDoS کند، اگرچه هنوز یک تهدید «واقعی» نیست.

ChatGPT می تواند تعداد نامحدودی اتصال هایپرلینک را در یک درخواست انجام دهد

آیکون های چت بات روی صفحه گوشی هوشمند

همانطور که توسط Silicon Angle گزارش شده است، محققی به نام Benjamin Flesch کشف کرد که ChatGPT محدودیتی برای تعداد لینک هایی که هنگام ایجاد پاسخ به آن دسترسی دارد ندارد. نه تنها این، بلکه این سرویس بررسی نمی کند که آیا URL هایی که به آنها دسترسی دارد تکراری از وب سایت هایی هستند که قبلاً بررسی کرده است. نتیجه نهایی یک حمله تئوریک است که در آن یک بازیگر بد ChatGPT را دریافت می کند تا هزاران بار در هر پرس و جو به وب سایت های مشابه متصل شود:

این آسیب‌پذیری می‌تواند برای غلبه بر هر وب‌سایتی که یک کاربر مخرب می‌خواهد هدف قرار دهد مورد سوء استفاده قرار گیرد. با گنجاندن هزاران لینک در یک درخواست، یک مهاجم می تواند سرورهای OpenAI را وادار کند تا حجم عظیمی از درخواست های HTTP را به وب سایت قربانی ایجاد کنند. اتصالات همزمان می توانند زیرساخت سایت مورد نظر را تحت فشار قرار دهند یا حتی غیرفعال کنند و به طور موثر یک حمله DDoS را اجرا کنند.

مطلب مرتبط:   وقتی "آیا این خط امن است" را می شنوید به چه معناست؟

بنجامین فلش معتقد است که این نقص به دلیل «روش‌های برنامه‌نویسی ضعیف» ایجاد شده است و اگر OpenAI محدودیت‌هایی را در مورد نحوه خزیدن ChatGPT در اینترنت اضافه کند، پتانسیل انجام یک حمله DDoS «تصادفی» بر روی سرورها را نخواهد داشت.

الاد شولمن، بنیانگذار و مدیر اجرایی شرکت امنیتی مولد هوش مصنوعی Lasso Security Inc.، با نتیجه گیری بنجامین فلش موافقت کرد و در عین حال یک سوء استفاده بالقوه دیگر برای این حملات اضافه کرد. Elad معتقد است که اگر یک هکر بتواند حساب OpenAI شخصی را به خطر بیاندازد، می تواند “به راحتی بودجه ماهانه یک چت بات بزرگ مبتنی بر مدل زبانی را فقط در یک روز خرج کند” که اگر هیچ محافظی در برابر چنین اقداماتی محافظت نکند، آسیب مالی خواهد داشت.

امیدواریم با تکامل هوش مصنوعی، شرکت‌ها محدودیت‌هایی را برای جلوگیری از سوءاستفاده بازیگران بد از خدمات خود اضافه کنند. به عنوان مثال، در حال حاضر راه‌های زیادی وجود دارد که هکرها از هوش مصنوعی مولد در حملات خود استفاده می‌کنند، و با بهبود کیفیت فناوری، تماس‌های ویدیویی کلاهبرداری با هوش مصنوعی افزایش چشمگیری داشته است.