خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

آیا ChatGPT مشکلات امنیتی دارد؟

بسیاری از ما از ChatGPT بیهوده استفاده می کنیم، اما با مسائل امنیتی و حریم خصوصی جدی همراه است که باید در مورد آنها بدانید.

در ژانویه 2023، تنها دو ماه پس از راه‌اندازی، ChatGPT (ترانسفورماتور از پیش آموزش‌دیده مولد) با جذب بیش از 100 میلیون کاربر به سریع‌ترین برنامه در حال رشد در تمام دوران تبدیل شد.

چت ربات پیشرفته OpenAI ممکن است علاقه عمومی به هوش مصنوعی را دوباره تقویت کرده باشد، اما تعداد کمی از آنها به طور جدی به خطرات امنیتی بالقوه مرتبط با این محصول فکر کرده اند.

ChatGPT: تهدیدات و مشکلات امنیتی

فناوری زیربنای ChatGPT و سایر ربات‌های چت ممکن است مشابه باشد، اما ChatGPT در دسته‌بندی خاص خود قرار دارد. اگر قصد دارید از آن به عنوان نوعی دستیار شخصی استفاده کنید، این خبر بسیار خوبی است، اما اگر در نظر داشته باشید که عوامل تهدید نیز از آن استفاده می کنند، نگران کننده است.

مجرمان سایبری می توانند از ChatGPT برای نوشتن بدافزار، ساخت وب سایت های کلاهبرداری، تولید ایمیل های فیشینگ، ایجاد اخبار جعلی و غیره استفاده کنند. به همین دلیل، همانطور که Bleeping Computer در تحلیلی بیان کرد، ChatGPT ممکن است خطر امنیت سایبری بزرگتر از یک مزیت باشد.

در عین حال، نگرانی‌های جدی وجود دارد که ChatGPT خود دارای آسیب‌پذیری‌های شناسایی نشده خاصی است. به عنوان مثال، در مارس 2023، گزارش‌هایی درباره اینکه برخی از کاربران می‌توانند عناوین مکالمات دیگران را مشاهده کنند، منتشر شد. همانطور که The Verge در آن زمان گزارش داد، سام آلتمن، مدیر عامل OpenAI توضیح داد که “یک اشکال در یک کتابخانه منبع باز” باعث این مشکل شده است.

مطلب مرتبط:   نحوه استفاده از ChatGPT برای ایجاد تصاویر هوش مصنوعی

این فقط تأکید می کند که چقدر مهم است که آنچه را که به اشتراک می گذارید با ChatGPT که به طور پیش فرض حجم حیرت آور داده را جمع آوری می کند، محدود کنید. غول فناوری سامسونگ این را به سختی یاد گرفت، زمانی که گروهی از کارمندان که از چت بات به عنوان دستیار استفاده می کردند، به طور تصادفی اطلاعات محرمانه را در اختیار آن قرار دادند.

آیا ChatGPT تهدیدی برای حریم خصوصی شماست؟

لوگوی ChatGPT در پس زمینه سبز

امنیت و حریم خصوصی یکی نیستند، اما ارتباط نزدیکی با هم دارند و اغلب با هم تلاقی می‌کنند. اگر ChatGPT یک تهدید امنیتی است، پس تهدیدی برای حریم خصوصی است و بالعکس. اما این به معنای عملی تر چیست؟ سیاست های امنیتی و حریم خصوصی ChatGPT چگونه است؟

میلیاردها کلمه از اینترنت حذف شد تا پایگاه داده وسیع ChatGPT ایجاد شود. این پایگاه داده در حال گسترش مداوم است، زیرا ChatGPT هر چیزی را که کاربران به اشتراک می گذارند ذخیره می کند. Common Sense غیرانتفاعی مستقر در ایالات متحده به ChatGPT امتیاز ارزیابی حریم خصوصی 61 درصد داد و اشاره کرد که چت بات اطلاعات شناسایی شخصی (PII) و سایر داده های حساس را جمع آوری می کند. بیشتر این داده ها ذخیره می شوند یا با اشخاص ثالث خاصی به اشتراک گذاشته می شوند.

در هر صورت، هنگام استفاده از ChatGPT، به خصوص اگر برای کار یا پردازش اطلاعات حساس از آن استفاده می کنید، باید مراقب باشید. به عنوان یک قاعده کلی، نباید آنچه را که دوست ندارید مردم بدانند با ربات به اشتراک بگذارید.

مطلب مرتبط:   باج افزار Jigsaw: چیست و آیا شما در معرض خطر هستید؟

پرداختن به خطرات امنیتی مرتبط با ChatGPT

هوش مصنوعی در مقطعی تنظیم خواهد شد، اما تصور دنیایی که در آن تهدیدی امنیتی نباشد دشوار است. مانند تمام فناوری‌ها، می‌توان – و خواهد شد – مورد سوء استفاده قرار گیرد.

به گفته Malwarebytes، در آینده، چت بات ها به بخشی جدایی ناپذیر از موتورهای جستجو، دستیاران صوتی و شبکه های اجتماعی تبدیل خواهند شد. و آنها در صنایع مختلف، از مراقبت های بهداشتی و آموزشی، تا امور مالی و سرگرمی، نقشی خواهند داشت.

این امر امنیت را به شکلی که ما می دانیم تغییر اساسی خواهد داد. اما همانطور که Malwarebytes نیز اشاره کرد، ChatGPT و ابزارهای مشابه می توانند توسط متخصصان امنیت سایبری نیز استفاده شوند. به عنوان مثال برای جستجوی اشکالات در نرم افزار، یا “الگوهای مشکوک” در فعالیت شبکه.

افزایش آگاهی کلیدی است

پنج یا 10 سال آینده ChatGPT چه قابلیتی دارد؟ ما فقط می توانیم حدس بزنیم، اما چیزی که به طور قطع می دانیم این است که هوش مصنوعی راه به جایی نمی برد.

با ظهور ربات‌های گفتگوی پیشرفته‌تر، کل صنایع باید تنظیم کنند و یاد بگیرند که چگونه از آنها به طور مسئولانه استفاده کنند. این شامل صنعت امنیت سایبری است که در حال حاضر توسط هوش مصنوعی شکل گرفته است. افزایش آگاهی در مورد خطرات امنیتی مرتبط با هوش مصنوعی کلیدی است و به اطمینان از توسعه و استفاده از این فناوری ها به روشی اخلاقی کمک می کند.