بسیاری از ما از ChatGPT بیهوده استفاده می کنیم، اما با مسائل امنیتی و حریم خصوصی جدی همراه است که باید در مورد آنها بدانید.
در ژانویه 2023، تنها دو ماه پس از راهاندازی، ChatGPT (ترانسفورماتور از پیش آموزشدیده مولد) با جذب بیش از 100 میلیون کاربر به سریعترین برنامه در حال رشد در تمام دوران تبدیل شد.
چت ربات پیشرفته OpenAI ممکن است علاقه عمومی به هوش مصنوعی را دوباره تقویت کرده باشد، اما تعداد کمی از آنها به طور جدی به خطرات امنیتی بالقوه مرتبط با این محصول فکر کرده اند.
ChatGPT: تهدیدات و مشکلات امنیتی
فناوری زیربنای ChatGPT و سایر رباتهای چت ممکن است مشابه باشد، اما ChatGPT در دستهبندی خاص خود قرار دارد. اگر قصد دارید از آن به عنوان نوعی دستیار شخصی استفاده کنید، این خبر بسیار خوبی است، اما اگر در نظر داشته باشید که عوامل تهدید نیز از آن استفاده می کنند، نگران کننده است.
مجرمان سایبری می توانند از ChatGPT برای نوشتن بدافزار، ساخت وب سایت های کلاهبرداری، تولید ایمیل های فیشینگ، ایجاد اخبار جعلی و غیره استفاده کنند. به همین دلیل، همانطور که Bleeping Computer در تحلیلی بیان کرد، ChatGPT ممکن است خطر امنیت سایبری بزرگتر از یک مزیت باشد.
در عین حال، نگرانیهای جدی وجود دارد که ChatGPT خود دارای آسیبپذیریهای شناسایی نشده خاصی است. به عنوان مثال، در مارس 2023، گزارشهایی درباره اینکه برخی از کاربران میتوانند عناوین مکالمات دیگران را مشاهده کنند، منتشر شد. همانطور که The Verge در آن زمان گزارش داد، سام آلتمن، مدیر عامل OpenAI توضیح داد که “یک اشکال در یک کتابخانه منبع باز” باعث این مشکل شده است.
این فقط تأکید می کند که چقدر مهم است که آنچه را که به اشتراک می گذارید با ChatGPT که به طور پیش فرض حجم حیرت آور داده را جمع آوری می کند، محدود کنید. غول فناوری سامسونگ این را به سختی یاد گرفت، زمانی که گروهی از کارمندان که از چت بات به عنوان دستیار استفاده می کردند، به طور تصادفی اطلاعات محرمانه را در اختیار آن قرار دادند.
آیا ChatGPT تهدیدی برای حریم خصوصی شماست؟
امنیت و حریم خصوصی یکی نیستند، اما ارتباط نزدیکی با هم دارند و اغلب با هم تلاقی میکنند. اگر ChatGPT یک تهدید امنیتی است، پس تهدیدی برای حریم خصوصی است و بالعکس. اما این به معنای عملی تر چیست؟ سیاست های امنیتی و حریم خصوصی ChatGPT چگونه است؟
میلیاردها کلمه از اینترنت حذف شد تا پایگاه داده وسیع ChatGPT ایجاد شود. این پایگاه داده در حال گسترش مداوم است، زیرا ChatGPT هر چیزی را که کاربران به اشتراک می گذارند ذخیره می کند. Common Sense غیرانتفاعی مستقر در ایالات متحده به ChatGPT امتیاز ارزیابی حریم خصوصی 61 درصد داد و اشاره کرد که چت بات اطلاعات شناسایی شخصی (PII) و سایر داده های حساس را جمع آوری می کند. بیشتر این داده ها ذخیره می شوند یا با اشخاص ثالث خاصی به اشتراک گذاشته می شوند.
در هر صورت، هنگام استفاده از ChatGPT، به خصوص اگر برای کار یا پردازش اطلاعات حساس از آن استفاده می کنید، باید مراقب باشید. به عنوان یک قاعده کلی، نباید آنچه را که دوست ندارید مردم بدانند با ربات به اشتراک بگذارید.
پرداختن به خطرات امنیتی مرتبط با ChatGPT
هوش مصنوعی در مقطعی تنظیم خواهد شد، اما تصور دنیایی که در آن تهدیدی امنیتی نباشد دشوار است. مانند تمام فناوریها، میتوان – و خواهد شد – مورد سوء استفاده قرار گیرد.
به گفته Malwarebytes، در آینده، چت بات ها به بخشی جدایی ناپذیر از موتورهای جستجو، دستیاران صوتی و شبکه های اجتماعی تبدیل خواهند شد. و آنها در صنایع مختلف، از مراقبت های بهداشتی و آموزشی، تا امور مالی و سرگرمی، نقشی خواهند داشت.
این امر امنیت را به شکلی که ما می دانیم تغییر اساسی خواهد داد. اما همانطور که Malwarebytes نیز اشاره کرد، ChatGPT و ابزارهای مشابه می توانند توسط متخصصان امنیت سایبری نیز استفاده شوند. به عنوان مثال برای جستجوی اشکالات در نرم افزار، یا “الگوهای مشکوک” در فعالیت شبکه.
افزایش آگاهی کلیدی است
پنج یا 10 سال آینده ChatGPT چه قابلیتی دارد؟ ما فقط می توانیم حدس بزنیم، اما چیزی که به طور قطع می دانیم این است که هوش مصنوعی راه به جایی نمی برد.
با ظهور رباتهای گفتگوی پیشرفتهتر، کل صنایع باید تنظیم کنند و یاد بگیرند که چگونه از آنها به طور مسئولانه استفاده کنند. این شامل صنعت امنیت سایبری است که در حال حاضر توسط هوش مصنوعی شکل گرفته است. افزایش آگاهی در مورد خطرات امنیتی مرتبط با هوش مصنوعی کلیدی است و به اطمینان از توسعه و استفاده از این فناوری ها به روشی اخلاقی کمک می کند.