خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

چرا نباید به ChatGPT با اطلاعات محرمانه اعتماد کرد؟

کارمندان سامسونگ به طور تصادفی اطلاعات شرکت خصوصی را از طریق ChatGPT فاش کردند – نمونه ای از این که چرا هوش مصنوعی تهدید بزرگی برای حریم خصوصی و امنیت شماست.

ChatGPT به یک مشکل امنیتی و حفظ حریم خصوصی تبدیل شده است، زیرا بسیاری از ما اطلاعات خصوصی خود را در آن به اشتراک می گذاریم. ChatGPT هر مکالمه ای را که با آن دارید، از جمله اطلاعات شخصی که به اشتراک می گذارید، ثبت می کند. با این حال، شما این را نمی‌دانید مگر اینکه خط‌مشی رازداری OpenAI، شرایط خدمات و صفحه پرسش‌های متداول را بررسی کرده باشید تا آن‌ها را کنار هم قرار دهید.

افشای اطلاعات خود به اندازه کافی خطرناک است، اما با توجه به اینکه شرکت های بزرگ از ChatGPT برای پردازش اطلاعات هر روز استفاده می کنند، این می تواند شروع فاجعه نشت داده باشد.

سامسونگ اطلاعات محرمانه را از طریق ChatGPT فاش کرد

طبق گفته Gizmodo، کارمندان سامسونگ به اشتباه اطلاعات محرمانه خود را از طریق ChatGPT در سه نوبت جداگانه در مدت 20 روز افشا کردند. این فقط یک نمونه از این است که چقدر آسان است برای شرکت ها به خطر انداختن اطلاعات خصوصی.

ChatGPT به دلیل مسائل مربوط به حریم خصوصی خود به طور عمومی مورد انتقاد قرار گرفته است، بنابراین نظارت قابل توجهی است که سامسونگ اجازه داده است این اتفاق بیفتد. حتی برخی از کشورها ChatGPT را برای محافظت از شهروندان خود تا زمانی که حریم خصوصی آن را بهبود بخشد ممنوع کرده اند، بنابراین فکر می کنید شرکت ها در مورد نحوه استفاده کارکنانشان از آن دقت بیشتری داشته باشند.

مطلب مرتبط:   چگونه خلاصه‌های بررسی هوش مصنوعی آمازون تصمیمات خرید را آسان‌تر می‌کند

خوشبختانه، به نظر می رسد که مشتریان سامسونگ حداقل در حال حاضر در امنیت هستند. داده‌های نقض شده فقط مربوط به شیوه‌های تجاری داخلی، برخی کدهای اختصاصی است که آنها عیب‌یابی می‌کردند، و صورتجلسه‌های یک جلسه تیمی که همه توسط کارمندان ارسال شده است. با این حال، افشای اطلاعات شخصی مصرف‌کنندگان برای کارکنان به همین راحتی بود، و این فقط یک مسئله زمان است که ببینیم شرکت دیگری دقیقاً این کار را انجام می‌دهد. اگر این اتفاق بیفتد، می‌توان انتظار داشت که شاهد افزایش گسترده کلاهبرداری‌های فیشینگ و سرقت هویت باشیم.

در اینجا لایه دیگری از خطر نیز وجود دارد. اگر کارمندان از ChatGPT برای جستجوی اشکالاتی مانند نشت سامسونگ استفاده کنند، کدی که در جعبه چت تایپ می کنند نیز در سرورهای OpenAI ذخیره می شود. این می‌تواند منجر به نقض‌هایی شود که تأثیر زیادی بر شرکت‌ها در عیب‌یابی محصولات و برنامه‌های منتشر نشده دارد. حتی ممکن است در نهایت شاهد افشای اطلاعاتی مانند طرح‌های تجاری منتشر نشده، نسخه‌های آتی و نمونه‌های اولیه باشیم که منجر به ضررهای زیادی در درآمد می‌شود.

نشت داده های ChatGPT چگونه اتفاق می افتد؟

لوگوی ChatGPT در پس زمینه سبز تیره

خط مشی رازداری ChatGPT به وضوح نشان می دهد که مکالمات شما را ضبط می کند و گزارش ها را با سایر شرکت ها و مربیان هوش مصنوعی خود به اشتراک می گذارد. هنگامی که شخصی (به عنوان مثال، یک کارمند سامسونگ) اطلاعات محرمانه را در کادر محاوره ای تایپ می کند، این اطلاعات در سرورهای ChatGPT ضبط و ذخیره می شود.

بعید است که کارمندان عمدا این کار را انجام داده باشند، اما این بخش ترسناک است. بیشتر نقض‌های داده‌ها ناشی از خطای انسانی است. اغلب، این به این دلیل است که این شرکت نتوانسته کارکنان خود را در مورد خطرات حریم خصوصی استفاده از ابزارهایی مانند هوش مصنوعی آموزش دهد.

مطلب مرتبط:   نحوه استفاده از هوش مصنوعی Bing در گوگل کروم

به عنوان مثال، اگر آنها یک لیست بزرگ مخاطب را در چت بچسبانند و از هوش مصنوعی بخواهند شماره تلفن مشتریان را از داده ها جدا کند، ChatGPT آن نام ها و شماره تلفن ها را در سوابق خود دارد. اطلاعات خصوصی شما در اختیار شرکت هایی است که آنها را با آنها به اشتراک نگذاشته اید، که ممکن است به اندازه کافی از آنها برای ایمن نگه داشتن شما محافظت نکند. چند کار وجود دارد که می توانید برای ایمن نگه داشتن خود پس از نقض داده ها انجام دهید، اما کسب و کارها باید مسئول جلوگیری از نشت اطلاعات باشند.

اخلاقیات داستان: اسرار خود را به ChatGPT نگویید

می توانید با خیال راحت از ChatGPT برای صدها کار مختلف استفاده کنید، اما سازماندهی اطلاعات محرمانه یکی از آنها نیست. باید مراقب باشید که از تایپ هر چیز شخصی در جعبه چت خودداری کنید، از جمله نام، آدرس، ایمیل و شماره تلفن. انجام این اشتباه آسان است، بنابراین باید مراقب باشید که دستورات خود را بررسی کنید تا مطمئن شوید که هیچ چیز به طور تصادفی وارد نشده است.

نشت سامسونگ به ما نشان می دهد که خطر نشت داده های مربوط به ChatGPT چقدر واقعی است. متأسفانه، ما شاهد تعداد بیشتری از این نوع اشتباهات خواهیم بود، شاید با تأثیرات بسیار بزرگتر، زیرا هوش مصنوعی به بخش اصلی فرآیندهای بیشتر مشاغل تبدیل می شود.