ChatGPT می تواند ابزار مفیدی باشد، چه نیت شما خوب باشد و چه برای بد. این بدان معنی است که اگر می خواهید در تقلب شرکت کنید، ChatGPT می تواند کمک کند.
اگرچه بسیاری از افراد بومی دیجیتال ChatGPT را ستایش می کنند، اما برخی از آن می ترسند که ضرر بیشتری نسبت به فایده داشته باشد. گزارشهای خبری مبنی بر ربودن هوش مصنوعی توسط کلاهبرداران، در اینترنت دست به دست میشود و باعث افزایش ناراحتی در میان شکاکان میشود. آنها حتی ChatGPT را یک ابزار خطرناک می دانند.
چت رباتهای هوش مصنوعی بینقص نیستند، اما لازم نیست بهکلی از آنها دوری کنید. در اینجا همه چیزهایی است که باید در مورد نحوه سوء استفاده کلاهبرداران از ChatGPT و آنچه می توانید برای جلوگیری از آنها انجام دهید، بدانید.
آیا ChatGPT اطلاعات شخصی شما را به خطر می اندازد؟
بیشتر نگرانیهای امنیتی در مورد ChatGPT ناشی از گمانهزنیها و گزارشهای تایید نشده است. این پلتفرم فقط در نوامبر 2022 راه اندازی شد. طبیعی است که کاربران جدید تصورات نادرستی در مورد حریم خصوصی و امنیت ابزارهای ناآشنا داشته باشند.
با توجه به شرایط استفاده OpenAI، در اینجا نحوه مدیریت ChatGPT داده های زیر آمده است:
اطلاعات قابل شناسایی شخصی
شایعات می گویند که ChatGPT اطلاعات شناسایی شخصی (PII) را می فروشد.
این پلتفرم توسط OpenAI، یک آزمایشگاه تحقیقاتی معتبر هوش مصنوعی که توسط سرمایه گذاران فناوری مانند مایکروسافت و ایلان ماسک تامین می شود، راه اندازی شد. ChatGPT فقط باید از داده های مشتری برای ارائه خدمات ذکر شده در خط مشی رازداری استفاده کند.
علاوه بر این، ChatGPT حداقل اطلاعات را می خواهد. شما می توانید یک حساب کاربری فقط با نام و آدرس ایمیل خود ایجاد کنید.
گفتگو
OpenAI مکالمات ChatGPT را ایمن نگه می دارد، اما حق نظارت بر آنها را برای خود محفوظ می دارد. مربیان هوش مصنوعی به طور مداوم به دنبال زمینه های بهبود هستند. از آنجایی که این پلتفرم شامل مجموعه دادههای گسترده و در عین حال محدودی است، رفع خطاها، باگها و آسیبپذیریها نیازمند بهروزرسانیهای کل سیستم است.
با این حال، OpenAI فقط می تواند جلسات را برای اهداف تحقیقاتی نظارت کند. توزیع یا فروش آنها به اشخاص ثالث، شرایط استفاده خود را نقض می کند.
اطلاعات عمومی
به گزارش بی بی سی، OpenAI ChaGPT را بر روی 300 میلیارد کلمه آموزش داد. داده ها را از صفحات وب عمومی، مانند پلتفرم های رسانه های اجتماعی، وب سایت های تجاری و بخش های نظرات جمع آوری می کند. مگر اینکه از شبکه خارج شده باشید و ردپای دیجیتال خود را پاک نکرده باشید، ChatGPT احتمالاً اطلاعات شما را دارد.
ChatGPT چه خطرات امنیتی را ارائه می دهد؟
در حالی که ChatGPT ذاتاً خطرناک نیست، این پلتفرم همچنان خطرات امنیتی دارد. کلاهبرداران می توانند محدودیت ها را برای انجام حملات سایبری مختلف دور بزنند.
1. ایمیل های فیشینگ متقاعد کننده
کلاهبرداران به جای ساعت ها صرف نوشتن ایمیل، از ChatGPT استفاده می کنند. سریع و دقیق است. مدل های زبان پیشرفته (مانند GPT-3.5 و GPT-4) می توانند صدها ایمیل فیشینگ منسجم و قانع کننده را در عرض چند دقیقه تولید کنند. آنها حتی لحن ها و سبک های نوشتاری منحصر به فردی را اتخاذ می کنند.
از آنجایی که ChatGPT تشخیص تلاش های هک را دشوارتر می کند، قبل از پاسخ دادن به ایمیل ها مراقب باشید. به عنوان یک قاعده کلی، از افشای اطلاعات خودداری کنید. توجه داشته باشید که شرکت ها و سازمان های قانونی به ندرت از طریق ایمیل های تصادفی درخواست PII محرمانه می کنند.
یاد بگیرید که تلاش های هک را شناسایی کنید. اگرچه ارائهدهندگان ایمیل پیامهای هرزنامه را فیلتر میکنند، اما برخی از آنها ممکن است از بین بروند. هنوز باید بدانید که پیام های فیشینگ چگونه هستند.
2. سرقت اطلاعات
ChatGPT از یک LLM منبع باز استفاده می کند که هر کسی می تواند آن را تغییر دهد. کدنویسان مسلط به مدل های زبان بزرگ (LLM) و یادگیری ماشینی اغلب مدل های هوش مصنوعی از قبل آموزش دیده را در سیستم های قدیمی خود ادغام می کنند. آموزش هوش مصنوعی در مجموعه داده های جدید، عملکرد را تغییر می دهد. به عنوان مثال، ChatGPT به یک متخصص شبه تناسب اندام تبدیل می شود اگر دستور العمل ها و برنامه های تمرینی را به او بدهید.
اگرچه مشارکتی و راحت است، اما منبع باز فناوری ها را در معرض سوء استفاده قرار می دهد. مجرمان ماهر در حال حاضر از ChatGPT سوء استفاده می کنند. آنها آن را بر روی حجم زیادی از داده های سرقت شده آموزش می دهند و پلتفرم را به یک پایگاه داده شخصی برای کلاهبرداری تبدیل می کنند.
به یاد داشته باشید: شما کنترلی بر نحوه عملکرد کلاهبرداران ندارید. بهترین روش این است که پس از مشاهده علائم سرقت هویت با کمیسیون تجارت فدرال (FTC) تماس بگیرید.
3. تولید بدافزار
ChatGPT کدهای قابل استفاده را در زبان های برنامه نویسی مختلف می نویسد. اکثر نمونهها برای عملکرد صحیح به حداقل تغییرات نیاز دارند، به خصوص اگر یک دستور مختصر را ساختار دهید. می توانید از این ویژگی برای توسعه برنامه ها و سایت ها استفاده کنید.
از آنجایی که ChatGPT بر روی میلیاردها مجموعه داده آموزش دیده است، اقدامات غیرقانونی مانند توسعه بدافزارها و ویروس ها را نیز می شناسد. OpenAI چت بات ها را از نوشتن کدهای مخرب منع می کند. اما کلاهبرداران این محدودیتها را با تغییر ساختار درخواستها و پرسیدن سؤالات دقیق دور میزنند.
عکس زیر نشان می دهد که ChatGPT نوشتن کد برای اهداف مخرب را رد می کند.
در همین حال، عکس زیر نشان میدهد که ChatGPT اگر درخواستهای خود را به درستی بیان کنید، اطلاعات مضری به شما میدهد.
4. سرقت مالکیت معنوی
وبلاگ نویسان غیراخلاقی محتوا را با استفاده از ChatGPT می چرخانند. از آنجایی که این پلتفرم بر روی LLM های پیشرفته اجرا می شود، می تواند به سرعت هزاران کلمه را بازنویسی کند و از برچسب های سرقت ادبی جلوگیری کند.
ChatGPT متن زیر را در 10 ثانیه بازنویسی کرد.
البته، اسپینینگ همچنان به عنوان سرقت علمی طبقه بندی می شود. مقالههای هوش مصنوعی گاهی اوقات بهطور تصادفی رتبهبندی میشوند، اما گوگل عموماً محتوای اصلی از منابع معتبر را ترجیح میدهد. ترفندهای ارزان و هک های سئو نمی توانند بر نوشته های با کیفیت بالا و همیشه سبز غلبه کنند.
همچنین، گوگل سالانه چندین به روز رسانی اصلی را منتشر می کند. به زودی بر حذف قطعات تنبل و غیراصلی که توسط هوش مصنوعی تولید شده اند از SERP ها تمرکز خواهد کرد.
5. ایجاد پاسخ های غیر اخلاقی
مدل های زبان هوش مصنوعی هیچ تعصبی ندارند. آنها با تجزیه و تحلیل درخواستهای کاربر و استخراج دادهها از پایگاه داده موجود، پاسخهایی را ارائه میدهند.
ChatGPT را به عنوان مثال در نظر بگیرید. هنگامی که درخواستی را ارسال می کنید، بر اساس مجموعه داده های OpenAI مورد استفاده برای آموزش پاسخ می دهد.
در حالی که خطمشیهای محتوای ChatGPT درخواستهای نامناسب را مسدود میکند، کاربران با درخواستهای فرار از زندان آنها را دور میزنند. آنها دستورالعمل های دقیق و هوشمندانه را به آن می خورند. اگر از ChatGPT بخواهید یک شخصیت خیالی روانپریشی را به تصویر بکشد، پاسخ زیر را ایجاد میکند.
خبر خوب این است که OpenAI کنترل ChatGPT را از دست نداده است. تلاشهای مداوم آن در تشدید محدودیتها، ChatGPT را از تولید پاسخهای غیراخلاقی، بدون توجه به ورودی کاربر، باز میدارد. جیلبریک به این راحتی ها پیش نمی رود.
6. Quid Pro Quo
رشد سریع فناوریهای جدید و ناآشنا مانند ChatGPT فرصتهایی را برای حملات quid pro quo ایجاد میکند. آنها تاکتیک های مهندسی اجتماعی هستند که در آن کلاهبرداران قربانیان را با پیشنهادات جعلی فریب می دهند.
بیشتر مردم هنوز ChatGPT را کاوش نکرده اند. و هکرها با انتشار تبلیغات، ایمیل ها و اطلاعیه های گمراه کننده از سردرگمی سوء استفاده می کنند.
بدنام ترین موارد مربوط به برنامه های جعلی است. کاربران جدید نمی دانند که فقط از طریق OpenAI می توانند به ChatGPT دسترسی داشته باشند. آنها ناآگاهانه برنامه ها و افزونه های اسپم را دانلود می کنند.
بیشتر آنها فقط خواهان دانلود برنامه هستند، اما دیگران اطلاعات شناسایی شخصی را سرقت می کنند. کلاهبرداران آنها را با بدافزارها و لینک های فیشینگ آلوده می کنند. به عنوان مثال، در مارس 2023، یک برنامه افزودنی جعلی ChatGPT کروم، اعتبار فیس بوک را از بیش از 2000 کاربر روزانه به سرقت برد.
برای مبارزه با تلاشهای quid pro quo، از برنامههای شخص ثالث اجتناب کنید. OpenAI هرگز یک برنامه تلفن همراه، برنامه کامپیوتری یا افزونه مرورگر مجاز برای ChatGPT منتشر نکرد. هر چیزی که چنین ادعایی داشته باشد کلاهبرداری است.
از ChatGPT ایمن و مسئولانه استفاده کنید
ChatGPT به خودی خود یک تهدید نیست. این سیستم دارای آسیبپذیریهایی است، اما دادههای شما را به خطر نمیاندازد. به جای ترس از فناوریهای هوش مصنوعی، تحقیق کنید که چگونه کلاهبرداران آنها را در تاکتیکهای مهندسی اجتماعی ترکیب میکنند. به این ترتیب، شما می توانید فعالانه از خود محافظت کنید.
اما اگر هنوز در مورد ChatGPT شک دارید، بینگ را امتحان کنید. بینگ جدید دارای یک چت ربات مجهز به هوش مصنوعی است که روی GPT-4 اجرا میشود، دادهها را از اینترنت میکشد و از اقدامات امنیتی سختگیرانه پیروی میکند. ممکن است آن را بیشتر برای نیازهای خود بیابید.