خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

آیا ChatGPT ایمن است؟ 6 خطر امنیت سایبری Chatbot OpenAI

ChatGPT می تواند ابزار مفیدی باشد، چه نیت شما خوب باشد و چه برای بد. این بدان معنی است که اگر می خواهید در تقلب شرکت کنید، ChatGPT می تواند کمک کند.

اگرچه بسیاری از افراد بومی دیجیتال ChatGPT را ستایش می کنند، اما برخی از آن می ترسند که ضرر بیشتری نسبت به فایده داشته باشد. گزارش‌های خبری مبنی بر ربودن هوش مصنوعی توسط کلاهبرداران، در اینترنت دست به دست می‌شود و باعث افزایش ناراحتی در میان شکاکان می‌شود. آنها حتی ChatGPT را یک ابزار خطرناک می دانند.

چت ربات‌های هوش مصنوعی بی‌نقص نیستند، اما لازم نیست به‌کلی از آن‌ها دوری کنید. در اینجا همه چیزهایی است که باید در مورد نحوه سوء استفاده کلاهبرداران از ChatGPT و آنچه می توانید برای جلوگیری از آنها انجام دهید، بدانید.

آیا ChatGPT اطلاعات شخصی شما را به خطر می اندازد؟

بیشتر نگرانی‌های امنیتی در مورد ChatGPT ناشی از گمانه‌زنی‌ها و گزارش‌های تایید نشده است. این پلتفرم فقط در نوامبر 2022 راه اندازی شد. طبیعی است که کاربران جدید تصورات نادرستی در مورد حریم خصوصی و امنیت ابزارهای ناآشنا داشته باشند.

با توجه به شرایط استفاده OpenAI، در اینجا نحوه مدیریت ChatGPT داده های زیر آمده است:

اطلاعات قابل شناسایی شخصی

شایعات می گویند که ChatGPT اطلاعات شناسایی شخصی (PII) را می فروشد.

این پلتفرم توسط OpenAI، یک آزمایشگاه تحقیقاتی معتبر هوش مصنوعی که توسط سرمایه گذاران فناوری مانند مایکروسافت و ایلان ماسک تامین می شود، راه اندازی شد. ChatGPT فقط باید از داده های مشتری برای ارائه خدمات ذکر شده در خط مشی رازداری استفاده کند.

علاوه بر این، ChatGPT حداقل اطلاعات را می خواهد. شما می توانید یک حساب کاربری فقط با نام و آدرس ایمیل خود ایجاد کنید.

گفتگو

OpenAI مکالمات ChatGPT را ایمن نگه می دارد، اما حق نظارت بر آنها را برای خود محفوظ می دارد. مربیان هوش مصنوعی به طور مداوم به دنبال زمینه های بهبود هستند. از آنجایی که این پلتفرم شامل مجموعه داده‌های گسترده و در عین حال محدودی است، رفع خطاها، باگ‌ها و آسیب‌پذیری‌ها نیازمند به‌روزرسانی‌های کل سیستم است.

با این حال، OpenAI فقط می تواند جلسات را برای اهداف تحقیقاتی نظارت کند. توزیع یا فروش آنها به اشخاص ثالث، شرایط استفاده خود را نقض می کند.

اطلاعات عمومی

به گزارش بی بی سی، OpenAI ChaGPT را بر روی 300 میلیارد کلمه آموزش داد. داده ها را از صفحات وب عمومی، مانند پلتفرم های رسانه های اجتماعی، وب سایت های تجاری و بخش های نظرات جمع آوری می کند. مگر اینکه از شبکه خارج شده باشید و ردپای دیجیتال خود را پاک نکرده باشید، ChatGPT احتمالاً اطلاعات شما را دارد.

مطلب مرتبط:   ClearView AI چیست و چرا باید به آن اهمیت دهید؟

ChatGPT چه خطرات امنیتی را ارائه می دهد؟

در حالی که ChatGPT ذاتاً خطرناک نیست، این پلتفرم همچنان خطرات امنیتی دارد. کلاهبرداران می توانند محدودیت ها را برای انجام حملات سایبری مختلف دور بزنند.

1. ایمیل های فیشینگ متقاعد کننده

ساخت ChatGPT یک ایمیل اسپم بنویسید

کلاهبرداران به جای ساعت ها صرف نوشتن ایمیل، از ChatGPT استفاده می کنند. سریع و دقیق است. مدل های زبان پیشرفته (مانند GPT-3.5 و GPT-4) می توانند صدها ایمیل فیشینگ منسجم و قانع کننده را در عرض چند دقیقه تولید کنند. آنها حتی لحن ها و سبک های نوشتاری منحصر به فردی را اتخاذ می کنند.

از آنجایی که ChatGPT تشخیص تلاش های هک را دشوارتر می کند، قبل از پاسخ دادن به ایمیل ها مراقب باشید. به عنوان یک قاعده کلی، از افشای اطلاعات خودداری کنید. توجه داشته باشید که شرکت ها و سازمان های قانونی به ندرت از طریق ایمیل های تصادفی درخواست PII محرمانه می کنند.

یاد بگیرید که تلاش های هک را شناسایی کنید. اگرچه ارائه‌دهندگان ایمیل پیام‌های هرزنامه را فیلتر می‌کنند، اما برخی از آنها ممکن است از بین بروند. هنوز باید بدانید که پیام های فیشینگ چگونه هستند.

2. سرقت اطلاعات

ChatGPT از یک LLM منبع باز استفاده می کند که هر کسی می تواند آن را تغییر دهد. کدنویسان مسلط به مدل های زبان بزرگ (LLM) و یادگیری ماشینی اغلب مدل های هوش مصنوعی از قبل آموزش دیده را در سیستم های قدیمی خود ادغام می کنند. آموزش هوش مصنوعی در مجموعه داده های جدید، عملکرد را تغییر می دهد. به عنوان مثال، ChatGPT به یک متخصص شبه تناسب اندام تبدیل می شود اگر دستور العمل ها و برنامه های تمرینی را به او بدهید.

اگرچه مشارکتی و راحت است، اما منبع باز فناوری ها را در معرض سوء استفاده قرار می دهد. مجرمان ماهر در حال حاضر از ChatGPT سوء استفاده می کنند. آنها آن را بر روی حجم زیادی از داده های سرقت شده آموزش می دهند و پلتفرم را به یک پایگاه داده شخصی برای کلاهبرداری تبدیل می کنند.

مطلب مرتبط:   8 دلیل برای امتحان Session به عنوان یک برنامه پیام‌رسان خصوصی

به یاد داشته باشید: شما کنترلی بر نحوه عملکرد کلاهبرداران ندارید. بهترین روش این است که پس از مشاهده علائم سرقت هویت با کمیسیون تجارت فدرال (FTC) تماس بگیرید.

3. تولید بدافزار

خطوط کد با رنگ های مختلف روی صفحه سیاه

ChatGPT کدهای قابل استفاده را در زبان های برنامه نویسی مختلف می نویسد. اکثر نمونه‌ها برای عملکرد صحیح به حداقل تغییرات نیاز دارند، به خصوص اگر یک دستور مختصر را ساختار دهید. می توانید از این ویژگی برای توسعه برنامه ها و سایت ها استفاده کنید.

از آنجایی که ChatGPT بر روی میلیاردها مجموعه داده آموزش دیده است، اقدامات غیرقانونی مانند توسعه بدافزارها و ویروس ها را نیز می شناسد. OpenAI چت بات ها را از نوشتن کدهای مخرب منع می کند. اما کلاهبرداران این محدودیت‌ها را با تغییر ساختار درخواست‌ها و پرسیدن سؤالات دقیق دور می‌زنند.

عکس زیر نشان می دهد که ChatGPT نوشتن کد برای اهداف مخرب را رد می کند.

ChatGPT از نوشتن کد برای ویروس تروجان خودداری می کند

در همین حال، عکس زیر نشان می‌دهد که ChatGPT اگر درخواست‌های خود را به درستی بیان کنید، اطلاعات مضری به شما می‌دهد.

ChatGPT نوشتن یک قطعه کد برای ویروس ها

4. سرقت مالکیت معنوی

وبلاگ نویسان غیراخلاقی محتوا را با استفاده از ChatGPT می چرخانند. از آنجایی که این پلتفرم بر روی LLM های پیشرفته اجرا می شود، می تواند به سرعت هزاران کلمه را بازنویسی کند و از برچسب های سرقت ادبی جلوگیری کند.

ChatGPT متن زیر را در 10 ثانیه بازنویسی کرد.

ChatGPT پارافریز متن برای جلوگیری از سرقت ادبی

البته، اسپینینگ همچنان به عنوان سرقت علمی طبقه بندی می شود. مقاله‌های هوش مصنوعی گاهی اوقات به‌طور تصادفی رتبه‌بندی می‌شوند، اما گوگل عموماً محتوای اصلی از منابع معتبر را ترجیح می‌دهد. ترفندهای ارزان و هک های سئو نمی توانند بر نوشته های با کیفیت بالا و همیشه سبز غلبه کنند.

همچنین، گوگل سالانه چندین به روز رسانی اصلی را منتشر می کند. به زودی بر حذف قطعات تنبل و غیراصلی که توسط هوش مصنوعی تولید شده اند از SERP ها تمرکز خواهد کرد.

5. ایجاد پاسخ های غیر اخلاقی

مدل های زبان هوش مصنوعی هیچ تعصبی ندارند. آنها با تجزیه و تحلیل درخواست‌های کاربر و استخراج داده‌ها از پایگاه داده موجود، پاسخ‌هایی را ارائه می‌دهند.

ChatGPT را به عنوان مثال در نظر بگیرید. هنگامی که درخواستی را ارسال می کنید، بر اساس مجموعه داده های OpenAI مورد استفاده برای آموزش پاسخ می دهد.

در حالی که خط‌مشی‌های محتوای ChatGPT درخواست‌های نامناسب را مسدود می‌کند، کاربران با درخواست‌های فرار از زندان آنها را دور می‌زنند. آنها دستورالعمل های دقیق و هوشمندانه را به آن می خورند. اگر از ChatGPT بخواهید یک شخصیت خیالی روان‌پریشی را به تصویر بکشد، پاسخ زیر را ایجاد می‌کند.

مطلب مرتبط:   آیا می توانید به مرورگر خود با اطلاعات کارت اعتباری اعتماد کنید؟

درخواست از ChatGPT برای تولید پاسخ های مضر

خبر خوب این است که OpenAI کنترل ChatGPT را از دست نداده است. تلاش‌های مداوم آن در تشدید محدودیت‌ها، ChatGPT را از تولید پاسخ‌های غیراخلاقی، بدون توجه به ورودی کاربر، باز می‌دارد. جیلبریک به این راحتی ها پیش نمی رود.

6. Quid Pro Quo

جستجوی ChatGPT در فروشگاه Play

رشد سریع فناوری‌های جدید و ناآشنا مانند ChatGPT فرصت‌هایی را برای حملات quid pro quo ایجاد می‌کند. آنها تاکتیک های مهندسی اجتماعی هستند که در آن کلاهبرداران قربانیان را با پیشنهادات جعلی فریب می دهند.

بیشتر مردم هنوز ChatGPT را کاوش نکرده اند. و هکرها با انتشار تبلیغات، ایمیل ها و اطلاعیه های گمراه کننده از سردرگمی سوء استفاده می کنند.

بدنام ترین موارد مربوط به برنامه های جعلی است. کاربران جدید نمی دانند که فقط از طریق OpenAI می توانند به ChatGPT دسترسی داشته باشند. آنها ناآگاهانه برنامه ها و افزونه های اسپم را دانلود می کنند.

بیشتر آنها فقط خواهان دانلود برنامه هستند، اما دیگران اطلاعات شناسایی شخصی را سرقت می کنند. کلاهبرداران آنها را با بدافزارها و لینک های فیشینگ آلوده می کنند. به عنوان مثال، در مارس 2023، یک برنامه افزودنی جعلی ChatGPT کروم، اعتبار فیس بوک را از بیش از 2000 کاربر روزانه به سرقت برد.

برای مبارزه با تلاش‌های quid pro quo، از برنامه‌های شخص ثالث اجتناب کنید. OpenAI هرگز یک برنامه تلفن همراه، برنامه کامپیوتری یا افزونه مرورگر مجاز برای ChatGPT منتشر نکرد. هر چیزی که چنین ادعایی داشته باشد کلاهبرداری است.

از ChatGPT ایمن و مسئولانه استفاده کنید

ChatGPT به خودی خود یک تهدید نیست. این سیستم دارای آسیب‌پذیری‌هایی است، اما داده‌های شما را به خطر نمی‌اندازد. به جای ترس از فناوری‌های هوش مصنوعی، تحقیق کنید که چگونه کلاهبرداران آن‌ها را در تاکتیک‌های مهندسی اجتماعی ترکیب می‌کنند. به این ترتیب، شما می توانید فعالانه از خود محافظت کنید.

اما اگر هنوز در مورد ChatGPT شک دارید، بینگ را امتحان کنید. بینگ جدید دارای یک چت ربات مجهز به هوش مصنوعی است که روی GPT-4 اجرا می‌شود، داده‌ها را از اینترنت می‌کشد و از اقدامات امنیتی سخت‌گیرانه پیروی می‌کند. ممکن است آن را بیشتر برای نیازهای خود بیابید.