خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

مولدهای تصویر هوش مصنوعی: یک تهدید امنیت سایبری در حال ظهور

تصاویر ساخته شده توسط هوش مصنوعی سرگرم کننده به نظر می رسند، اما می توانند یک خطر امنیتی جدی نیز باشند. در اینجا چگونگی آن است.

هوش مصنوعی (AI) پتانسیل تغییر ماهیت جامعه ما را دارد. و اگر ابزارهای هوش مصنوعی که در حال حاضر در اختیار داریم، نشانه ای از آینده باشد، باید منتظر چیزهای زیادی باشیم.

ما نیز باید مراقب باشیم. یعنی سلاح‌سازی هوش مصنوعی توسط مجرمان سایبری و سایر عوامل تهدید. این یک نگرانی نظری نیست و حتی تولیدکنندگان تصویر هوش مصنوعی نیز از سوء استفاده مصون نیستند.

مولدهای تصویر هوش مصنوعی چیست؟ چطورکار می کنند؟

اگر تا به حال از یک تولید کننده تصویر هوش مصنوعی استفاده کرده اید، ایده بسیار خوبی دارید که همه آنها در مورد چیست. حتی اگر هرگز از آن استفاده نکرده باشید، به احتمال زیاد با تصاویر تولید شده توسط هوش مصنوعی در رسانه های اجتماعی و جاهای دیگر مواجه شده اید. نرم افزاری که امروزه محبوب است بر اساس یک اصل بسیار ساده کار می کند: کاربر متن را تایپ می کند و هوش مصنوعی بر اساس آن متن تصویری تولید می کند.

آنچه در زیر کاپوت می گذرد بسیار پیچیده تر است. هوش مصنوعی در سال‌های اخیر بسیار بهتر شده است و امروزه اکثر تولیدکنندگان متن به تصویر به اصطلاح مدل‌های انتشار هستند. این بدان معناست که آنها در مدت زمان طولانی بر روی تعداد زیادی متن و تصویر “آموزش داده شده اند” و همین باعث می شود که خلاقیت آنها بسیار چشمگیر و به طرز خیره کننده ای واقع گرایانه باشد.

چیزی که این ابزارهای هوش مصنوعی را حتی چشمگیرتر می کند این واقعیت است که آنها فقط تصاویر موجود را تغییر نمی دهند یا هزاران تصویر را در یک تصویر ترکیب نمی کنند، بلکه تصاویر جدید و اصلی را از ابتدا ایجاد می کنند. هرچه افراد بیشتر از این تولیدکننده های متن به تصویر استفاده کنند، اطلاعات بیشتری به آنها داده می شود و خلاقیت آنها بهتر می شود.

برخی از شناخته‌شده‌ترین تولیدکنندگان تصویر هوش مصنوعی Dream by WOMBO، DALL-E، Stable Diffusion، Midjourney، DeepAI، Fotor و Craiyon هستند. موارد جدید چپ و راست ظاهر می‌شوند و غول‌های فناوری – از جمله گوگل – در حال انتشار خود هستند، بنابراین ما فقط می‌توانیم حدس بزنیم که آینده چه خواهد شد.

مطلب مرتبط:   Sprawl هویت چیست و چگونه می توان آن را کاهش داد؟

4 روشی که بازیگران را تهدید می کند، مولدهای تصویر هوش مصنوعی را به سلاح تبدیل می کند

تصویر دیجیتال نمایشگرهایی را نشان می دهد که هوش مصنوعی را نشان می دهد

مانند تقریباً تمام فناوری‌ها، تولیدکنندگان تصویر هوش مصنوعی می‌توانند توسط بازیگران بدخواه مورد سوء استفاده قرار گیرند. در واقع، آنها در حال حاضر برای همه نوع اهداف پلید استفاده می شوند. اما یک جنایتکار دقیقاً چه نوع کلاهبرداری و حملات سایبری را می تواند با کمک تولیدکنندگان تصویر هوش مصنوعی انجام دهد؟

1. مهندسی اجتماعی

یکی از کارهای آشکاری که بازیگران تهدید می توانند با تولیدکنندگان تصویر هوش مصنوعی انجام دهند، مشارکت در مهندسی اجتماعی است. به عنوان مثال، پروفایل های شبکه های اجتماعی جعلی ایجاد کنید. برخی از این برنامه‌ها می‌توانند تصاویر فوق‌العاده واقعی ایجاد کنند که دقیقاً شبیه عکس‌های واقعی افراد واقعی است و یک کلاهبردار می‌تواند از این پروفایل‌های جعلی رسانه‌های اجتماعی برای ماهیگیری استفاده کند.

برخلاف عکس‌های افراد واقعی، عکس‌های تولید شده توسط هوش مصنوعی را نمی‌توان از طریق جستجوی عکس معکوس کشف کرد، و مجرم سایبری مجبور نیست با تعداد محدودی عکس کار کند تا هدف خود را فریب دهد – با استفاده از هوش مصنوعی، آنها می‌توانند هر تعداد که دوست دارند تولید کنند. یک هویت آنلاین قانع کننده از ابتدا.

اما نمونه‌هایی در زندگی واقعی از عوامل تهدید وجود دارد که از تولیدکننده‌های تصویر هوش مصنوعی برای کلاهبرداری از مردم استفاده می‌کنند. در آوریل 2022، بن دیکینسون، وبلاگ نویس TechTalks، ایمیلی از یک شرکت حقوقی دریافت کرد که ادعا می کرد از یک تصویر بدون اجازه استفاده کرده است. وکلا یک اعلامیه نقض حق نسخه‌برداری DMCA را ایمیل کردند و به دیکنسون گفتند که باید به مشتری آنها پیوند بزند یا تصویر را حذف کند.

دیکینسون شرکت حقوقی را در گوگل جستجو کرد و وب سایت رسمی را پیدا کرد. همه چیز کاملاً مشروع به نظر می رسید. این سایت حتی عکس هایی از 18 وکیل به همراه بیوگرافی و اعتبار آنها داشت. اما هیچ کدام واقعی نبود. همه عکس‌ها توسط هوش مصنوعی تولید شده‌اند، و اعلامیه‌های نقض حق نسخه‌برداری توسط شخصی ارسال شده است که به دنبال اخاذی بک لینک از وبلاگ‌نویس‌های ناآگاه است، به عنوان بخشی از استراتژی غیراخلاقی کلاه سیاه SEO (بهینه‌سازی موتور جستجو).

مطلب مرتبط:   فایرفاکس در مقابل اپرا: کدام مرورگر برای امنیت بهتر است؟

2. کلاهبرداری های خیریه

هنگامی که زلزله های ویرانگر ترکیه و سوریه در فوریه 2023 رخ داد، میلیون ها نفر در سراسر جهان با اهدای لباس، غذا و پول همبستگی خود را با قربانیان اعلام کردند.

بر اساس گزارشی از بی بی سی، کلاهبرداران از این فرصت استفاده کردند و از هوش مصنوعی برای ایجاد تصاویر واقعی و درخواست کمک های مالی استفاده کردند. یکی از کلاهبرداران تصاویری از ویرانه های تولید شده توسط هوش مصنوعی را در TikTok Live نشان داد و از بینندگان خود درخواست کمک مالی کرد. یکی دیگر تصویری را که توسط هوش مصنوعی ایجاد شده بود از یک آتش‌نشان یونانی در حال نجات یک کودک مجروح از خرابه‌ها منتشر کرد و از دنبال‌کنندگانش درخواست کمک‌های مالی به بیت‌کوین کرد.

تنها می توان تصور کرد که مجرمان در آینده چه نوع کلاهبرداری های خیریه را با کمک هوش مصنوعی اجرا خواهند کرد، اما می توان تصور کرد که آنها فقط در سوء استفاده از این نرم افزار بهتر خواهند شد.

3. دیپ فیک و اطلاعات نادرست

دولت‌ها، گروه‌های فعال و اندیشکده‌ها مدت‌هاست در مورد خطرات دیپ فیک هشدار داده‌اند. مولدهای تصویر هوش مصنوعی، با توجه به واقعی بودن خلاقیت هایشان، مؤلفه دیگری به این مشکل اضافه می کنند. در واقع، در بریتانیا، حتی یک نمایش کمدی به نام Deep Fake Neighbor Wars وجود دارد که طنز را در جفت‌های غیرمحتمل افراد مشهور پیدا می‌کند. چه چیزی یک عامل اطلاعات نادرست را از ایجاد یک تصویر جعلی و تبلیغ آن در رسانه های اجتماعی با کمک ربات ها باز می دارد؟

این می تواند عواقب واقعی داشته باشد، همانطور که تقریباً در مارس 2022 رخ داد، هنگامی که یک ویدیوی جعلی که ولودیمیر زلنسکی، رئیس جمهور اوکراین را به تصویر می کشد، به اوکراینی ها می گوید تسلیم شوند، به صورت آنلاین بر اساس NPR منتشر شد. اما این تنها یک مثال است، زیرا احتمالات تقریباً بی‌پایان است و راه‌های بی‌شماری وجود دارد که یک عامل تهدید می‌تواند به اعتبار کسی آسیب برساند، یک روایت نادرست را تبلیغ کند یا اخبار جعلی را با کمک هوش مصنوعی منتشر کند.

مطلب مرتبط:   Web3 در مقابل Web 3.0: تفاوت چیست؟

4. کلاهبرداری تبلیغاتی

محققان TrendMicro در سال 2022 کشف کردند که کلاهبرداران از محتوای تولید شده توسط هوش مصنوعی برای ایجاد تبلیغات گمراه‌کننده و ترویج محصولات مشکوک استفاده می‌کنند. آنها تصاویری ایجاد کردند که به افراد مشهور معروف پیشنهاد می کرد از محصولات خاصی استفاده کنند و کمپین های تبلیغاتی را بر اساس آن تصاویر راه اندازی کردند.

به عنوان مثال، یک تبلیغ برای “فرصت مشاوره مالی” میلیاردر ایلان ماسک، بنیانگذار و مدیر عامل تسلا را نشان می دهد. البته، ماسک هرگز محصول مورد بحث را تایید نکرد، اما فیلم‌های تولید شده توسط هوش مصنوعی اینطور به نظر می‌رسند و احتمالاً بینندگان ناآگاه را جذب می‌کنند تا روی تبلیغات کلیک کنند.

هوش مصنوعی و امنیت سایبری: مسئله پیچیده ای که باید با آن مقابله کنیم

در آینده، رگولاتورهای دولتی و کارشناسان امنیت سایبری احتمالاً باید برای مقابله با تهدید در حال ظهور جرایم سایبری مبتنی بر هوش مصنوعی با یکدیگر همکاری کنند. اما چگونه می توانیم هوش مصنوعی را تنظیم کنیم و از مردم عادی محافظت کنیم، بدون اینکه نوآوری را خفه کنیم و آزادی های دیجیتال را محدود کنیم؟ این سوال برای سال های آینده بزرگ خواهد بود.

تا زمانی که پاسخی وجود ندارد، برای محافظت از خود هر کاری می توانید انجام دهید: هر اطلاعاتی را که آنلاین می بینید به دقت بررسی کنید، از وب سایت های سایه دار خودداری کنید، از نرم افزارهای ایمن استفاده کنید، دستگاه های خود را به روز نگه دارید و یاد بگیرید که از هوش مصنوعی به نفع خود استفاده کنید.