تصاویر ساخته شده توسط هوش مصنوعی سرگرم کننده به نظر می رسند، اما می توانند یک خطر امنیتی جدی نیز باشند. در اینجا چگونگی آن است.
هوش مصنوعی (AI) پتانسیل تغییر ماهیت جامعه ما را دارد. و اگر ابزارهای هوش مصنوعی که در حال حاضر در اختیار داریم، نشانه ای از آینده باشد، باید منتظر چیزهای زیادی باشیم.
ما نیز باید مراقب باشیم. یعنی سلاحسازی هوش مصنوعی توسط مجرمان سایبری و سایر عوامل تهدید. این یک نگرانی نظری نیست و حتی تولیدکنندگان تصویر هوش مصنوعی نیز از سوء استفاده مصون نیستند.
مولدهای تصویر هوش مصنوعی چیست؟ چطورکار می کنند؟
اگر تا به حال از یک تولید کننده تصویر هوش مصنوعی استفاده کرده اید، ایده بسیار خوبی دارید که همه آنها در مورد چیست. حتی اگر هرگز از آن استفاده نکرده باشید، به احتمال زیاد با تصاویر تولید شده توسط هوش مصنوعی در رسانه های اجتماعی و جاهای دیگر مواجه شده اید. نرم افزاری که امروزه محبوب است بر اساس یک اصل بسیار ساده کار می کند: کاربر متن را تایپ می کند و هوش مصنوعی بر اساس آن متن تصویری تولید می کند.
آنچه در زیر کاپوت می گذرد بسیار پیچیده تر است. هوش مصنوعی در سالهای اخیر بسیار بهتر شده است و امروزه اکثر تولیدکنندگان متن به تصویر به اصطلاح مدلهای انتشار هستند. این بدان معناست که آنها در مدت زمان طولانی بر روی تعداد زیادی متن و تصویر “آموزش داده شده اند” و همین باعث می شود که خلاقیت آنها بسیار چشمگیر و به طرز خیره کننده ای واقع گرایانه باشد.
چیزی که این ابزارهای هوش مصنوعی را حتی چشمگیرتر می کند این واقعیت است که آنها فقط تصاویر موجود را تغییر نمی دهند یا هزاران تصویر را در یک تصویر ترکیب نمی کنند، بلکه تصاویر جدید و اصلی را از ابتدا ایجاد می کنند. هرچه افراد بیشتر از این تولیدکننده های متن به تصویر استفاده کنند، اطلاعات بیشتری به آنها داده می شود و خلاقیت آنها بهتر می شود.
برخی از شناختهشدهترین تولیدکنندگان تصویر هوش مصنوعی Dream by WOMBO، DALL-E، Stable Diffusion، Midjourney، DeepAI، Fotor و Craiyon هستند. موارد جدید چپ و راست ظاهر میشوند و غولهای فناوری – از جمله گوگل – در حال انتشار خود هستند، بنابراین ما فقط میتوانیم حدس بزنیم که آینده چه خواهد شد.
4 روشی که بازیگران را تهدید می کند، مولدهای تصویر هوش مصنوعی را به سلاح تبدیل می کند
مانند تقریباً تمام فناوریها، تولیدکنندگان تصویر هوش مصنوعی میتوانند توسط بازیگران بدخواه مورد سوء استفاده قرار گیرند. در واقع، آنها در حال حاضر برای همه نوع اهداف پلید استفاده می شوند. اما یک جنایتکار دقیقاً چه نوع کلاهبرداری و حملات سایبری را می تواند با کمک تولیدکنندگان تصویر هوش مصنوعی انجام دهد؟
1. مهندسی اجتماعی
یکی از کارهای آشکاری که بازیگران تهدید می توانند با تولیدکنندگان تصویر هوش مصنوعی انجام دهند، مشارکت در مهندسی اجتماعی است. به عنوان مثال، پروفایل های شبکه های اجتماعی جعلی ایجاد کنید. برخی از این برنامهها میتوانند تصاویر فوقالعاده واقعی ایجاد کنند که دقیقاً شبیه عکسهای واقعی افراد واقعی است و یک کلاهبردار میتواند از این پروفایلهای جعلی رسانههای اجتماعی برای ماهیگیری استفاده کند.
برخلاف عکسهای افراد واقعی، عکسهای تولید شده توسط هوش مصنوعی را نمیتوان از طریق جستجوی عکس معکوس کشف کرد، و مجرم سایبری مجبور نیست با تعداد محدودی عکس کار کند تا هدف خود را فریب دهد – با استفاده از هوش مصنوعی، آنها میتوانند هر تعداد که دوست دارند تولید کنند. یک هویت آنلاین قانع کننده از ابتدا.
اما نمونههایی در زندگی واقعی از عوامل تهدید وجود دارد که از تولیدکنندههای تصویر هوش مصنوعی برای کلاهبرداری از مردم استفاده میکنند. در آوریل 2022، بن دیکینسون، وبلاگ نویس TechTalks، ایمیلی از یک شرکت حقوقی دریافت کرد که ادعا می کرد از یک تصویر بدون اجازه استفاده کرده است. وکلا یک اعلامیه نقض حق نسخهبرداری DMCA را ایمیل کردند و به دیکنسون گفتند که باید به مشتری آنها پیوند بزند یا تصویر را حذف کند.
دیکینسون شرکت حقوقی را در گوگل جستجو کرد و وب سایت رسمی را پیدا کرد. همه چیز کاملاً مشروع به نظر می رسید. این سایت حتی عکس هایی از 18 وکیل به همراه بیوگرافی و اعتبار آنها داشت. اما هیچ کدام واقعی نبود. همه عکسها توسط هوش مصنوعی تولید شدهاند، و اعلامیههای نقض حق نسخهبرداری توسط شخصی ارسال شده است که به دنبال اخاذی بک لینک از وبلاگنویسهای ناآگاه است، به عنوان بخشی از استراتژی غیراخلاقی کلاه سیاه SEO (بهینهسازی موتور جستجو).
2. کلاهبرداری های خیریه
هنگامی که زلزله های ویرانگر ترکیه و سوریه در فوریه 2023 رخ داد، میلیون ها نفر در سراسر جهان با اهدای لباس، غذا و پول همبستگی خود را با قربانیان اعلام کردند.
بر اساس گزارشی از بی بی سی، کلاهبرداران از این فرصت استفاده کردند و از هوش مصنوعی برای ایجاد تصاویر واقعی و درخواست کمک های مالی استفاده کردند. یکی از کلاهبرداران تصاویری از ویرانه های تولید شده توسط هوش مصنوعی را در TikTok Live نشان داد و از بینندگان خود درخواست کمک مالی کرد. یکی دیگر تصویری را که توسط هوش مصنوعی ایجاد شده بود از یک آتشنشان یونانی در حال نجات یک کودک مجروح از خرابهها منتشر کرد و از دنبالکنندگانش درخواست کمکهای مالی به بیتکوین کرد.
تنها می توان تصور کرد که مجرمان در آینده چه نوع کلاهبرداری های خیریه را با کمک هوش مصنوعی اجرا خواهند کرد، اما می توان تصور کرد که آنها فقط در سوء استفاده از این نرم افزار بهتر خواهند شد.
3. دیپ فیک و اطلاعات نادرست
دولتها، گروههای فعال و اندیشکدهها مدتهاست در مورد خطرات دیپ فیک هشدار دادهاند. مولدهای تصویر هوش مصنوعی، با توجه به واقعی بودن خلاقیت هایشان، مؤلفه دیگری به این مشکل اضافه می کنند. در واقع، در بریتانیا، حتی یک نمایش کمدی به نام Deep Fake Neighbor Wars وجود دارد که طنز را در جفتهای غیرمحتمل افراد مشهور پیدا میکند. چه چیزی یک عامل اطلاعات نادرست را از ایجاد یک تصویر جعلی و تبلیغ آن در رسانه های اجتماعی با کمک ربات ها باز می دارد؟
این می تواند عواقب واقعی داشته باشد، همانطور که تقریباً در مارس 2022 رخ داد، هنگامی که یک ویدیوی جعلی که ولودیمیر زلنسکی، رئیس جمهور اوکراین را به تصویر می کشد، به اوکراینی ها می گوید تسلیم شوند، به صورت آنلاین بر اساس NPR منتشر شد. اما این تنها یک مثال است، زیرا احتمالات تقریباً بیپایان است و راههای بیشماری وجود دارد که یک عامل تهدید میتواند به اعتبار کسی آسیب برساند، یک روایت نادرست را تبلیغ کند یا اخبار جعلی را با کمک هوش مصنوعی منتشر کند.
4. کلاهبرداری تبلیغاتی
محققان TrendMicro در سال 2022 کشف کردند که کلاهبرداران از محتوای تولید شده توسط هوش مصنوعی برای ایجاد تبلیغات گمراهکننده و ترویج محصولات مشکوک استفاده میکنند. آنها تصاویری ایجاد کردند که به افراد مشهور معروف پیشنهاد می کرد از محصولات خاصی استفاده کنند و کمپین های تبلیغاتی را بر اساس آن تصاویر راه اندازی کردند.
به عنوان مثال، یک تبلیغ برای “فرصت مشاوره مالی” میلیاردر ایلان ماسک، بنیانگذار و مدیر عامل تسلا را نشان می دهد. البته، ماسک هرگز محصول مورد بحث را تایید نکرد، اما فیلمهای تولید شده توسط هوش مصنوعی اینطور به نظر میرسند و احتمالاً بینندگان ناآگاه را جذب میکنند تا روی تبلیغات کلیک کنند.
هوش مصنوعی و امنیت سایبری: مسئله پیچیده ای که باید با آن مقابله کنیم
در آینده، رگولاتورهای دولتی و کارشناسان امنیت سایبری احتمالاً باید برای مقابله با تهدید در حال ظهور جرایم سایبری مبتنی بر هوش مصنوعی با یکدیگر همکاری کنند. اما چگونه می توانیم هوش مصنوعی را تنظیم کنیم و از مردم عادی محافظت کنیم، بدون اینکه نوآوری را خفه کنیم و آزادی های دیجیتال را محدود کنیم؟ این سوال برای سال های آینده بزرگ خواهد بود.
تا زمانی که پاسخی وجود ندارد، برای محافظت از خود هر کاری می توانید انجام دهید: هر اطلاعاتی را که آنلاین می بینید به دقت بررسی کنید، از وب سایت های سایه دار خودداری کنید، از نرم افزارهای ایمن استفاده کنید، دستگاه های خود را به روز نگه دارید و یاد بگیرید که از هوش مصنوعی به نفع خود استفاده کنید.