خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

تعصب هوش مصنوعی چیست و توسعه دهندگان چگونه می توانند از آن اجتناب کنند؟

اگرچه هوش مصنوعی تماماً کد و الگوریتم است، اما همچنان می‌تواند دارای تعصب و تبعیض علیه افراد باشد.

قابلیت‌های هوش مصنوعی به‌طور تصاعدی در حال گسترش است و هوش مصنوعی اکنون در صنایع از تبلیغات گرفته تا تحقیقات پزشکی استفاده می‌شود. استفاده از هوش مصنوعی در زمینه‌های حساس‌تر، مانند نرم‌افزار تشخیص چهره، الگوریتم‌های استخدام، و ارائه مراقبت‌های بهداشتی، بحث‌هایی را در مورد تعصب و انصاف ایجاد کرده است.

تعصب جنبه ای از روانشناسی انسان است که به خوبی تحقیق شده است. خود هوش مصنوعی نمی تواند مغرضانه باشد، اما انسان هایی که این مدل را توسعه داده و آموزش می دهند می توانند. تحقیقات به طور مرتب ترجیحات و تعصبات ناخودآگاه ما را آشکار می کند، و سیستم های هوش مصنوعی اکنون برخی از این سوگیری ها را در الگوریتم های خود منعکس می کنند.

بنابراین، چگونه هوش مصنوعی مغرضانه می شود؟ و چرا این مهم است؟

هوش مصنوعی چگونه مغرضانه می شود؟

تصویر مدل هوش مصنوعی

برای سادگی، در این مقاله به الگوریتم های یادگیری ماشینی و یادگیری عمیق به عنوان الگوریتم ها یا سیستم های هوش مصنوعی اشاره می کنیم.

محققان و توسعه دهندگان می توانند سوگیری را به روش های مختلفی وارد سیستم های هوش مصنوعی کنند. در اینجا، ما دو مورد از آنها را روشن کرده ایم.

اول، سوگیری های شناختی محققان را می توان به طور تصادفی در الگوریتم های یادگیری ماشین جاسازی کرد. سوگیری های شناختی ادراکات ناخودآگاه انسان هستند که می توانند بر نحوه تصمیم گیری افراد تأثیر بگذارند. زمانی که سوگیری ها علیه افراد یا گروه هایی از مردم باشد، این موضوع به یک موضوع مهم تبدیل می شود.

این سوگیری ها می توانند مستقیماً اما به طور تصادفی معرفی شوند، یا محققان ممکن است هوش مصنوعی را بر روی مجموعه داده هایی که خود تحت تأثیر سوگیری قرار گرفته اند آموزش دهند. به عنوان مثال، یک هوش مصنوعی تشخیص چهره را می توان با استفاده از مجموعه داده ای که فقط شامل چهره هایی با پوست روشن است، آموزش داد. در این حالت، هوش مصنوعی در مواجهه با چهره‌های با پوست روشن بهتر از تاریکی عمل می‌کند. این شکل از تعصب هوش مصنوعی به عنوان میراث منفی شناخته می شود.

دوم، زمانی که هوش مصنوعی بر روی مجموعه داده های ناقص آموزش داده می شود، سوگیری ها ممکن است ایجاد شوند. به عنوان مثال، اگر یک هوش مصنوعی بر روی مجموعه داده ای که فقط شامل دانشمندان کامپیوتر است آموزش داده شود، نشان دهنده کل جمعیت نخواهد بود. این منجر به الگوریتم هایی می شود که در ارائه پیش بینی های دقیق ناکام هستند.

مطلب مرتبط:   مدل پردازش زبان طبیعی BERT چیست و چه تفاوتی با GPT دارد؟

نمونه هایی از تعصب هوش مصنوعی در دنیای واقعی

مرد ریشو در حال بازی شطرنج با ربات

چند نمونه اخیر و به خوبی گزارش شده از تعصب هوش مصنوعی، خطر نفوذ این سوگیری ها را نشان می دهد.

Google Photos رنگین پوستان را به حاشیه راند

در سال 2015، بی‌بی‌سی یک اشتباه بزرگ در تشخیص چهره توسط Google Photos را گزارش کرد که مشخص شد این اشتباه علیه افراد رنگین پوست است. نرم افزار هوش مصنوعی به اشتباه عکس های یک زوج سیاه پوست را با عنوان گوریل برچسب گذاری کرد.

چند سال بعد، AlgorithmWatch آزمایشی انجام داد و یافته های خود را منتشر کرد. Google Vision Cloud، یک سرویس هوش مصنوعی که به طور خودکار تصاویر را برچسب گذاری می کند، عکس مردی با پوست تیره که دماسنج در دست دارد را به عنوان عکس تفنگ برچسب گذاری کرد. عکس مشابهی که یک دست سفید را نشان می دهد که دماسنج را در دست دارد، برچسب “دما سنج” را نشان می دهد.

هر دو حادثه مورد توجه رسانه‌ها قرار گرفتند و نگرانی‌هایی را در مورد آسیب‌های احتمالی که سوگیری هوش مصنوعی می‌تواند برای برخی از جوامع ایجاد کند، ایجاد کرد. در حالی که گوگل برای هر دو حادثه عذرخواهی کرد و اقداماتی را برای رسیدگی به این مشکل انجام داد، این رویدادها بر اهمیت توسعه سیستم‌های هوش مصنوعی بی‌طرفانه تاکید می‌کنند.

الگوریتم مراقبت های بهداشتی مستقر در ایالات متحده بیماران سفید پوست را مورد علاقه قرار می دهد

در سال 2019، یک الگوریتم یادگیری ماشین طراحی شد تا به بیمارستان‌ها و شرکت‌های بیمه کمک کند تا مشخص کنند کدام بیماران از برنامه‌های مراقبت‌های بهداشتی خاص بیشتر سود می‌برند. ساینتیفیک امریکن گزارش داد که این الگوریتم که مبتنی بر پایگاه داده ای شامل تقریباً 200 میلیون نفر است، بیماران سفیدپوست را به بیماران سیاه پوست ترجیح می دهد.

مشخص شد که این به دلیل یک فرض اشتباه در الگوریتم در مورد هزینه‌های مختلف مراقبت‌های بهداشتی بین افراد سیاه‌پوست و سفیدپوست بوده است و این سوگیری در نهایت تا 80 درصد کاهش یافت.

COMPAS با برچسب مجرمان سفیدپوست خطر کمتری نسبت به مجرمان سیاه پوست دارد

پروفایل مدیریت مجرم اصلاحی برای مجازات های جایگزین یا COMPAS یک الگوریتم هوش مصنوعی بود که برای پیش بینی اینکه آیا افراد خاصی دوباره مرتکب جرم می شوند یا خیر طراحی شده بود. الگوریتم دو برابر مثبت کاذب برای مجرمان سیاهپوست در مقایسه با مجرمان سفیدپوست تولید کرد. در این مورد، مجموعه داده و مدل ناقص بودند و سوگیری سنگینی را معرفی کردند.

مطلب مرتبط:   من یک آهنگ را با استفاده از هوش مصنوعی ساختم: در اینجا چگونه معلوم شد

الگوریتم استخدام آمازون تعصب جنسیتی را آشکار کرد

در سال 2015، الگوریتم استخدامی که آمازون برای تعیین شایستگی متقاضیان استفاده می‌کند، مشخص شد که به شدت مردان را بر زنان ترجیح می‌دهد. این به این دلیل بود که مجموعه داده تقریباً منحصراً شامل مردان و رزومه آنها بود زیرا اکثر کارمندان آمازون مرد هستند.

بعدها رویترز گزارش داد که سیستم آمازون اساساً یاد گرفته است که به تنهایی از نامزدهای مرد حمایت کند. این الگوریتم تا آنجا پیش رفت که متقاضیان را به دلیل درج کلمه زنانه در محتوای رزومه خود جریمه کرد. نیازی به گفتن نیست که تیم سازنده این نرم افزار اندکی پس از رسوایی منحل شد.

چگونه تعصب هوش مصنوعی را متوقف کنیم

هوش مصنوعی در حال حاضر انقلابی در نحوه کار ما در هر صنعت ایجاد کرده است، از جمله مشاغلی که هرگز نمی دانستید مبتنی بر هوش مصنوعی هستند. داشتن سیستم های مغرضانه ای که فرآیندهای حساس تصمیم گیری را کنترل می کنند، چندان مطلوب نیست. در بهترین حالت، کیفیت تحقیقات مبتنی بر هوش مصنوعی را کاهش می دهد. در بدترین حالت، به طور فعال به گروه های اقلیت آسیب می رساند.

نمونه‌هایی از الگوریتم‌های هوش مصنوعی وجود دارد که قبلاً برای کمک به تصمیم‌گیری انسان با کاهش تأثیر سوگیری‌های شناختی انسان استفاده می‌شوند. به دلیل نحوه آموزش الگوریتم‌های یادگیری ماشین، آنها می‌توانند دقیق‌تر و کمتر سوگیری نسبت به انسان‌ها در موقعیت مشابه داشته باشند و در نتیجه تصمیم‌گیری منصفانه‌تر می‌شود.

اما، همانطور که نشان دادیم، برعکس نیز صادق است. خطرات اجازه دادن به تعصبات انسانی برای پخته شدن و تقویت توسط هوش مصنوعی ممکن است بر برخی از مزایای احتمالی آن بیشتر باشد.

در پایان روز، هوش مصنوعی فقط به اندازه داده هایی است که با آن آموزش داده شده است. توسعه الگوریتم‌های بی‌طرفانه مستلزم پیش‌تحلیل گسترده و کامل مجموعه‌های داده است، تا اطمینان حاصل شود که داده‌ها عاری از تعصبات ضمنی هستند. این سخت تر از آن است که به نظر می رسد، زیرا بسیاری از تعصبات ما ناخودآگاه هستند و اغلب به سختی قابل تشخیص هستند.

مطلب مرتبط:   VoLTE در مقابل VoIP: تفاوت چیست؟

چالش های پیشگیری از تعصب هوش مصنوعی

در توسعه سیستم‌های هوش مصنوعی، هر مرحله باید از نظر پتانسیل آن برای تعبیه سوگیری در الگوریتم ارزیابی شود. یکی از عوامل اصلی در جلوگیری از سوگیری، اطمینان از این است که انصاف، به جای سوگیری، در الگوریتم “پخته شود”.

تعریف انصاف

انصاف مفهومی است که تعریف آن نسبتاً دشوار است. در واقع، این بحثی است که هرگز به اجماع نرسیده است. برای سخت‌تر کردن کارها، هنگام توسعه سیستم‌های هوش مصنوعی، مفهوم انصاف باید به صورت ریاضی تعریف شود.

به عنوان مثال، از نظر الگوریتم استخدام آمازون، آیا انصاف مانند تقسیم کامل 50/50 کارگران مرد به زن است؟ یا نسبت متفاوت؟

تعیین تابع

اولین قدم در توسعه هوش مصنوعی این است که دقیقاً تعیین کنید که چه چیزی قرار است به دست آورد. اگر از مثال COMPAS استفاده شود، الگوریتم احتمال ارتکاب مجدد مجرمان را پیش‌بینی می‌کند. سپس، ورودی های داده واضح باید تعیین شوند تا الگوریتم کار کند.

زن هوش مصنوعی

این ممکن است مستلزم تعریف متغیرهای مهمی مانند تعداد تخلفات قبلی یا نوع جرایم ارتکابی باشد. تعریف صحیح این متغیرها گامی دشوار اما مهم در حصول اطمینان از منصفانه بودن الگوریتم است.

ساخت مجموعه داده

همانطور که پوشش داده‌ایم، یکی از دلایل اصلی سوگیری هوش مصنوعی داده‌های ناقص، غیرنماینده یا مغرضانه است. مانند مورد هوش مصنوعی تشخیص چهره، قبل از فرآیند یادگیری ماشینی، داده های ورودی باید به طور کامل از نظر سوگیری، مناسب بودن و کامل بودن بررسی شوند.

انتخاب ویژگی ها

در الگوریتم ها می توان ویژگی های خاصی را در نظر گرفت یا خیر. ویژگی‌ها می‌توانند شامل جنسیت، نژاد یا تحصیلات باشند – اساساً هر چیزی که ممکن است برای کار الگوریتم مهم باشد. بسته به اینکه کدام ویژگی انتخاب می شود، دقت پیش بینی و تعصب الگوریتم می تواند به شدت تحت تأثیر قرار گیرد. مشکل این است که اندازه گیری میزان سوگیری یک الگوریتم بسیار دشوار است.

تعصب هوش مصنوعی اینجا برای ماندن نیست

تعصب هوش مصنوعی زمانی اتفاق می‌افتد که الگوریتم‌ها پیش‌بینی‌های مغرضانه یا نادرست را به دلیل ورودی‌های بایاس انجام می‌دهند. زمانی اتفاق می افتد که داده های مغرضانه یا ناقص در طول توسعه و آموزش الگوریتم منعکس یا تقویت شوند.

خبر خوب این است که با چند برابر شدن بودجه برای تحقیقات هوش مصنوعی، احتمالاً شاهد روش‌های جدیدی برای کاهش و حتی حذف سوگیری هوش مصنوعی خواهیم بود.