اگرچه هوش مصنوعی تماماً کد و الگوریتم است، اما همچنان میتواند دارای تعصب و تبعیض علیه افراد باشد.
قابلیتهای هوش مصنوعی بهطور تصاعدی در حال گسترش است و هوش مصنوعی اکنون در صنایع از تبلیغات گرفته تا تحقیقات پزشکی استفاده میشود. استفاده از هوش مصنوعی در زمینههای حساستر، مانند نرمافزار تشخیص چهره، الگوریتمهای استخدام، و ارائه مراقبتهای بهداشتی، بحثهایی را در مورد تعصب و انصاف ایجاد کرده است.
تعصب جنبه ای از روانشناسی انسان است که به خوبی تحقیق شده است. خود هوش مصنوعی نمی تواند مغرضانه باشد، اما انسان هایی که این مدل را توسعه داده و آموزش می دهند می توانند. تحقیقات به طور مرتب ترجیحات و تعصبات ناخودآگاه ما را آشکار می کند، و سیستم های هوش مصنوعی اکنون برخی از این سوگیری ها را در الگوریتم های خود منعکس می کنند.
بنابراین، چگونه هوش مصنوعی مغرضانه می شود؟ و چرا این مهم است؟
هوش مصنوعی چگونه مغرضانه می شود؟
برای سادگی، در این مقاله به الگوریتم های یادگیری ماشینی و یادگیری عمیق به عنوان الگوریتم ها یا سیستم های هوش مصنوعی اشاره می کنیم.
محققان و توسعه دهندگان می توانند سوگیری را به روش های مختلفی وارد سیستم های هوش مصنوعی کنند. در اینجا، ما دو مورد از آنها را روشن کرده ایم.
اول، سوگیری های شناختی محققان را می توان به طور تصادفی در الگوریتم های یادگیری ماشین جاسازی کرد. سوگیری های شناختی ادراکات ناخودآگاه انسان هستند که می توانند بر نحوه تصمیم گیری افراد تأثیر بگذارند. زمانی که سوگیری ها علیه افراد یا گروه هایی از مردم باشد، این موضوع به یک موضوع مهم تبدیل می شود.
این سوگیری ها می توانند مستقیماً اما به طور تصادفی معرفی شوند، یا محققان ممکن است هوش مصنوعی را بر روی مجموعه داده هایی که خود تحت تأثیر سوگیری قرار گرفته اند آموزش دهند. به عنوان مثال، یک هوش مصنوعی تشخیص چهره را می توان با استفاده از مجموعه داده ای که فقط شامل چهره هایی با پوست روشن است، آموزش داد. در این حالت، هوش مصنوعی در مواجهه با چهرههای با پوست روشن بهتر از تاریکی عمل میکند. این شکل از تعصب هوش مصنوعی به عنوان میراث منفی شناخته می شود.
دوم، زمانی که هوش مصنوعی بر روی مجموعه داده های ناقص آموزش داده می شود، سوگیری ها ممکن است ایجاد شوند. به عنوان مثال، اگر یک هوش مصنوعی بر روی مجموعه داده ای که فقط شامل دانشمندان کامپیوتر است آموزش داده شود، نشان دهنده کل جمعیت نخواهد بود. این منجر به الگوریتم هایی می شود که در ارائه پیش بینی های دقیق ناکام هستند.
نمونه هایی از تعصب هوش مصنوعی در دنیای واقعی
چند نمونه اخیر و به خوبی گزارش شده از تعصب هوش مصنوعی، خطر نفوذ این سوگیری ها را نشان می دهد.
Google Photos رنگین پوستان را به حاشیه راند
در سال 2015، بیبیسی یک اشتباه بزرگ در تشخیص چهره توسط Google Photos را گزارش کرد که مشخص شد این اشتباه علیه افراد رنگین پوست است. نرم افزار هوش مصنوعی به اشتباه عکس های یک زوج سیاه پوست را با عنوان گوریل برچسب گذاری کرد.
چند سال بعد، AlgorithmWatch آزمایشی انجام داد و یافته های خود را منتشر کرد. Google Vision Cloud، یک سرویس هوش مصنوعی که به طور خودکار تصاویر را برچسب گذاری می کند، عکس مردی با پوست تیره که دماسنج در دست دارد را به عنوان عکس تفنگ برچسب گذاری کرد. عکس مشابهی که یک دست سفید را نشان می دهد که دماسنج را در دست دارد، برچسب “دما سنج” را نشان می دهد.
هر دو حادثه مورد توجه رسانهها قرار گرفتند و نگرانیهایی را در مورد آسیبهای احتمالی که سوگیری هوش مصنوعی میتواند برای برخی از جوامع ایجاد کند، ایجاد کرد. در حالی که گوگل برای هر دو حادثه عذرخواهی کرد و اقداماتی را برای رسیدگی به این مشکل انجام داد، این رویدادها بر اهمیت توسعه سیستمهای هوش مصنوعی بیطرفانه تاکید میکنند.
الگوریتم مراقبت های بهداشتی مستقر در ایالات متحده بیماران سفید پوست را مورد علاقه قرار می دهد
در سال 2019، یک الگوریتم یادگیری ماشین طراحی شد تا به بیمارستانها و شرکتهای بیمه کمک کند تا مشخص کنند کدام بیماران از برنامههای مراقبتهای بهداشتی خاص بیشتر سود میبرند. ساینتیفیک امریکن گزارش داد که این الگوریتم که مبتنی بر پایگاه داده ای شامل تقریباً 200 میلیون نفر است، بیماران سفیدپوست را به بیماران سیاه پوست ترجیح می دهد.
مشخص شد که این به دلیل یک فرض اشتباه در الگوریتم در مورد هزینههای مختلف مراقبتهای بهداشتی بین افراد سیاهپوست و سفیدپوست بوده است و این سوگیری در نهایت تا 80 درصد کاهش یافت.
COMPAS با برچسب مجرمان سفیدپوست خطر کمتری نسبت به مجرمان سیاه پوست دارد
پروفایل مدیریت مجرم اصلاحی برای مجازات های جایگزین یا COMPAS یک الگوریتم هوش مصنوعی بود که برای پیش بینی اینکه آیا افراد خاصی دوباره مرتکب جرم می شوند یا خیر طراحی شده بود. الگوریتم دو برابر مثبت کاذب برای مجرمان سیاهپوست در مقایسه با مجرمان سفیدپوست تولید کرد. در این مورد، مجموعه داده و مدل ناقص بودند و سوگیری سنگینی را معرفی کردند.
الگوریتم استخدام آمازون تعصب جنسیتی را آشکار کرد
در سال 2015، الگوریتم استخدامی که آمازون برای تعیین شایستگی متقاضیان استفاده میکند، مشخص شد که به شدت مردان را بر زنان ترجیح میدهد. این به این دلیل بود که مجموعه داده تقریباً منحصراً شامل مردان و رزومه آنها بود زیرا اکثر کارمندان آمازون مرد هستند.
بعدها رویترز گزارش داد که سیستم آمازون اساساً یاد گرفته است که به تنهایی از نامزدهای مرد حمایت کند. این الگوریتم تا آنجا پیش رفت که متقاضیان را به دلیل درج کلمه زنانه در محتوای رزومه خود جریمه کرد. نیازی به گفتن نیست که تیم سازنده این نرم افزار اندکی پس از رسوایی منحل شد.
چگونه تعصب هوش مصنوعی را متوقف کنیم
هوش مصنوعی در حال حاضر انقلابی در نحوه کار ما در هر صنعت ایجاد کرده است، از جمله مشاغلی که هرگز نمی دانستید مبتنی بر هوش مصنوعی هستند. داشتن سیستم های مغرضانه ای که فرآیندهای حساس تصمیم گیری را کنترل می کنند، چندان مطلوب نیست. در بهترین حالت، کیفیت تحقیقات مبتنی بر هوش مصنوعی را کاهش می دهد. در بدترین حالت، به طور فعال به گروه های اقلیت آسیب می رساند.
نمونههایی از الگوریتمهای هوش مصنوعی وجود دارد که قبلاً برای کمک به تصمیمگیری انسان با کاهش تأثیر سوگیریهای شناختی انسان استفاده میشوند. به دلیل نحوه آموزش الگوریتمهای یادگیری ماشین، آنها میتوانند دقیقتر و کمتر سوگیری نسبت به انسانها در موقعیت مشابه داشته باشند و در نتیجه تصمیمگیری منصفانهتر میشود.
اما، همانطور که نشان دادیم، برعکس نیز صادق است. خطرات اجازه دادن به تعصبات انسانی برای پخته شدن و تقویت توسط هوش مصنوعی ممکن است بر برخی از مزایای احتمالی آن بیشتر باشد.
در پایان روز، هوش مصنوعی فقط به اندازه داده هایی است که با آن آموزش داده شده است. توسعه الگوریتمهای بیطرفانه مستلزم پیشتحلیل گسترده و کامل مجموعههای داده است، تا اطمینان حاصل شود که دادهها عاری از تعصبات ضمنی هستند. این سخت تر از آن است که به نظر می رسد، زیرا بسیاری از تعصبات ما ناخودآگاه هستند و اغلب به سختی قابل تشخیص هستند.
چالش های پیشگیری از تعصب هوش مصنوعی
در توسعه سیستمهای هوش مصنوعی، هر مرحله باید از نظر پتانسیل آن برای تعبیه سوگیری در الگوریتم ارزیابی شود. یکی از عوامل اصلی در جلوگیری از سوگیری، اطمینان از این است که انصاف، به جای سوگیری، در الگوریتم “پخته شود”.
تعریف انصاف
انصاف مفهومی است که تعریف آن نسبتاً دشوار است. در واقع، این بحثی است که هرگز به اجماع نرسیده است. برای سختتر کردن کارها، هنگام توسعه سیستمهای هوش مصنوعی، مفهوم انصاف باید به صورت ریاضی تعریف شود.
به عنوان مثال، از نظر الگوریتم استخدام آمازون، آیا انصاف مانند تقسیم کامل 50/50 کارگران مرد به زن است؟ یا نسبت متفاوت؟
تعیین تابع
اولین قدم در توسعه هوش مصنوعی این است که دقیقاً تعیین کنید که چه چیزی قرار است به دست آورد. اگر از مثال COMPAS استفاده شود، الگوریتم احتمال ارتکاب مجدد مجرمان را پیشبینی میکند. سپس، ورودی های داده واضح باید تعیین شوند تا الگوریتم کار کند.
این ممکن است مستلزم تعریف متغیرهای مهمی مانند تعداد تخلفات قبلی یا نوع جرایم ارتکابی باشد. تعریف صحیح این متغیرها گامی دشوار اما مهم در حصول اطمینان از منصفانه بودن الگوریتم است.
ساخت مجموعه داده
همانطور که پوشش دادهایم، یکی از دلایل اصلی سوگیری هوش مصنوعی دادههای ناقص، غیرنماینده یا مغرضانه است. مانند مورد هوش مصنوعی تشخیص چهره، قبل از فرآیند یادگیری ماشینی، داده های ورودی باید به طور کامل از نظر سوگیری، مناسب بودن و کامل بودن بررسی شوند.
انتخاب ویژگی ها
در الگوریتم ها می توان ویژگی های خاصی را در نظر گرفت یا خیر. ویژگیها میتوانند شامل جنسیت، نژاد یا تحصیلات باشند – اساساً هر چیزی که ممکن است برای کار الگوریتم مهم باشد. بسته به اینکه کدام ویژگی انتخاب می شود، دقت پیش بینی و تعصب الگوریتم می تواند به شدت تحت تأثیر قرار گیرد. مشکل این است که اندازه گیری میزان سوگیری یک الگوریتم بسیار دشوار است.
تعصب هوش مصنوعی اینجا برای ماندن نیست
تعصب هوش مصنوعی زمانی اتفاق میافتد که الگوریتمها پیشبینیهای مغرضانه یا نادرست را به دلیل ورودیهای بایاس انجام میدهند. زمانی اتفاق می افتد که داده های مغرضانه یا ناقص در طول توسعه و آموزش الگوریتم منعکس یا تقویت شوند.
خبر خوب این است که با چند برابر شدن بودجه برای تحقیقات هوش مصنوعی، احتمالاً شاهد روشهای جدیدی برای کاهش و حتی حذف سوگیری هوش مصنوعی خواهیم بود.