توسعه هوش مصنوعی به سرعت در حال پیشرفت است، اما چه کسی باید هوش مصنوعی و تأثیر آن بر جهان را هدایت کند؟
نکات کلیدی
- هوش مصنوعی به نظارت دقیقتری نیاز دارد، زیرا آسیبپذیریهای امنیت سایبری و نگرانیهای مربوط به حریم خصوصی همچنان در حال ظهور هستند.
- دولت، شرکتهای فناوری و کاربران نهایی همگی نقشی در تنظیم هوش مصنوعی دارند، اما هر رویکرد محدودیتهایی دارد.
- رسانهها، سازمانهای غیرانتفاعی، انجمنهای صنعت فناوری، مؤسسات دانشگاهی و سازمانهای مجری قانون نیز در تنظیم هوش مصنوعی مشارکت دارند.
عموم مردم دیدگاههای متفاوتی در مورد هوش مصنوعی دارند – برخی معتقدند ماشینها به طور کلی جایگزین انسانها خواهند شد، در حالی که برخی دیگر ادعا میکنند هوش مصنوعی یک مد است. با این حال، چیزی که همه بر آن توافق دارند این است که هوش مصنوعی به نظارت دقیقتری نیاز دارد.
علیرغم اهمیت مقررات هوش مصنوعی، آن را در جایگاه دوم آموزش قرار داده است. توسعه دهندگان آنقدر در ساختن بزرگترین مدل هوش مصنوعی وسواس دارند که امنیت سایبری را برای پیشرفت سریع معامله می کنند. سوال این نیست که آیا هوش مصنوعی به مقررات نیاز دارد یا خیر. این کدام نهاد حاکم با بودجه کافی، منابع انسانی و ظرفیت تکنولوژیکی ابتکار عمل را بر عهده خواهد گرفت.
بنابراین، چه کسی باید هوش مصنوعی را تنظیم کند؟
ارگان های دولتی
افراد مختلف، از مصرف کنندگان گرفته تا رهبران فناوری، امیدوارند دولت هوش مصنوعی را تنظیم کند. مؤسسات دارای بودجه عمومی منابع لازم برای انجام این کار را دارند. حتی ایلان ماسک و سام آلتمن، دو محرک اصلی مسابقه هوش مصنوعی، معتقدند که برخی از نگرانیهای مربوط به حریم خصوصی در مورد هوش مصنوعی برای نهادهای حاکم خطرناکتر از آن هستند که نادیده گرفته شوند.
اگر دولت مقررات هوش مصنوعی را در دست بگیرد، باید بر حفظ حریم خصوصی و آزادی های مدنی رای دهندگان تمرکز کند. مجرمان سایبری به دنبال یافتن راه هایی برای بهره برداری از سیستم های هوش مصنوعی در طرح های خود هستند. افرادی که در هوش مصنوعی مهارت کافی ندارند ممکن است به راحتی فریب صداهای ترکیب شده، ویدیوهای دیپ فیک و پروفایل های آنلاین را بخورند.
با این حال، یکی از مشکلات مهم دولت در تنظیم هوش مصنوعی این است که ممکن است ناخواسته نوآوری را خفه کند. هوش مصنوعی یک فناوری پیچیده و در حال تکامل است. اگر مقامات ناظر بر استقرار، توسعه و دستورالعملهای آموزشی درک نکنند که هوش مصنوعی چگونه کار میکند، ممکن است قضاوتهای زودهنگام و ناکارآمد انجام دهند.
توسعه دهندگان هوش مصنوعی، شرکت های فناوری، و آزمایشگاه ها
با در نظر گرفتن موانع بالقوه ای که ممکن است از نظارت دولت بر هوش مصنوعی ایجاد شود، بسیاری ترجیح می دهند شرکت های فناوری پیشرو مقررات باشند. آنها بر این باورند که توسعه دهندگان باید در قبال فناوری هایی که منتشر می کنند، مسئول باشند. خود تنظیمی آنها را قادر می سازد تا نوآوری را به پیش ببرند و بر پیشرفت کارآمد این سیستم ها تمرکز کنند.
علاوه بر این، درک عمیق آنها از هوش مصنوعی به آنها کمک میکند تا دستورالعملهای آگاهانه و منصفانهای را ارائه دهند که ایمنی کاربر را بدون به خطر انداختن عملکرد اولویتبندی میکند. مانند هر فناوری دیگری، تخصص صنعت نظارت را ساده می کند. انتصاب مقامات آموزش ندیده برای تنظیم فن آوری هایی که به سختی درک می کنند ممکن است مشکلاتی بیشتر از منافع ایجاد کند.
به عنوان مثال جلسه سنای ایالات متحده در سال 2018 در مورد قوانین حریم خصوصی داده فیس بوک را در نظر بگیرید. در این گزارش واشنگتن پست، خواهید دید که بسیاری از قانونگذاران با عملکردهای اساسی فیس بوک اشتباه گرفته اند. بنابراین، مگر اینکه سنای ایالات متحده یک بخش انحصاری متشکل از متخصصان فناوری ایجاد کند، آنها احتمالاً صلاحیت تنظیم چنین سیستم پیشرفته و همیشه در حال تغییری مانند هوش مصنوعی را ندارند.
با این حال، مشکل اصلی شرکتهای فناوری که خودشان را تنظیم میکنند این است که ممکن است شرکتهای مشکوک از قدرت خود سوء استفاده کنند. بدون هیچ شخص ثالثی، آنها اساساً آزادند هر کاری که می خواهند انجام دهند.
کاربران نهایی
برخی می ترسند که نهادهای دولتی و خصوصی از سیستم های هوش مصنوعی سوء استفاده کنند. آنها در مورد اعطای کنترل کامل بر چنین فناوری های قدرتمندی به تعدادی از نهادهای حاکم مطمئن نیستند، به خصوص که هوش مصنوعی هنوز در حال تکامل است. آنها ممکن است در نهایت بر سر قدرت بجنگند تا اینکه در جهت مقررات کارآمد تلاش کنند.
برای کاهش این خطرات، بدبینان معتقدند که کاربران نهایی سزاوار آزادی استفاده از مدلهای هوش مصنوعی هستند. آنها می گویند که نهادهای دولتی تنها زمانی باید مداخله کنند که کاربران هوش مصنوعی قانون را زیر پا بگذارند. این یک هدف بلندپروازانه است، اما از نظر فنی میتوان به آن دست یافت اگر توسعهدهندگان AI منبع باز بر سهم بازار تسلط پیدا کنند.
گفته میشود، این راهاندازی افراد غیرمسلط به فناوری را در مضیقه قرار میدهد. کاربران مسئول تنظیم محدودیتها در سیستمهای خود هستند – متأسفانه، همه منابع لازم برای انجام این کار را ندارند.
همچنین حذف مدل های اختصاصی از بازار کوته فکرانه است. گسترش مدلهای AI منبع باز چندین تأثیر مثبت و منفی دارد. برای برخی، معایب بیشتر از جوانب مثبت است.
سایر نهادهایی که در تنظیم AI نقش دارند
اگرچه نهادهای اصلی تنظیم کننده هوش مصنوعی هستند، اما نهادهایی وجود دارند که نقش مهمی ایفا می کنند:
1. رسانه ها
رسانه ها نقش مهمی در شکل دادن به درک عمومی از هوش مصنوعی دارند. آنها پیشرفتهای صنعت را گزارش میکنند، ابزارهای جدید را به اشتراک میگذارند، استفادههای مضر هوش مصنوعی را آگاه میکنند و با کارشناسان درباره نگرانیهای مرتبط مصاحبه میکنند.
بیشتر حقایقی که کاربران نهایی درباره هوش مصنوعی میدانند، اساساً از رسانهها میآیند. انتشار دادههای نادرست، چه عمدی یا غیر عمدی، آسیبهای جبرانناپذیری به بار میآورد—شما نمیتوانید سرعت انتشار اطلاعات نادرست را دست کم بگیرید.
2. سازمان های غیر دولتی
چندین سازمان غیرانتفاعی حول حفاظت از حریم خصوصی و آزادی های مدنی کاربران هوش مصنوعی متمرکز شده اند. آنها از طریق منابع رایگان به مردم آموزش میدهند، از سیاستهای جدید حمایت میکنند، با مقامات دولتی همکاری میکنند و نگرانیهای نادیده گرفته شده را بیان میکنند.
تنها مشکل NPO ها این است که آنها معمولاً منابع کمی دارند. از آنجایی که آنها به دولت متصل نیستند، برای عملیات روزانه به درخواستهای خصوصی و کمکهای مالی متکی هستند. متأسفانه، تنها تعداد کمی از سازمان ها بودجه کافی دریافت می کنند.
3. انجمن های صنعت فناوری
انجمن های صنعت فناوری متمرکز بر هوش مصنوعی می توانند حقوق و منافع عمومی را نمایندگی کنند. مانند سازمان های غیر دولتی، آنها با قانون گذاران کار می کنند، از افراد مرتبط نمایندگی می کنند، از سیاست های منصفانه دفاع می کنند و به مسائل خاص آگاهی می دهند.
اما تفاوت این است که آنها اغلب با شرکت های خصوصی ارتباط دارند. اعضای آنها هنوز درخواستها را انجام میدهند، اما معمولاً تا زمانی که نتایج را ارائه کنند، بودجه کافی از سازمانهای مادر خود دریافت میکنند.
4. مؤسسات دانشگاهی
اگرچه هوش مصنوعی با خطرات متعددی همراه است، اما ذاتاً خنثی است. همه سوگیریها، مسائل مربوط به حریم خصوصی، خطاهای امنیتی و فعالیتهای بالقوه جرایم سایبری از انسانها سرچشمه میگیرند، بنابراین هوش مصنوعی به خودی خود چیزی برای ترس نیست.
اما تعداد کمی از آنها قبلاً می دانند که مدل های مدرن هوش مصنوعی چگونه کار می کنند. تصورات نادرست درک مردم از هوش مصنوعی را منحرف میکند و ترسهای بیپایهای مانند تسلط هوش مصنوعی بر بشریت یا دزدی مشاغل را تداوم میبخشد.
مؤسسات دانشگاهی می توانند این خلأهای آموزشی را از طریق منابع در دسترس پر کنند. هنوز آثار علمی زیادی روی سیستمهای LLM و NLP مدرن وجود ندارد. اگر مردم به طور کامل از نحوه عملکرد آن آگاه باشند، میتوانند مسئولانهتر از هوش مصنوعی استفاده کنند و با جرایم سایبری مبارزه کنند.
5. نهادهای مجری قانون
سازمانهای مجری قانون باید انتظار داشته باشند که با حملات سایبری مجهز به هوش مصنوعی بیشتری مواجه شوند. با گسترش مدل های مولد، کلاهبرداران می توانند به سرعت صداها را ترکیب کنند، تصاویر عمیق جعلی تولید کنند، اطلاعات شناسایی شخصی (PII) را خراش دهند و حتی شخصیت های کاملاً جدیدی ایجاد کنند.
اکثر آژانس ها برای رسیدگی به این جرایم مجهز نیستند. آنها باید در سیستم های جدید سرمایه گذاری کنند و افسران خود را در مورد جرایم سایبری مدرن آموزش دهند. در غیر این صورت، آنها برای گرفتن این کلاهبرداران مشکل خواهند داشت.
مقررات آینده هوش مصنوعی
با توجه به ماهیت سریع هوش مصنوعی، بعید است که یک نهاد حاکم آن را کنترل کند. بله، رهبران فناوری قدرت بیشتری نسبت به مصرف کنندگان خواهند داشت، اما نهادهای مختلف باید برای مدیریت خطرات هوش مصنوعی بدون مانع از پیشرفت همکاری کنند. در حالی که هوش عمومی مصنوعی (AGI) هنوز یک هدف دور است، بهتر است اقدامات کنترلی را اکنون تنظیم کنید.
گفته می شود، مقررات AI به همان اندازه AGI دور است. در این میان، کاربران باید اقدامات ایمنی را برای مبارزه با تهدیدات مبتنی بر هوش مصنوعی رعایت کنند. عادات خوبی مانند محدود کردن افرادی که به صورت آنلاین با آنها ارتباط برقرار می کنید و ایمن کردن PII دیجیتالی خود در حال حاضر راه زیادی را در پیش گرفته اند.