خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

مقررات هوش مصنوعی چیست؟ چه کسی باید هوش مصنوعی را تنظیم کند؟

توسعه هوش مصنوعی به سرعت در حال پیشرفت است، اما چه کسی باید هوش مصنوعی و تأثیر آن بر جهان را هدایت کند؟

نکات کلیدی

  • هوش مصنوعی به نظارت دقیق‌تری نیاز دارد، زیرا آسیب‌پذیری‌های امنیت سایبری و نگرانی‌های مربوط به حریم خصوصی همچنان در حال ظهور هستند.
  • دولت، شرکت‌های فناوری و کاربران نهایی همگی نقشی در تنظیم هوش مصنوعی دارند، اما هر رویکرد محدودیت‌هایی دارد.
  • رسانه‌ها، سازمان‌های غیرانتفاعی، انجمن‌های صنعت فناوری، مؤسسات دانشگاهی و سازمان‌های مجری قانون نیز در تنظیم هوش مصنوعی مشارکت دارند.

عموم مردم دیدگاه‌های متفاوتی در مورد هوش مصنوعی دارند – برخی معتقدند ماشین‌ها به طور کلی جایگزین انسان‌ها خواهند شد، در حالی که برخی دیگر ادعا می‌کنند هوش مصنوعی یک مد است. با این حال، چیزی که همه بر آن توافق دارند این است که هوش مصنوعی به نظارت دقیق‌تری نیاز دارد.

علیرغم اهمیت مقررات هوش مصنوعی، آن را در جایگاه دوم آموزش قرار داده است. توسعه دهندگان آنقدر در ساختن بزرگترین مدل هوش مصنوعی وسواس دارند که امنیت سایبری را برای پیشرفت سریع معامله می کنند. سوال این نیست که آیا هوش مصنوعی به مقررات نیاز دارد یا خیر. این کدام نهاد حاکم با بودجه کافی، منابع انسانی و ظرفیت تکنولوژیکی ابتکار عمل را بر عهده خواهد گرفت.

بنابراین، چه کسی باید هوش مصنوعی را تنظیم کند؟

ارگان های دولتی

ساختمان نهاد دولتی سفید با پله های بلند

افراد مختلف، از مصرف کنندگان گرفته تا رهبران فناوری، امیدوارند دولت هوش مصنوعی را تنظیم کند. مؤسسات دارای بودجه عمومی منابع لازم برای انجام این کار را دارند. حتی ایلان ماسک و سام آلتمن، دو محرک اصلی مسابقه هوش مصنوعی، معتقدند که برخی از نگرانی‌های مربوط به حریم خصوصی در مورد هوش مصنوعی برای نهادهای حاکم خطرناک‌تر از آن هستند که نادیده گرفته شوند.

اگر دولت مقررات هوش مصنوعی را در دست بگیرد، باید بر حفظ حریم خصوصی و آزادی های مدنی رای دهندگان تمرکز کند. مجرمان سایبری به دنبال یافتن راه هایی برای بهره برداری از سیستم های هوش مصنوعی در طرح های خود هستند. افرادی که در هوش مصنوعی مهارت کافی ندارند ممکن است به راحتی فریب صداهای ترکیب شده، ویدیوهای دیپ فیک و پروفایل های آنلاین را بخورند.

با این حال، یکی از مشکلات مهم دولت در تنظیم هوش مصنوعی این است که ممکن است ناخواسته نوآوری را خفه کند. هوش مصنوعی یک فناوری پیچیده و در حال تکامل است. اگر مقامات ناظر بر استقرار، توسعه و دستورالعمل‌های آموزشی درک نکنند که هوش مصنوعی چگونه کار می‌کند، ممکن است قضاوت‌های زودهنگام و ناکارآمد انجام دهند.

مطلب مرتبط:   NPU چیست؟ چگونه مشخصات آن را مانند سایر سخت افزارهای رایانه شخصی مقایسه کنیم

توسعه دهندگان هوش مصنوعی، شرکت های فناوری، و آزمایشگاه ها

پژوهشگران زن و مرد در حال آموزش بازوی ربات سفید

با در نظر گرفتن موانع بالقوه ای که ممکن است از نظارت دولت بر هوش مصنوعی ایجاد شود، بسیاری ترجیح می دهند شرکت های فناوری پیشرو مقررات باشند. آنها بر این باورند که توسعه دهندگان باید در قبال فناوری هایی که منتشر می کنند، مسئول باشند. خود تنظیمی آنها را قادر می سازد تا نوآوری را به پیش ببرند و بر پیشرفت کارآمد این سیستم ها تمرکز کنند.

علاوه بر این، درک عمیق آن‌ها از هوش مصنوعی به آن‌ها کمک می‌کند تا دستورالعمل‌های آگاهانه و منصفانه‌ای را ارائه دهند که ایمنی کاربر را بدون به خطر انداختن عملکرد اولویت‌بندی می‌کند. مانند هر فناوری دیگری، تخصص صنعت نظارت را ساده می کند. انتصاب مقامات آموزش ندیده برای تنظیم فن آوری هایی که به سختی درک می کنند ممکن است مشکلاتی بیشتر از منافع ایجاد کند.

به عنوان مثال جلسه سنای ایالات متحده در سال 2018 در مورد قوانین حریم خصوصی داده فیس بوک را در نظر بگیرید. در این گزارش واشنگتن پست، خواهید دید که بسیاری از قانونگذاران با عملکردهای اساسی فیس بوک اشتباه گرفته اند. بنابراین، مگر اینکه سنای ایالات متحده یک بخش انحصاری متشکل از متخصصان فناوری ایجاد کند، آنها احتمالاً صلاحیت تنظیم چنین سیستم پیشرفته و همیشه در حال تغییری مانند هوش مصنوعی را ندارند.

با این حال، مشکل اصلی شرکت‌های فناوری که خودشان را تنظیم می‌کنند این است که ممکن است شرکت‌های مشکوک از قدرت خود سوء استفاده کنند. بدون هیچ شخص ثالثی، آنها اساساً آزادند هر کاری که می خواهند انجام دهند.

کاربران نهایی

استفاده از برنامه موبایل ChatGPT و قرار دادن آن در دست

برخی می ترسند که نهادهای دولتی و خصوصی از سیستم های هوش مصنوعی سوء استفاده کنند. آنها در مورد اعطای کنترل کامل بر چنین فناوری های قدرتمندی به تعدادی از نهادهای حاکم مطمئن نیستند، به خصوص که هوش مصنوعی هنوز در حال تکامل است. آنها ممکن است در نهایت بر سر قدرت بجنگند تا اینکه در جهت مقررات کارآمد تلاش کنند.

برای کاهش این خطرات، بدبینان معتقدند که کاربران نهایی سزاوار آزادی استفاده از مدل‌های هوش مصنوعی هستند. آنها می گویند که نهادهای دولتی تنها زمانی باید مداخله کنند که کاربران هوش مصنوعی قانون را زیر پا بگذارند. این یک هدف بلندپروازانه است، اما از نظر فنی می‌توان به آن دست یافت اگر توسعه‌دهندگان AI منبع باز بر سهم بازار تسلط پیدا کنند.

مطلب مرتبط:   چگونه موقعیت مکانی خود را در کروم، فایرفاکس و مایکروسافت اج مخفی یا جعلی کنیم

گفته می‌شود، این راه‌اندازی افراد غیرمسلط به فناوری را در مضیقه قرار می‌دهد. کاربران مسئول تنظیم محدودیت‌ها در سیستم‌های خود هستند – متأسفانه، همه منابع لازم برای انجام این کار را ندارند.

همچنین حذف مدل های اختصاصی از بازار کوته فکرانه است. گسترش مدل‌های AI منبع باز چندین تأثیر مثبت و منفی دارد. برای برخی، معایب بیشتر از جوانب مثبت است.

سایر نهادهایی که در تنظیم AI نقش دارند

اگرچه نهادهای اصلی تنظیم کننده هوش مصنوعی هستند، اما نهادهایی وجود دارند که نقش مهمی ایفا می کنند:

1. رسانه ها

مصاحبه کننده خبرنگار اخبار رسانه ها

رسانه ها نقش مهمی در شکل دادن به درک عمومی از هوش مصنوعی دارند. آنها پیشرفت‌های صنعت را گزارش می‌کنند، ابزارهای جدید را به اشتراک می‌گذارند، استفاده‌های مضر هوش مصنوعی را آگاه می‌کنند و با کارشناسان درباره نگرانی‌های مرتبط مصاحبه می‌کنند.

بیشتر حقایقی که کاربران نهایی درباره هوش مصنوعی می‌دانند، اساساً از رسانه‌ها می‌آیند. انتشار داده‌های نادرست، چه عمدی یا غیر عمدی، آسیب‌های جبران‌ناپذیری به بار می‌آورد—شما نمی‌توانید سرعت انتشار اطلاعات نادرست را دست کم بگیرید.

2. سازمان های غیر دولتی

چندین سازمان غیرانتفاعی حول حفاظت از حریم خصوصی و آزادی های مدنی کاربران هوش مصنوعی متمرکز شده اند. آنها از طریق منابع رایگان به مردم آموزش می‌دهند، از سیاست‌های جدید حمایت می‌کنند، با مقامات دولتی همکاری می‌کنند و نگرانی‌های نادیده گرفته شده را بیان می‌کنند.

تنها مشکل NPO ها این است که آنها معمولاً منابع کمی دارند. از آنجایی که آنها به دولت متصل نیستند، برای عملیات روزانه به درخواست‌های خصوصی و کمک‌های مالی متکی هستند. متأسفانه، تنها تعداد کمی از سازمان ها بودجه کافی دریافت می کنند.

3. انجمن های صنعت فناوری

انجمن های صنعت فناوری متمرکز بر هوش مصنوعی می توانند حقوق و منافع عمومی را نمایندگی کنند. مانند سازمان های غیر دولتی، آنها با قانون گذاران کار می کنند، از افراد مرتبط نمایندگی می کنند، از سیاست های منصفانه دفاع می کنند و به مسائل خاص آگاهی می دهند.

اما تفاوت این است که آنها اغلب با شرکت های خصوصی ارتباط دارند. اعضای آن‌ها هنوز درخواست‌ها را انجام می‌دهند، اما معمولاً تا زمانی که نتایج را ارائه کنند، بودجه کافی از سازمان‌های مادر خود دریافت می‌کنند.

مطلب مرتبط:   این برنامه افزودنی Chrome درخواست ChatGPT را آسان می کند

4. مؤسسات دانشگاهی

کلاس درس بزرگ دانشگاه مدرسه با میز و صندلی قهوه ای

اگرچه هوش مصنوعی با خطرات متعددی همراه است، اما ذاتاً خنثی است. همه سوگیری‌ها، مسائل مربوط به حریم خصوصی، خطاهای امنیتی و فعالیت‌های بالقوه جرایم سایبری از انسان‌ها سرچشمه می‌گیرند، بنابراین هوش مصنوعی به خودی خود چیزی برای ترس نیست.

اما تعداد کمی از آنها قبلاً می دانند که مدل های مدرن هوش مصنوعی چگونه کار می کنند. تصورات نادرست درک مردم از هوش مصنوعی را منحرف می‌کند و ترس‌های بی‌پایه‌ای مانند تسلط هوش مصنوعی بر بشریت یا دزدی مشاغل را تداوم می‌بخشد.

مؤسسات دانشگاهی می توانند این خلأهای آموزشی را از طریق منابع در دسترس پر کنند. هنوز آثار علمی زیادی روی سیستم‌های LLM و NLP مدرن وجود ندارد. اگر مردم به طور کامل از نحوه عملکرد آن آگاه باشند، می‌توانند مسئولانه‌تر از هوش مصنوعی استفاده کنند و با جرایم سایبری مبارزه کنند.

5. نهادهای مجری قانون

سازمان‌های مجری قانون باید انتظار داشته باشند که با حملات سایبری مجهز به هوش مصنوعی بیشتری مواجه شوند. با گسترش مدل های مولد، کلاهبرداران می توانند به سرعت صداها را ترکیب کنند، تصاویر عمیق جعلی تولید کنند، اطلاعات شناسایی شخصی (PII) را خراش دهند و حتی شخصیت های کاملاً جدیدی ایجاد کنند.

اکثر آژانس ها برای رسیدگی به این جرایم مجهز نیستند. آنها باید در سیستم های جدید سرمایه گذاری کنند و افسران خود را در مورد جرایم سایبری مدرن آموزش دهند. در غیر این صورت، آنها برای گرفتن این کلاهبرداران مشکل خواهند داشت.

مقررات آینده هوش مصنوعی

با توجه به ماهیت سریع هوش مصنوعی، بعید است که یک نهاد حاکم آن را کنترل کند. بله، رهبران فناوری قدرت بیشتری نسبت به مصرف کنندگان خواهند داشت، اما نهادهای مختلف باید برای مدیریت خطرات هوش مصنوعی بدون مانع از پیشرفت همکاری کنند. در حالی که هوش عمومی مصنوعی (AGI) هنوز یک هدف دور است، بهتر است اقدامات کنترلی را اکنون تنظیم کنید.

گفته می شود، مقررات AI به همان اندازه AGI دور است. در این میان، کاربران باید اقدامات ایمنی را برای مبارزه با تهدیدات مبتنی بر هوش مصنوعی رعایت کنند. عادات خوبی مانند محدود کردن افرادی که به صورت آنلاین با آنها ارتباط برقرار می کنید و ایمن کردن PII دیجیتالی خود در حال حاضر راه زیادی را در پیش گرفته اند.