خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

چرا ایلان ماسک می خواهد توسعه هوش مصنوعی را متوقف کند؟

آیا هوش مصنوعی به نفع ما خیلی سریع حرکت می کند؟

جدیدترین نوآوری‌ها در زمینه فناوری مبتنی بر هوش مصنوعی، مرزهای آنچه را که زمانی فکر می‌کردیم با هوش مصنوعی امکان‌پذیر است را جابجا می‌کند. با این حال، با توجه به اینکه چت ربات‌هایی مانند ChatGPT و Bing Chat در چندین کار تقریباً به خوبی انسان‌ها عمل می‌کنند، آیا زمان آن رسیده است که برای مدتی ترمز کنید؟

ایلان ماسک و چندین محقق هوش مصنوعی از جمله 1188 نفری هستند که (در زمان نگارش مقاله) چنین فکر می کنند. نامه‌ای که توسط موسسه غیرانتفاعی Future of Life منتشر شده است، خواستار توقف شش ماهه آموزش فناوری‌های هوش مصنوعی بهتر از GPT 4 شده است، اما آیا واقعاً مکث لازم است؟

نامه سرگشاده آینده زندگی چیست؟

نامه منتشر شده توسط مؤسسه Future of Life اشاره می‌کند که آزمایشگاه‌های هوش مصنوعی برای توسعه و استقرار هر چه بیشتر مدل‌های هوش مصنوعی که هیچ‌کس، از جمله سازندگان آن‌ها، نمی‌توانند آن‌ها را بفهمند، پیش‌بینی کنند، «در یک مسابقه خارج از کنترل قفل شده‌اند». ، یا به طور قابل اعتماد کنترل کنید”.

همچنین اشاره می‌کند که سیستم‌های هوش مصنوعی معاصر اکنون در حال تبدیل شدن به رقابت برای انسان در وظایف عمومی هستند و می‌پرسد که آیا باید “ذهن غیرانسانی را توسعه دهیم که ممکن است در نهایت از تعداد، پیشی گرفته، منسوخ شده و جایگزین ما شود”.

این نامه در نهایت از همه آزمایشگاه‌های هوش مصنوعی می‌خواهد که بلافاصله آموزش سیستم‌های هوش مصنوعی قدرتمندتر از GPT-4 را برای حداقل شش ماه متوقف کنند. مکث باید عمومی و قابل تأیید در همه بازیگران کلیدی نیز باشد. همچنین بیان می‌کند که اگر چنین مکثی نمی‌تواند به سرعت اجرا شود، دولت‌ها باید برای ممنوع کردن موقت آموزش مدل‌های هوش مصنوعی وارد عمل شوند.

مطلب مرتبط:   3 دلیل برای اینکه چگونه ChatGPT به سریع ترین برنامه در حال رشد در تمام دوران تبدیل شد

هنگامی که مکث فعال شد، از آزمایشگاه‌های هوش مصنوعی و کارشناسان مستقل خواسته می‌شود تا از آن برای توسعه و پیاده‌سازی مشترک «مجموعه‌ای از پروتکل‌های امنیتی مشترک» استفاده کنند تا اطمینان حاصل شود که سیستم‌هایی که به این قوانین پایبند هستند، «فراتر از شک منطقی ایمن هستند».

اسکرین شات امضا کنندگان نامه Future of Life را نشان می دهد که درخواست توقف توسعه هوش مصنوعی را دارند.

این نامه توسط افراد زیادی از جمله ایلان ماسک، استیو وزنیاک و محققان و نویسندگان هوش مصنوعی امضا شده است. در واقع، لیست امضاکنندگان به دلیل تقاضای زیاد در حال حاضر متوقف شده است.

نگرانی ماسک با فناوری هوش مصنوعی پیشرفته و OpenAI چیست؟

در حالی که امضای نامه Future of Life ممکن است نشان دهنده این باشد که ماسک در مورد خطرات ایمنی چنین سیستم های پیشرفته هوش مصنوعی نگران است، دلیل واقعی ممکن است چیز دیگری باشد.

ماسک در سال 2015 به‌عنوان یک سازمان غیرانتفاعی OpenAI را با مدیر عامل فعلی سام آلتمن تأسیس کرد. با این حال، او بعداً در سال 2018 پس از اینکه متوجه شد از پیشرفت شرکت راضی نیست، با آلتمن مخالفت کرد. گزارش شده است که ماسک می خواست برای سرعت بخشیدن به توسعه، مسئولیت را بر عهده بگیرد، اما آلتمن و هیئت مدیره OpenAI این ایده را کنار گذاشتند.

ماسک مدت کوتاهی بعد از OpenAI کنار رفت و پول خود را با خود برد و قول خود را مبنی بر کمک 1 میلیاردی کمک مالی کرد و فقط 100 میلیون قبل از ترک آن پرداخت. این امر باعث شد که OpenAI کمی بعد در مارس 2019 به یک شرکت خصوصی تبدیل شود تا برای ادامه تحقیقات خود بودجه جمع آوری کند.

مطلب مرتبط:   توضیح اتصال تلفن هوشمند، نحوه خرید صفحه کلید مکانیکی و دیجیتالی کردن فیلم های خانگی قدیمی 8 میلی متری

ایلان ماسک در کنفرانس

دلیل دیگری که ماسک را ترک کرد این بود که توسعه هوش مصنوعی در تسلا باعث تضاد منافع در آینده خواهد شد. واضح است که تسلا به سیستم‌های هوش مصنوعی پیشرفته نیاز دارد تا ویژگی‌های خودران کامل خود را تقویت کند. از زمانی که ماسک OpenAI را ترک کرد، این شرکت با مدل‌های هوش مصنوعی خود فرار کرد و ChatGPT مجهز به GPT3.5 را در سال 2022 راه‌اندازی کرد و بعداً GPT-4 را در مارس 2023 دنبال کرد.

این واقعیت که تیم هوش مصنوعی ماسک به هیچ وجه به OpenAI نزدیک نیست، باید هر بار که او می‌گوید مدل‌های هوش مصنوعی مدرن می‌توانند خطراتی را ایجاد کنند، مورد بررسی قرار گیرد. او همچنین در راه اندازی نسخه بتای خودران کامل تسلا در جاده های عمومی هیچ مشکلی نداشت و اساساً رانندگان معمولی تسلا را به آزمایش کننده های بتا تبدیل کرد.

این هم به اینجا ختم نمی شود. ماسک همچنین نسبتاً از OpenAI در توییتر انتقاد کرده است و آلتمن تا آنجا پیش رفت که گفت که او در حالی که اخیراً در پادکست “On with Kara Swisher” ظاهر می شود به آنها حمله می کند.

در حال حاضر، به نظر می رسد که ماسک فقط از نامه آینده زندگی استفاده می کند تا توسعه در OpenAI و هر شرکت دیگری را که به GPT-4 برسد را متوقف کند تا به شرکت های خود فرصتی دهد تا به جای نگرانی در مورد خطرات احتمالی این موضوع، فرصتی برای عقب نشینی داشته باشند. ژست مدل های هوش مصنوعی توجه داشته باشید که این نامه همچنین خواستار توقف “آموزش” سیستم های هوش مصنوعی به مدت شش ماه است که می توان نسبتاً به راحتی از کنار گذاشتن آن برای ادامه توسعه آنها در این مدت گذشت.

مطلب مرتبط:   چرا من نگران ظهور هوش مصنوعی مولد در بازی هستم؟

آیا واقعاً یک مکث لازم است؟

ضرورت توقف به وضعیت مدل‌های هوش مصنوعی در آینده بستگی دارد. این نامه قطعاً لحن کمی دراماتیک دارد و ما خطر از دست دادن کنترل تمدن خود را به هوش مصنوعی نداریم، همانطور که آشکارا بیان می کند. با این حال، فناوری‌های هوش مصنوعی چند تهدید ایجاد می‌کنند.

با توجه به اینکه OpenAI و سایر آزمایشگاه‌های هوش مصنوعی می‌توانند بررسی‌های ایمنی بهتری را ارائه دهند، مکث بیشتر از اینکه فایده داشته باشد، ضرر دارد. با این حال، پیشنهاد نامه در مورد مجموعه ای از پروتکل های ایمنی مشترک که “به شدت توسط کارشناسان مستقل خارجی بررسی و نظارت می شوند” ایده خوبی به نظر می رسد.

با توجه به اینکه غول‌های فناوری مانند گوگل و مایکروسافت میلیاردها دلار برای توسعه و ادغام هوش مصنوعی در محصولات خود سرمایه‌گذاری می‌کنند، بعید است که این نامه بر سرعت فعلی توسعه هوش مصنوعی تأثیر بگذارد.

هوش مصنوعی اینجاست تا بماند

با توجه به اینکه غول‌های فناوری ادغام هوش مصنوعی در محصولات خود را بیشتر می‌کنند و میلیاردها دلار برای تحقیق و توسعه سرمایه‌گذاری می‌کنند، هوش مصنوعی بدون توجه به آنچه مخالفان می‌گویند، اینجاست.

اما این ایده بدی نیست که اقدامات ایمنی را برای جلوگیری از خارج شدن این فناوری ها از ریل و تبدیل شدن بالقوه به ابزارهایی برای آسیب، اجرا کنید.