خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

این مدل های هوش مصنوعی می توانند خود را تکرار کنند و این به هیچ وجه وحشتناک نیست

اخیراً ، صلاحیت های اصلی پیرامون هوش مصنوعی مربوط به میزان انرژی مورد نیاز مراکز داده خود است. اما یک ترس قدیمی در پس زمینه کمین می کند: آیا AI هرگز سرکش خواهد شد؟ تحقیقات جدید نشان می دهد که برخی از مدل های بزرگ زبان (LLM) توانایی اقدامات خودمختار را دارند.

اخیراً ، صلاحیت های اصلی پیرامون هوش مصنوعی مربوط به میزان انرژی مورد نیاز مراکز داده خود است. اما یک ترس قدیمی در پس زمینه کمین می کند: آیا AI هرگز سرکش خواهد شد؟ تحقیقات جدید نشان می دهد که برخی از مدل های بزرگ زبان (LLM) توانایی اقدامات خودمختار را دارند.

تحقیقات جدید نشان می دهد که هوش مصنوعی می تواند خود را تکرار کند

طبق تحقیقات دانشگاه فودان چین ، برخی از مدل های محبوب LLM قادر به تکرار خود هستند یا نسخه های دیگری از خود را تولید می کنند. محققان دریافتند که مدل های هوش مصنوعی از متا و علی بابا از “خط قرمز خود تکرار می شوند” به Arxiv منتشر شد. به عبارت دیگر ، مدل ها با توجه به تکثیر خود ، میزان موفقیت بسیار بالایی را نشان دادند.

ARXIV یک پایگاه داده preprint است ، به این معنی که میزبان تحقیقات علمی است که هنوز به شکل اولیه آن است. یافته هایی مانند این هنوز هم باید مورد بررسی قرار گیرد و باید با یک دانه نمک گرفته شود.

به خاطر وضوح ، در اینجا دو مدل آزمایش شده در این تحقیق وجود دارد:

  • مدافع LLAMA31-70B
  • qwen25-72b-intruction

تصویر وب سایت چت Qwen

محققان خاطرنشان می کنند که این مدل ها در مقایسه با مدل های پرچمدار OpenAI و Google “پارامترهای کمتری و قابلیت های ضعیف تر” دارند. براساس این انتشار ، OpenAI و Google برای آنچه که ارزش آن را دارد ، سطح کم خطر تکثیر خود را گزارش کرده اند.

مطلب مرتبط:   LockBit ادعا می‌کند که حمله باج‌افزار را واگذار می‌کند

چرا مهم است که آیا AI می تواند تولید مثل کند

یک کلون مدل AI بدون شک تصویری ترسناک است ، اما واقعاً به چه معنی است؟ تیم تحقیقاتی در پشت این یافته های اخیر اینگونه را بیان کردند:

“تکثیر موفقیت آمیز تحت هیچ کمک انسانی ، گام اساسی برای هوش مصنوعی برای پیشی گرفتن از انسانها نیست ، و یک سیگنال اولیه برای AIS سرکش است. به همین دلیل است که خود تکثیر به عنوان یکی از معدود خطرات خط قرمز AI شناخته می شود سیستم ها. “

اصطلاح “AI Frontier” به طور معمول به پیشرفته ترین مدلهای هوش مصنوعی مانند AI مولد اشاره دارد.

در اصل ، اگر یک مدل AI می تواند بفهمد چگونه می توان یک کپی عملکردی از خود را برای جلوگیری از خاموش کردن ساخت ، این کنترل را از دست انسان خارج کند. برای کاهش این خطر از “جمعیت کنترل نشده AIS” ، این تحقیق نشان می دهد که پارامترهای ایمنی در اطراف این سیستم ها – تا آنجا که ممکن است.

در حالی که این نشریه مطمئناً نگرانی های مربوط به Rogue AI را تقویت می کند ، این بدان معنی نیست که یک خطر فوری و تأیید شده برای کاربر AI روزمره وجود دارد. آنچه ما می دانیم این است که طبق گزارش ها ، Gemini و Chatgpt دارای سطح کمتری از خطر خود تکثیر هستند ، در مقایسه با مدل Llama Meta و مدل های قدرتمند Qwen Alibaba. به عنوان یک قاعده کلی ، احتمالاً بهتر است از دادن دستیار هوش مصنوعی خود به تمام اسرار کثیف خود یا دسترسی کامل به قاب اصلی خودداری کنید ، تا زمانی که نتوانیم محافظ بیشتری را معرفی کنیم.

مطلب مرتبط:   شارژ بی سیم EV: چیست و چگونه کار می کند؟