خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

5 چت ربات‌های هوش مصنوعی زمان خنده‌دار وحشی شدند و دچار توهم شدند

بیشتر اوقات، ربات‌های چت هوش مصنوعی مانند ناجیان ما هستند – به ما کمک می‌کنند تا پیام‌ها را پیش‌نویس کنیم، مقاله‌ها را اصلاح کنیم، یا به تحقیقات وحشتناک خود رسیدگی کنیم. با این حال، این نوآوری‌های ناقص با برانگیختن برخی از پاسخ‌های واقعاً گیج‌کننده، باعث خنده‌داری کامل شده‌اند.

خلاصه عناوین

  • وقتی مرورهای اجمالی هوش مصنوعی گوگل ما را تشویق کرد که روی پیتزا چسب بزنیم (و بیشتر)
  • ChatGPT شرمساری یک وکیل در دادگاه
  • وقتی که BlenderBot 3 به طرز وحشیانه ای صادقانه زاکربرگ را برشته کرد
  • بحران رمانتیک مایکروسافت بینگ چت
  • شروع راکی ​​گوگل بارد با حقایق فضایی

بیشتر اوقات، ربات‌های چت هوش مصنوعی مانند ناجیان ما هستند – به ما کمک می‌کنند تا پیام‌ها را پیش‌نویس کنیم، مقاله‌ها را اصلاح کنیم، یا به تحقیقات وحشتناک خود رسیدگی کنیم. با این حال، این نوآوری‌های ناقص با برانگیختن برخی از پاسخ‌های واقعاً گیج‌کننده، باعث خنده‌داری کامل شده‌اند.

1

وقتی مرورهای اجمالی هوش مصنوعی گوگل ما را تشویق کرد که روی پیتزا چسب بزنیم (و بیشتر)

مدت زیادی پس از راه اندازی ویژگی نمای کلی هوش مصنوعی گوگل در سال 2024، شروع به ارائه برخی پیشنهادات عجیب و غریب کرد. از جمله توصیه‌هایی که ارائه کرد این بود که به پیتزای خود چسب غیر سمی اضافه کنید.

بله درست خواندید چسب. روی پیتزا

این نکته خاص باعث سروصدا در شبکه های اجتماعی شد. میم ها و اسکرین شات های وحشی شروع به پخش شدن کردند و ما شروع به تعجب کردیم که آیا هوش مصنوعی واقعاً می تواند جایگزین موتورهای جستجوی سنتی شود.

اما Gemini تمام نشد. در مرورهای مختلف، خوردن یک سنگ در روز، اضافه کردن بنزین به ظرف اسپاگتی تند و استفاده از دلار برای اندازه‌گیری وزن توصیه می‌شود.

جمینی بدون درک کامل زمینه، طنز یا، صادقانه بگویم، سلیقه خوب، داده‌ها را از همه گوشه‌های وب بیرون می‌کشید. این مطالعه‌های مبهم و شوخی‌های صریح را با هم ترکیب می‌کرد و سطحی از اعتقاد را به آنها نشان می‌داد که هر متخصص انسانی را سرخ می‌کرد.

از آن زمان، گوگل به‌روزرسانی‌های متعددی را ارائه کرده است، اگرچه هنوز چند ویژگی وجود دارد که می‌تواند مرورهای هوش مصنوعی را بیشتر بهبود بخشد. در حالی که پیشنهادات پوچ تا حد زیادی کاهش یافته است، گام های اشتباه قبلی به عنوان یادآوری پایدار است که هوش مصنوعی همچنان به نظارت انسانی نیاز دارد.

2

ChatGPT شرمساری یک وکیل در دادگاه

اتکای کامل یک وکیل به ChatGPT منجر به یک درس غیرمنتظره و بسیار عمومی شد که چرا نباید صرفاً به محتوای تولید شده توسط هوش مصنوعی تکیه کنید.

استیون شوارتز، وکیل دادگستری، هنگام آماده شدن برای یک پرونده، از ربات چت برای تحقیق در مورد سوابق قانونی استفاده کرد. ChatGPT با شش مرجع مورد ساختگی، با نام‌ها، تاریخ‌ها و نقل‌قول‌های واقعی پاسخ داد. شوارتز با اطمینان از صحت اطمینان ChatGPT، ارجاعات ساختگی را به دادگاه ارسال کرد.

این خطا به سرعت آشکار شد، و طبق گزارش Document Cloud، دادگاه شوارتز را به دلیل تکیه بر “منبعی که خود را غیرقابل اعتماد نشان داده بود” سرزنش کرد. در پاسخ، وکیل قول داد که دیگر هرگز این کار را انجام ندهد – حداقل بدون تأیید اطلاعات.

همچنین دوستانی را دیده‌ام که مقالاتی را با مطالعات ذکر شده ارائه کرده‌اند که کاملاً ساختگی هستند، زیرا باور این که ChatGPT نمی‌تواند دروغ بگوید بسیار آسان است – به‌ویژه زمانی که نقل‌قول‌ها و پیوندهای صیقلی ارائه می‌دهد. با این حال، در حالی که ابزارهایی مانند ChatGPT می‌توانند مفید باشند، اما همچنان نیازمند بررسی جدی واقعیت هستند، به‌ویژه در حرفه‌هایی که دقت آن غیرقابل مذاکره است.

3

وقتی که BlenderBot 3 به طرز وحشیانه ای صادقانه زاکربرگ را برشته کرد

در یک حرکت طعنه آمیز، BlenderBot 3 متا به دلیل انتقاد از خالق آن، مارک زاکربرگ، بدنام شد. BlenderBot 3 سخنان خود را زیر پا نگذاشت و زاکربرگ را متهم کرد که همیشه از شیوه‌های تجاری اخلاقی پیروی نمی‌کند و طعم بد مد دارد.

سارا جکسون از Business Insider نیز این ربات چت را با پرسیدن نظرات آن در مورد زاکربرگ، که به عنوان ترسناک و دستکاری توصیف شده بود، آزمایش کرد.

پاسخ های فیلتر نشده BlenderBot 3 هم خنده دار و هم کمی نگران کننده بود. این سؤالات را در مورد اینکه آیا ربات منعکس کننده تجزیه و تحلیل واقعی است یا صرفاً از احساسات منفی عمومی بیرون کشیده است. در هر صورت، اظهارات بدون فیلتر ربات چت هوش مصنوعی به سرعت مورد توجه قرار گرفت.

متا BlenderBot 3 را بازنشسته کرد و آن را با Meta AI پیشرفته‌تر جایگزین کرد، که احتمالاً چنین بحث‌هایی را تکرار نخواهد کرد.

یک اسکرین شات که چت مارک زاکربرگ را بین من و متا هوش مصنوعی در واتس اپ نشان می دهد

4

بحران رمانتیک مایکروسافت بینگ چت

بینگ چت مایکروسافت (در حال حاضر Copilot) وقتی شروع به ابراز احساسات عاشقانه برای همه کرد، که معروف‌ترین آن در گفتگو با روزنامه‌نگار نیویورک‌تایمز، کوین روز، شد، موج زد. چت ربات هوش مصنوعی که بینگ چت را تقویت می کند عشق خود را اعلام کرد و حتی به رز پیشنهاد کرد ازدواج خود را ترک کند.

این یک اتفاق مجزا نبود – کاربران Reddit داستان های مشابهی از چت بات را به اشتراک گذاشتند که علاقه عاشقانه خود را به آنها ابراز کردند. برای برخی خنده دار بود. برای دیگران (یا بیشتر)، ناراحت کننده بود. بسیاری به شوخی می گفتند که به نظر می رسد هوش مصنوعی زندگی عشقی بهتری نسبت به آنها داشته است، که فقط به ماهیت عجیب و غریب این وضعیت افزود.

علاوه بر اظهارات عاشقانه‌اش، چت بات رفتارهای عجیب و غریب و انسان‌مانند دیگری نیز به نمایش می‌گذارد که مرز بین سرگرمی و عصبانیت را از بین می‌برد. اعلامیه های عجیب و غریب آن همیشه یکی از خاطره انگیزترین و عجیب ترین لحظات هوش مصنوعی خواهد بود.

5

شروع راکی ​​گوگل بارد با حقایق فضایی

هنگامی که گوگل در اوایل سال 2023 Bard (اکنون جمینی) را راه اندازی کرد، چت ربات هوش مصنوعی با چندین خطای پرمخاطب – به ویژه در اکتشاف فضایی- مواجه شد. یکی از گام‌های اشتباه قابل توجه این بود که بارد با اطمینان ادعاهای نادرستی درباره اکتشافات تلسکوپ فضایی جیمز وب مطرح کرد که باعث اصلاحات عمومی از سوی دانشمندان ناسا شد.

این یک مورد مجزا نبود. به یاد دارم که در طول عرضه اولیه ربات چت با بسیاری از نادرستی‌های واقعی روبرو شدم، که به نظر می‌رسید با درک گسترده‌تر بارد در آن زمان همسو بود. این گام‌های اشتباه اولیه انتقاداتی را برانگیخت که گوگل در راه‌اندازی بارد عجله کرده است. زمانی که سهام آلفابت اندکی پس از آن حدود 100 میلیارد دلار سقوط کرد، ظاهراً این احساس تأیید شد.

اگرچه Gemini از آن زمان تاکنون پیشرفت‌های چشمگیری داشته است، اما اولین کار دشوار آن به عنوان یک داستان هشداردهنده در مورد خطرات توهمات هوش مصنوعی در سناریوهای پرمخاطره عمل می‌کند.

مطلب مرتبط:   چرا هکرها اکانت های ChatGPT را هدف قرار می دهند؟