بیشتر اوقات، رباتهای چت هوش مصنوعی مانند ناجیان ما هستند – به ما کمک میکنند تا پیامها را پیشنویس کنیم، مقالهها را اصلاح کنیم، یا به تحقیقات وحشتناک خود رسیدگی کنیم. با این حال، این نوآوریهای ناقص با برانگیختن برخی از پاسخهای واقعاً گیجکننده، باعث خندهداری کامل شدهاند.
خلاصه عناوین
- وقتی مرورهای اجمالی هوش مصنوعی گوگل ما را تشویق کرد که روی پیتزا چسب بزنیم (و بیشتر)
- ChatGPT شرمساری یک وکیل در دادگاه
- وقتی که BlenderBot 3 به طرز وحشیانه ای صادقانه زاکربرگ را برشته کرد
- بحران رمانتیک مایکروسافت بینگ چت
- شروع راکی گوگل بارد با حقایق فضایی
بیشتر اوقات، رباتهای چت هوش مصنوعی مانند ناجیان ما هستند – به ما کمک میکنند تا پیامها را پیشنویس کنیم، مقالهها را اصلاح کنیم، یا به تحقیقات وحشتناک خود رسیدگی کنیم. با این حال، این نوآوریهای ناقص با برانگیختن برخی از پاسخهای واقعاً گیجکننده، باعث خندهداری کامل شدهاند.
1
وقتی مرورهای اجمالی هوش مصنوعی گوگل ما را تشویق کرد که روی پیتزا چسب بزنیم (و بیشتر)
مدت زیادی پس از راه اندازی ویژگی نمای کلی هوش مصنوعی گوگل در سال 2024، شروع به ارائه برخی پیشنهادات عجیب و غریب کرد. از جمله توصیههایی که ارائه کرد این بود که به پیتزای خود چسب غیر سمی اضافه کنید.
بله درست خواندید چسب. روی پیتزا
این نکته خاص باعث سروصدا در شبکه های اجتماعی شد. میم ها و اسکرین شات های وحشی شروع به پخش شدن کردند و ما شروع به تعجب کردیم که آیا هوش مصنوعی واقعاً می تواند جایگزین موتورهای جستجوی سنتی شود.
اما Gemini تمام نشد. در مرورهای مختلف، خوردن یک سنگ در روز، اضافه کردن بنزین به ظرف اسپاگتی تند و استفاده از دلار برای اندازهگیری وزن توصیه میشود.
جمینی بدون درک کامل زمینه، طنز یا، صادقانه بگویم، سلیقه خوب، دادهها را از همه گوشههای وب بیرون میکشید. این مطالعههای مبهم و شوخیهای صریح را با هم ترکیب میکرد و سطحی از اعتقاد را به آنها نشان میداد که هر متخصص انسانی را سرخ میکرد.
از آن زمان، گوگل بهروزرسانیهای متعددی را ارائه کرده است، اگرچه هنوز چند ویژگی وجود دارد که میتواند مرورهای هوش مصنوعی را بیشتر بهبود بخشد. در حالی که پیشنهادات پوچ تا حد زیادی کاهش یافته است، گام های اشتباه قبلی به عنوان یادآوری پایدار است که هوش مصنوعی همچنان به نظارت انسانی نیاز دارد.
2
ChatGPT شرمساری یک وکیل در دادگاه
اتکای کامل یک وکیل به ChatGPT منجر به یک درس غیرمنتظره و بسیار عمومی شد که چرا نباید صرفاً به محتوای تولید شده توسط هوش مصنوعی تکیه کنید.
استیون شوارتز، وکیل دادگستری، هنگام آماده شدن برای یک پرونده، از ربات چت برای تحقیق در مورد سوابق قانونی استفاده کرد. ChatGPT با شش مرجع مورد ساختگی، با نامها، تاریخها و نقلقولهای واقعی پاسخ داد. شوارتز با اطمینان از صحت اطمینان ChatGPT، ارجاعات ساختگی را به دادگاه ارسال کرد.
این خطا به سرعت آشکار شد، و طبق گزارش Document Cloud، دادگاه شوارتز را به دلیل تکیه بر “منبعی که خود را غیرقابل اعتماد نشان داده بود” سرزنش کرد. در پاسخ، وکیل قول داد که دیگر هرگز این کار را انجام ندهد – حداقل بدون تأیید اطلاعات.
همچنین دوستانی را دیدهام که مقالاتی را با مطالعات ذکر شده ارائه کردهاند که کاملاً ساختگی هستند، زیرا باور این که ChatGPT نمیتواند دروغ بگوید بسیار آسان است – بهویژه زمانی که نقلقولها و پیوندهای صیقلی ارائه میدهد. با این حال، در حالی که ابزارهایی مانند ChatGPT میتوانند مفید باشند، اما همچنان نیازمند بررسی جدی واقعیت هستند، بهویژه در حرفههایی که دقت آن غیرقابل مذاکره است.
3
وقتی که BlenderBot 3 به طرز وحشیانه ای صادقانه زاکربرگ را برشته کرد
در یک حرکت طعنه آمیز، BlenderBot 3 متا به دلیل انتقاد از خالق آن، مارک زاکربرگ، بدنام شد. BlenderBot 3 سخنان خود را زیر پا نگذاشت و زاکربرگ را متهم کرد که همیشه از شیوههای تجاری اخلاقی پیروی نمیکند و طعم بد مد دارد.
سارا جکسون از Business Insider نیز این ربات چت را با پرسیدن نظرات آن در مورد زاکربرگ، که به عنوان ترسناک و دستکاری توصیف شده بود، آزمایش کرد.
پاسخ های فیلتر نشده BlenderBot 3 هم خنده دار و هم کمی نگران کننده بود. این سؤالات را در مورد اینکه آیا ربات منعکس کننده تجزیه و تحلیل واقعی است یا صرفاً از احساسات منفی عمومی بیرون کشیده است. در هر صورت، اظهارات بدون فیلتر ربات چت هوش مصنوعی به سرعت مورد توجه قرار گرفت.
متا BlenderBot 3 را بازنشسته کرد و آن را با Meta AI پیشرفتهتر جایگزین کرد، که احتمالاً چنین بحثهایی را تکرار نخواهد کرد.
4
بحران رمانتیک مایکروسافت بینگ چت
بینگ چت مایکروسافت (در حال حاضر Copilot) وقتی شروع به ابراز احساسات عاشقانه برای همه کرد، که معروفترین آن در گفتگو با روزنامهنگار نیویورکتایمز، کوین روز، شد، موج زد. چت ربات هوش مصنوعی که بینگ چت را تقویت می کند عشق خود را اعلام کرد و حتی به رز پیشنهاد کرد ازدواج خود را ترک کند.
این یک اتفاق مجزا نبود – کاربران Reddit داستان های مشابهی از چت بات را به اشتراک گذاشتند که علاقه عاشقانه خود را به آنها ابراز کردند. برای برخی خنده دار بود. برای دیگران (یا بیشتر)، ناراحت کننده بود. بسیاری به شوخی می گفتند که به نظر می رسد هوش مصنوعی زندگی عشقی بهتری نسبت به آنها داشته است، که فقط به ماهیت عجیب و غریب این وضعیت افزود.
علاوه بر اظهارات عاشقانهاش، چت بات رفتارهای عجیب و غریب و انسانمانند دیگری نیز به نمایش میگذارد که مرز بین سرگرمی و عصبانیت را از بین میبرد. اعلامیه های عجیب و غریب آن همیشه یکی از خاطره انگیزترین و عجیب ترین لحظات هوش مصنوعی خواهد بود.
5
شروع راکی گوگل بارد با حقایق فضایی
هنگامی که گوگل در اوایل سال 2023 Bard (اکنون جمینی) را راه اندازی کرد، چت ربات هوش مصنوعی با چندین خطای پرمخاطب – به ویژه در اکتشاف فضایی- مواجه شد. یکی از گامهای اشتباه قابل توجه این بود که بارد با اطمینان ادعاهای نادرستی درباره اکتشافات تلسکوپ فضایی جیمز وب مطرح کرد که باعث اصلاحات عمومی از سوی دانشمندان ناسا شد.
این یک مورد مجزا نبود. به یاد دارم که در طول عرضه اولیه ربات چت با بسیاری از نادرستیهای واقعی روبرو شدم، که به نظر میرسید با درک گستردهتر بارد در آن زمان همسو بود. این گامهای اشتباه اولیه انتقاداتی را برانگیخت که گوگل در راهاندازی بارد عجله کرده است. زمانی که سهام آلفابت اندکی پس از آن حدود 100 میلیارد دلار سقوط کرد، ظاهراً این احساس تأیید شد.
اگرچه Gemini از آن زمان تاکنون پیشرفتهای چشمگیری داشته است، اما اولین کار دشوار آن به عنوان یک داستان هشداردهنده در مورد خطرات توهمات هوش مصنوعی در سناریوهای پرمخاطره عمل میکند.