اجازه ندهید هوش مصنوعی بحث برانگیز گوگل شما را فریب دهد.
بحث در مورد هوش مصنوعی چیز جدیدی نیست، اما اخبار مربوط به هوش مصنوعی LaMDA گوگل شعله های آتش را شعله ور کرده است. پس از اینکه یک مهندس ادعا کرد ربات هوشیار بوده و حتی روح دارد، سؤالات آشنا دوباره مطرح شده است.
آیا هوش مصنوعی مانند LaMDA در واقع می تواند حساس یا خودآگاه باشد، و اگر چنین است، چگونه می توانید بگویید؟ آیا این مهم است؟
LaMDA چیست؟
LaMDA، مخفف Language Model for Dialogue Applications، اولین بار در سال 2021 در کنفرانس توسعه دهندگان گوگل ظاهر شد. سیستم هوش مصنوعی پیشرفته قرار است به ساخت رباتهای گفتگوی کوچکتر کمک کند. هنگامی که گوگل برای اولین بار آن را معرفی کرد، اعلام کرد که قصد دارد آن را در همه چیز ادغام کند و به سرویس هایی مانند Google Assistant و Search کمک کند تا احساس انسان بودن یا حداقل طبیعی بودن را داشته باشند.
هنگامی که مهندس گوگل بلیک لمواین با LaMDA صحبت کرد تا ببیند آیا از سخنان نفرت پراکنی استفاده می کند یا خیر، او با برداشت متفاوتی روبرو شد. Lemoine ادعا کرد که LaMDA حساس است، و اگر نمیدانست که این یک ربات است، فکر میکرد این یک کودک هشت ساله است.
پس از مکالماتش با LaMDA، لموئین سعی کرد ثابت کند که آگاهانه بوده و از حقوق قانونی آن دفاع کند. در پاسخ، گوگل Lemoine را به دلیل نقض قراردادهای محرمانگی در مرخصی اداری با حقوق قرار داد.
آیا LaMDA واقعاً حساس است؟
بنابراین، آیا LaMDA واقعاً حساس است؟ اکثر کارشناسانی که در مورد این موضوع سنجیده اند، شک دارند. LaMDA یک پلتفرم چت هوش مصنوعی بسیار پیشرفته است که تریلیونها کلمه را از اینترنت تجزیه و تحلیل میکند، بنابراین در صدایی شبیه به یک شخص واقعی مهارت دارد.
این اولین باری نیست که یکی از هوش مصنوعی های گوگل مردم را فریب می دهد تا فکر کنند انسان است. در سال 2018، گوگل هوش مصنوعی Duplex خود را با تماس با یک رستوران برای رزرو میز نشان داد. به نظر نمی رسید کارمند طرف مقابل در هیچ نقطه ای شک نداشته باشد که با یک نفر صحبت می کند.
تعریف Sentience دشوار است، اگرچه اکثر مردم شک دارند که هوش مصنوعی هنوز به آن نقطه رسیده است. با این حال، ممکن است سوال مهم این نباشد که آیا LaMDA واقعاً حساس است یا خیر، اما چه تفاوتی دارد اگر بتواند مردم را فریب دهد تا فکر کنند که چنین است.
پیامدهای حقوقی احتمالی LaMDA
وضعیت LaMDA سوالات حقوقی و اخلاقی زیادی را ایجاد می کند. اول، ممکن است برخی از افراد بپرسند که آیا گوگل حق داشت که Lemoine را به دلیل صحبت در مورد آن مرخصی دهد.
بر اساس بخش 740 قانون کار نیویورک، حفاظت از افشاگران از کارکنان در برابر چنین عواقبی دفاع می کند، اگر آنها معتقد باشند که عملکرد کارفرمایان آنها قانون را نقض می کند یا خطر قابل توجهی برای امنیت عمومی ایجاد می کند. احساس فرضی LaMDA کاملاً با این الزامات قانونی مطابقت ندارد، اما آیا باید اینطور باشد؟
دادن حقوق هوش مصنوعی موضوعی پیچیده است. در حالی که هوش مصنوعی میتواند چیزهایی خلق کند و به نظر انسانی برسد، اگر این ماشینها از حمایت قانونی برخوردار باشند، میتوانید با موقعیتهای پیچیدهای مواجه شوید. حقوق قانونی حول پاداش ها و مجازات هایی است که بر هوش مصنوعی تأثیر نمی گذارد و عدالت را پیچیده می کند.
اگر یک خودروی خودران با عابر پیاده برخورد کند، اگر قانون با آن مانند یک انسان رفتار کند، هوش مصنوعی مجرم است؟ و اگر چنین است، به شدت به قربانی عدالت نمیپردازد، زیرا نمیتوانید هوش مصنوعی را مانند انسانها از نظر فنی مجازات کنید.
سوال دیگری که در مورد LaMDA و چت ربات های هوش مصنوعی مشابه مطرح می شود، امنیت آنهاست. اگر این رباتها بهطور قانعکنندهای واقعی به نظر میرسند، ممکن است مردم بیشتر به آنها اعتماد کنند و مایل باشند اطلاعات حساستری به آنها بدهند. اگر این فناوری به دست افراد نادرستی بیفتد، در را به روی نگرانیهای امنیتی و حریم خصوصی باز میکند.
هوش مصنوعی سوالات پیچیده اخلاقی را معرفی می کند
هوش مصنوعی مانند LaMDA پیچیده تر و واقعی تر می شود. با رشد این روند، شرکتها و قانونگذاران باید نحوه رفتارشان با هوش مصنوعی و اینکه چگونه این تصمیمات میتواند بر عدالت و امنیت تأثیر بگذارد، دوباره ارزیابی کنند.
همانطور که پیش میآید، هوش مصنوعی LaMDA گوگل ممکن است حساس نباشد، اما به اندازه کافی خوب است که مردم را فریب دهد تا فکر کنند که چنین است، که باید هشدارهایی را ایجاد کند.