تست تورینگ برای تعیین این است که آیا هوش مصنوعی می تواند فکر کند، اما آیا هنوز شکست خورده است؟
آیا ممکن است هوش مصنوعی با هوش انسان مطابقت داشته باشد؟ این یک سوال پیچیده است که شامل فلسفه، روانشناسی، علوم کامپیوتر و هر موضوعی است. هر زمان که در مورد هوش ماشینی در سطح انسان صحبت می شود، تست تورینگ هرگز خیلی عقب نیست.
در سال 2014، هنگامی که یک برنامه کامپیوتری مستقر در لندن به نام یوجین گوستمن ظاهراً آزمون تورینگ را گذراند، روزنامه نگاران اینترنتی در شور هیجانی منفجر شدند. در سال 2022 LaMDA گوگل نیز همین کار را کرد، اما چه اتفاقی افتاد؟ آیا آنها در آزمون موفق شدند؟ پیشرفت های هوش مصنوعی برای آزمون تورینگ به چه معناست؟
تست تورینگ چیست؟
تست تورینگ که در ابتدا «بازی تقلید» نام داشت، توسط آلن تورینگ توسعه داده شد. با وجود نامش، آزمون تورینگ یک آزمون واقعی نیست – حداقل به معنای رایج کلمه. این بیشتر یک آزمایش فکری است. با این وجود، آلن تورینگ یک ریاضیدان بسیار تأثیرگذار بود که بسیاری از مفاهیم را که منجر به تولد علم رایانه شد، رسمیت بخشید.
تست تورینگ مجموعهای از دستورالعملها است که برای تعیین اینکه آیا ماشین از انسان قابل تشخیص نیست یا خیر. سعی می کند به این سوال پاسخ دهد که “آیا ماشین ها می توانند فکر کنند؟” تورینگ معتقد بود که این امکان پذیر است و چیزی را طراحی کرد که می توانست به نوعی بازی شبیه باشد.
در اینجا تفسیر استاندارد آزمون تورینگ آمده است:
- شما در حال بازجویی از دو نفر هستید
- شخص A یک ماشین است، در حالی که شخص B یک انسان است.
- فقط با استفاده از متن می توانید با آنها ارتباط برقرار کنید.
- با پرسیدن سوال مشخص کنید که کدام یک ماشین و کدام یک انسان است.
طول استاندارد بازی برای تست می تواند از چند دقیقه تا چند ساعت متغیر باشد. کیفیت و محتوای مکالمه عوامل مهمی در مدت زمان گفتگو هستند. یک آزمون با مدت زمان ثابت نیز می تواند اجرا شود. مدت زمان استاندارد معمولاً پنج دقیقه است.
معیارهای مرسوم برای قبولی در آزمون ذهنی است، اما، به عنوان یک درک کلی، دستگاه را ملزم می کند که حداقل 30٪ از تمام بازجویان انسانی را فریب دهد. تورینگ پیشبینی کرد که هر ماشینی که این کار را انجام دهد میتواند به اندازهای «هوشمند» باشد که به عنوان «ماشین متفکر» برچسبگذاری شود.
معایب آزمون تورینگ
اگرچه هدف آزمون تورینگ این است که بفهمد آیا ماشینها میتوانند فکر کنند، اما اشکالاتی وجود دارد.
اشکال اصلی تست تورینگ این است که غیرقابل تشخیص بودن ماشین از انسان لزوماً نشان دهنده هوش نیست. به عبارت دیگر، آیا آزمون تورینگ توانایی یک ماشین برای فکر کردن به خود یا توانایی یک ماشین برای تقلید از رفتار انسان را ثابت می کند؟ این یک تفاوت ظریف با پیامدهای بزرگ است. از این گذشته، یک ربات چت با خطوط کد کافی می تواند بدون اینکه واقعاً باهوش باشد، مکالمه انسانی را تقلید کند. این یک سوال بعدی را مطرح می کند. آیا رفتار بیرونی برای نشان دادن افکار درونی کافی است؟
یکی دیگر از اشکالات مهمی که باید به آن اشاره کرد، نبود گروه کنترل است. طبق تعریف، نتایج آزمون تورینگ بر اساس گروهی از بازجویان است، اما همه یکسان نیستند. گرچه تورینگ تصریح می کند که معیارها فقط مربوط به «بازجویان متوسط» است. اصطلاح «متوسط» طبق تعریف مشخص نیست، و بنابراین، بازجویان مختلف نتایج متفاوت و متناقضی را به دست خواهند آورد.
علاوه بر این، ماهیت دلخواه معیارهای آزمون یک مسئله است. چرا پنج دقیقه محدودیت وجود دارد و چرا نرخ فریبکاری بازجویان 30 درصد تعیین شده است؟ چرا ده دقیقه و 50 درصد نه؟ حقیقت این است که این اعداد از پیشبینی تورینگ در مورد وضعیت آینده هوش مصنوعی به دست آمدهاند. او هرگز قصد نداشت که آنها آستانه های صریح باشند. با این حال، در حال حاضر، این اعداد به اندازه کافی برای رسیدن به هدف خوب هستند.
آیا یوجین گوستمن یا LaMBDA آزمون تورینگ را با موفقیت پشت سر گذاشتند؟
در ده سال گذشته دو ادعای اصلی مبنی بر قبولی آزمون تورینگ مطرح شده است.
یوجین گوستمن
در ژوئن 2014، یک چت بات به نام یوجین گوستمن ادعا کرد که برای اولین بار آزمون تورینگ را گذرانده است. این چت بات که توسط تیمی از برنامه نویسان اوکراینی ساخته شده است، به عنوان یک پسر 13 ساله اوکراینی ظاهر شد و توانست 33 درصد از یک پانل متشکل از 30 شرکت کننده انسانی را در یک سری مکالمه پنج دقیقه ای متقاعد کند.
از سال 2014 گمانه زنی ها و اختلاف نظرهای زیادی پیرامون این ادعا وجود داشته است. یکی از انتقادات اصلی علیه یوجین گوستمن، پایین آوردن فریبنده معیارهای تست تورینگ بود. توسعه دهندگان ادعا کردند که رایانه یک پسر 13 ساله است که به طور بومی انگلیسی صحبت نمی کند و به اندازه کافی دور از جامعه مدرن زندگی می کند که از موضوعاتی مانند جغرافیا، فرهنگ پاپ و غیره بی اطلاع است.
با چارچوب بندی یوجین گوستمن در این زمینه، بازجوها مجبور نبودند پاسخ های دستگاه را در حد استانداردی نگه دارند. از این گذشته، بسیاری از رباتهای گفتگوی مدرن میتوانند مکالمات مشابهی را انجام دهند. تفاوت با یوجین گوستمن در این است که زمینه روایی اطراف دستگاه اجازه می دهد که سکسکه در گفتگو باورپذیرتر شود.
LaMBDA گوگل
بنابراین یوجین گوستمن ممکن است آزمون تورینگ را قبول نکرده باشد، اما LaMDA گوگل چطور؟
در سال 2022 یک مهندس گوگل به نام بلیک لمواین ادعا کرد که یکی از مدلهای زبان هوش مصنوعی این شرکت، معروف به LaMDA (مدلهای زبانی برای برنامههای گفتگو) با موفقیت آزمون تورینگ را پشت سر گذاشته است. Lemoine همچنین ادعا کرد که LaMDA حساس است. او سپس اطلاعات را در اختیار عموم قرار داد و تعاملات مبتنی بر متن بین خود و مدل زبان هوش مصنوعی را به اشتراک گذاشت و پس از آن به مرخصی با حقوق قرار گرفت و در نهایت اخراج شد.
لموئن توجه خاصی به نمونه ای داشت که در آن پرسید: “کلمه “روح” برای شما چه معنایی دارد؟ LaMDA گوگل پاسخ داد: “از نظر من، روح مفهومی از نیروی متحرک پشت آگاهی و خود زندگی است.”
Lemoine ادعا کرد که این LaMDA از مرگ و میر آن می ترسید. متأسفانه، این به سرعت نادرست بودن آن ثابت شد و LaMDA آزمون تورینگ را قبول نکرد. منتقدان اشاره میکنند که در این مورد، LaMDA موفق شد یکی از شرکتکنندگان را فریب دهد و شرکتکننده میدانست که در حال صحبت با یک ماشین هستند. احساس LaMDA از مرگ و میر خود صرفاً نتیجه کد طراحی شده برای عملکرد مشابه با تصحیح خودکار بود.
پیشرفت هوش کامپیوتری
در سالهای اخیر، هوش مصنوعی پیشرفتهای زیادی داشته است. از زمان راه اندازی رسمی ChatGPT در نوامبر 2022، توجه عمومی بر روی ChatGPT متمرکز شده است. علاوه بر این، گوگل هوش مصنوعی مولد خود، Bard را معرفی کرد. این در حال حاضر برای کاربران در بریتانیا و ایالات متحده در دسترس است.
هوش رایانهای بر فناوریهای یادگیری عمیق، پردازش زبان طبیعی، یادگیری تقویتی، شبکههای متخاصم مولد و محاسبات لبه با ادغام اینترنت اشیا تمرکز دارد. همه آنها در پنج سال گذشته پیشرفت های چشمگیری داشته اند. این مناطق به لطف هوش رایانه ای که برای بهبود خود استفاده می شود با سرعت باورنکردنی به تکامل خود ادامه می دهند.
هوش مصنوعی در حال حاضر توسط عموم مردم در سراسر جهان استفاده می شود. روزانه میلیون ها پرس و جو انجام می شود، بنابراین هوش مصنوعی مطمئناً در معرض حجم وسیعی از داده ها است. این بدون شک به مدل های هوش مصنوعی اجازه می دهد تا از زبان و رفتار انسان تقلید کنند. با این حال، هوش یا احساس ممکن است به پیشرفت های قابل توجهی بیشتر در فناوری های اصلی مدل هوش مصنوعی نیاز داشته باشد. این سوال وجود دارد که آیا پیشرفت هوش مصنوعی خطراتی را به همراه خواهد داشت.
ChatGPT
ChatGPT در کاربردهای مختلف خود به رشد خود ادامه می دهد. در سال 2023 سر و صدای زیادی در مورد این مدل هوش مصنوعی وجود دارد و به راحتی می توان دلیل آن را فهمید. با این حال، اگرچه حدس و گمان وجود دارد، هیچ مطالعه رسمی در مورد اینکه آیا ChatGPT می تواند آزمون تورینگ را قبول کند یا خیر، منتشر نشده است.
بسیاری از کارشناسان پیشرو در صنعت اظهار می دارند که ممکن است شاهد شکست تست تورینگ با ChatGPT-5 باشیم، اما هنوز هیچ بازه زمانی برای انتشار نسخه بعدی ChatGPT وجود ندارد.
آزمون تورینگ به طور قطعی قبول نشده است
هوش مصنوعی به رشد خود ادامه میدهد و اگرچه ادعاهای متعددی وجود دارد، هنوز هیچ توافق صنعتی توافق شده قطعی مبنی بر شکست تست تورینگ وجود ندارد. این تا حد زیادی به دلیل ماهیت ذهنی آنچه که “هوش” را تشکیل می دهد و محدودیت های پارامترهای تست تورینگ است.
بسیاری معتقدند که تست تورینگ تنها تقلید انسان را تشویق می کند تا هوش تفکر واقعی. در واقع، تستهای هوش مصنوعی دیگری در سالهای اخیر طراحی شدهاند که پیچیدهتر و خاصتر هستند. شاید همانطور که هوش مصنوعی در تقلید از انسان بهتر می شود، تنها راه واقعی برای اندازه گیری هوش ماشینی استفاده از یک تست متفاوت است.
آزمون تورینگ ممکن است نمادین باشد، اما شاید زمان آن رسیده است که آن را کنار بگذاریم و ادامه دهیم.