خبر و ترفند روز

خبر و ترفند های روز را اینجا بخوانید!

آیا ChatGPT سرقت ادبی می کند؟ بررسی منابع چت بات

ChatGPT به دلیل روش های آموزشی بدنام است، اما آیا این بدان معناست که در واقع کار را کپی می کند؟

خلاصه عناوین

  • سرقت ادبی دقیقاً چیست و LLM چگونه کار می کند؟
  • آیا ChatGPT مقالات را سرقت ادبی می کند؟
  • آیا ChatGPT کد سرقت ادبی می کند؟
  • آیا ChatGPT راه حل های ریاضی را سرقت می کند؟
  • آیا ChatGPT از محتوای وبلاگ ها استفاده می کند؟
  • آیا باید از ChatGPT برای محل کار یا مدرسه استفاده کنید؟

نکات کلیدی

  • سرقت ادبی شناسایی شده در یک مقاله و یک کد برنامه‌نویسی تولید شده توسط ChatGPT نسبتاً کم بود، که نشان می‌دهد معمولاً چنین محتوایی را از منابع آنلاین کپی نمی‌کند.
  • میزان سرقت ادبی هنگام محاسبه یک راه حل ریاضی کمی بیشتر بود. این ممکن است به این دلیل باشد که استدلال ریاضی معمولاً در منابع مشابه است، بنابراین پاسخ ها می توانند با مواد دیگر مطابقت داشته باشند.
  • پاسخ‌های ChatGPT به سؤالات مربوط به اطلاعات عمومی در دسترس در وبلاگ‌ها، درصد سرقت ادبی بالاتری را نشان داد.

در حالی که ChatGPT می تواند به هر سؤالی که ممکن است داشته باشید پاسخ دهد، برخی از کاربران تعجب می کنند که آیا پاسخ های آن حاوی سرقت ادبی است یا خیر. برای بررسی این موضوع، ما چهار نوع متن مختلف را با استفاده از ChatGPT تولید کردیم و سپس اصالت آنها را با استفاده از ابزارهای مختلف تشخیص سرقت ادبی ارزیابی کردیم.

سرقت ادبی دقیقاً چیست و LLM چگونه کار می کند؟

برای تعیین اینکه آیا ChatGPT مقصر سرقت ادبی است، ابتدا باید بفهمید که چه چیزی سرقت ادبی است. سرقت ادبی شامل استفاده از کلمات، ایده ها یا آثار شخص دیگری بدون ذکر منبع مناسب است. این شامل کپی مستقیم متن از یک منبع بدون ذکر منبع یا بازنویسی دقیق ایده های دیگران بدون تایید است.

ChatGPT، مانند دیگر مدل‌های زبان بزرگ (LLM)، بر روی مجموعه داده‌های بزرگ، عمدتاً از محتوای در دسترس عموم، آموزش داده می‌شود. با این حال، جمع‌آوری چنین حجم وسیعی از داده‌ها سؤالات اخلاقی را ایجاد می‌کند، زیرا سازندگان اصلی موافقت نکرده‌اند که کارشان در آموزش LLM استفاده شود. این منجر به بحث هایی در مورد اخلاق و قانونی بودن چنین اعمالی می شود.

اگرچه ChatGPT بر اساس اعلان‌هایی که دریافت می‌کند، پاسخ‌ها را تولید می‌کند، اما مسئله در زمینه گسترده‌تر اینکه چگونه OpenAI (توسعه‌دهنده ChatGPT) داده‌های مورد استفاده برای آموزش آن را به‌دست آورده است، که شامل استفاده از محتوا بدون رضایت مناسب است. بسیاری این را سرقت ادبی و برای بسیاری از وب سایت ها سرقت محتوا می دانند. با این حال، تعیین منابع دقیق سرقت ادبی دشوار است.

مطلب مرتبط:   رایانه شخصی پست نمی‌کند؟ 4 راه برای رفع آن

در ادامه این مقاله، ما بر روی این موضوع تمرکز خواهیم کرد که آیا ChatGPT خروجی خود را از منابع دیگر سرقت می‌کند، بدون اینکه به جزئیات پاسخ‌هایش بپردازیم. بیایید اصالت پاسخ‌های ChatGPT را با استفاده از ابزارهای مختلف تشخیص سرقت ادبی بررسی کنیم تا ببینیم آیا چت بات مستقیماً از متن منابع آنلاین استفاده می‌کند یا خیر.

آیا ChatGPT مقالات را سرقت ادبی می کند؟

در این مثال اول، ما به ChatGPT وظیفه داشتیم تا یک مقاله 300 کلمه ای در مورد مسائل مربوط به سلامت روان بنویسد.

مقاله در مورد مسائل سلامت روان تولید شده توسط ChatGPT.

به دنبال آن، ما از ابزارهای مختلف تشخیص سرقت ادبی برای ارزیابی اصالت مقاله تولید شده توسط چت بات استفاده کردیم. این ابزارها شامل جستجوگر سرقت ادبی Quetext، جستجوگر سرقت ادبی داخلی مایکروسافت ورد، جستجوگر سرقت ادبی Grammarly و اسکنر سرقت ادبی Duplichecker بود.

بررسی کننده تشابه داخلی مایکروسافت، شباهت صفر درصدی را با منابع آنلاین گزارش کرده است. سطوح سرقت ادبی شناسایی شده توسط ابزارهای دیگر نیز حداقل بود: آشکارساز سرقت ادبی Grammarly چهار درصد، آشکارساز سرقت ادبی QueText پنج درصد، و اسکنر سرقت ادبی Duplichecker صفر درصد را نشان داد.

با توجه به درصد کمی از سرقت ادبی شناسایی شده، به نظر می رسد که ChatGPT مستقیماً مقالات را از منابع موجود کپی نمی کند.

آیا ChatGPT کد سرقت ادبی می کند؟

برای ارزیابی اینکه آیا ChatGPT سرقت کد را سرقت می کند یا خیر، ما به chatbot وظیفه نوشتن کد برای یک ماشین حساب در پایتون را دادیم.

کد تولید شده توسط ChatGPT در زبان پایتون.

به دنبال آن، ما یک بررسی سرقت ادبی روی کد با استفاده از یک برنامه نویسی تخصصی بررسی سرقت ادبی به نام Dolos انجام دادیم که شباهت صفر درصد را تشخیص داد. همچنین، زمانی که کد را با استفاده از ابزارهای تشخیص سرقت ادبی متنی که در بالا ذکر شد بررسی کردیم، نتایج یکسان بود و تقریباً هیچ یک از برنامه‌ها بیش از چهار درصد سرقت ادبی را شناسایی نکردند.

هنگامی که از ChatGPT خواستیم یک کد برای یک ماشین حساب از حساب های مختلف ایجاد کند، پاسخ ها متفاوت به نظر می رسید. این مشاهدات و نتایج بررسی‌های سرقت ادبی نشان می‌دهد که ChatGPT به سادگی کدها را از منابع آنلاین تکرار نمی‌کند. در عوض، از مجموعه داده‌ای استفاده می‌کند که روی آن آموزش داده شده است تا به طور مستقل کد تولید کند.

مطلب مرتبط:   بزرگترین شکست کریپتو در سال 2022

آیا ChatGPT راه حل های ریاضی را سرقت می کند؟

در طول آزمون سوم، ما به چت بات وظیفه دادیم تا یک مسئله ریاضی را حل کند و برای هر مرحله استدلال دقیق ارائه دهد.

حل یک سوال ادغام با توضیح آن توسط ChatGPT ایجاد شده است.

برای بررسی اصالت پاسخ، خروجی آن را با استفاده از چندین ابزار تشخیص سرقت علمی خاص دانشگاهی، از جمله جستجوگر سرقت ادبی PapersOwl، اسکنر سرقت ادبی Trinka مبتنی بر هوش مصنوعی، و همچنین ابزارهای بررسی سرقت علمی عمومی مانند Grammarly، Duplichecker، و QueText، آزمایش کردیم.

آشکارساز سرقت ادبی PapersOwl شباهت تقریباً 46 درصدی را بین استدلال تولید شده چت بات و منابع آنلاین نشان داد. به طور مشابه، آشکارساز سرقت ادبی Trinka بیش از 10 درصد شباهت را گزارش کرد. علاوه بر این، آشکارساز سرقت ادبی Grammarly 14 درصد شباهت، QueText 17 درصد، و Duplichecker هفت درصد را نشان داد.

تشخیص سرقت ادبی بالا در پاسخ تولید شده نشان نمی‌دهد که چت بات مستقیماً استدلال سؤالات ریاضی را از منابع آنلاین کپی می‌کند. این عمدتاً به این دلیل است که راه‌حل‌ها و استدلال‌ها برای مسائل ریاضی اغلب استاندارد هستند و به طور گسترده به صورت آنلاین در دسترس هستند.

بنابراین، اگرچه ChatGPT پاسخ‌های خاص خود را ارائه می‌کند، یافتن پاسخ‌ها و استدلال‌های مشابه به صورت آنلاین امکان‌پذیر است، که ممکن است به درصد سرقت ادبی بالا اضافه شود.

آیا ChatGPT از محتوای وبلاگ ها استفاده می کند؟

برای بررسی اینکه آیا ChatGPT از محتوای وبلاگ‌های آنلاین استفاده می‌کند، از ربات چت خواستیم نکاتی را برای حفظ سلامت باتری لپ‌تاپ ارائه دهد.

نکاتی برای سالم نگه داشتن باتری لپ تاپ تولید شده توسط ChatGPT.

مایکروسافت ورد 10 درصد سرقت ادبی را در متن تولید شده شناسایی کرد. Duplichecker چهار درصد را نشان داد، جستجوگر Grammarly’s Plagiarism نشان داد 14 درصد، اما Quetext 58 درصد سرقت ادبی را در متن یافت. پس از حفاری بیشتر، برخی از متن در پاسخ ربات چت با محتوای برخی از وبلاگ ها مطابقت داشت.

برای اینکه دوباره بررسی کنم که آیا تشخیص سرقت علمی زیاد تصادفی نبوده است، از چت بات چند سؤال دیگر درباره اطلاعاتی که به راحتی آنلاین در دسترس است پرسیدم. درصد سرقت ادبی در پاسخ های ایجاد شده بسیار بیشتر بود. بر اساس آزمایش ما، به نظر می رسد که ربات چت گاهی از عبارات و متن از منابع آنلاین استفاده می کند، که بسیار تعجب آور است.

مطلب مرتبط:   با اعلان‌های فشاری یک زنگ در هوشمند DIY برای دستیار خانه بسازید

آیا باید از ChatGPT برای محل کار یا مدرسه استفاده کنید؟

اگرچه بسیاری از بررسی‌کننده‌های سرقت علمی رایگان آنلاین، سرقت ادبی عمده را در پاسخ‌های ChatGPT شناسایی نکرده‌اند، شما نباید از آن برای اهداف آکادمیک یا حرفه‌ای استفاده کنید.

اگر دانش آموز هستید، از ChatGPT برای تکالیف مدرسه خود استفاده نکنید. مربیان می توانند از ابزارهایی مانند GPTZero و آشکارساز نوشتن هوش مصنوعی Turnitin برای شناسایی محتوای تولید شده توسط هوش مصنوعی استفاده کنند. اگر کار شما به‌عنوان AI تولید شده توسط چنین ابزارهایی علامت‌گذاری شود، ممکن است در انجام تکلیف شکست بخورید یا حتی از مدرسه اخراج شوید. اگرچه بسیاری از ابزارهای تشخیص GPT به طور خاص بیان می‌کنند که نباید برای این منظور استفاده شوند، اما می‌توانند شما را به دردسر بیاندازند. ناگفته نماند، شما واقعاً با مطالعه نکردن درست موضوع، خود را فریب می دهید.

آیا می توانید از چت بات برای بهبود عملکرد کاری خود استفاده کنید؟ بستگی دارد. اگر می‌خواهید جریان نوشتار خود را در ایمیل‌ها یا سایر فرم‌های متنی بهبود ببخشید، استفاده از هوش مصنوعی می‌تواند در وقت و تلاش شما صرفه‌جویی کند. با این حال، شما فقط باید از آن به عنوان ابزاری برای کمک به شما در کارهایتان استفاده کنید نه اینکه به آن تکیه کنید تا کل کار را برای شما انجام دهد.

در مقابل، اگر شغل شما، مانند نوشتن حرفه ای، استفاده از چنین ابزارهایی را ممنوع می کند، باید از ChatGPT یا هر ابزار دیگری به طور کامل اجتناب کنید.

امیدواریم، آزمایش ما به شما بینشی در مورد میزان استفاده از ChatGPT از منابع موجود در وب داده باشد. با این حال، مهم است که توجه داشته باشید که ما از ابزار سرقت ادبی رایگان استفاده کرده‌ایم و تنها مجموعه داده محدودی را آزمایش کرده‌ایم. بنابراین، اگرچه یافته‌های ما ممکن است مفید باشد، نباید آنها را به عنوان حقایق مطلق در نظر گرفت.