پژوهشی جدید و نگرانکننده نشان میدهد که استفاده از ابزارهای هوش مصنوعی، مانند ChatGPT، برای نگارش مقالات علمی بهسرعت در حال گسترش است. بر اساس این مطالعه، در سال گذشته میلادی، از هر هفت چکیده مقاله در حوزه زیستپزشکی، یک مورد احتمالاً با کمک هوش مصنوعی نوشته شده است.
به گزارش نشریه معتبر نیچر، تیمی از محققان دانشگاه توبینگن آلمان در پژوهشی جامع به بررسی نفوذ مدلهای زبانی بزرگ (LLM) در ادبیات علمی پرداختهاند. یافتههای این مطالعه نشان میدهد که در سال ۲۰۲۴، بیش از ۲۰۰ هزار چکیده (معادل ۱۴ درصد) از ۱.۵ میلیون چکیده نمایهشده در پایگاه داده PubMed، نشانههای قوی از نگارش یا ویرایش توسط هوش مصنوعی داشتهاند.
روششناسی نوین در شناسایی متون هوش مصنوعی
از آنجا که اکثر محققان استفاده از هوش مصنوعی را در مقالات خود اعلام نمیکنند، تشخیص متون تولیدشده توسط چتباتها چالشبرانگیز است. پژوهشگران این مطالعه بهجای استفاده از مدلهای تشخیص هوش مصنوعی، رویکردی متفاوت اتخاذ کردند. آنها به دنبال «کلمات اضافی» بودند؛ واژگانی که پس از عرضه عمومی ChatGPT در نوامبر ۲۰۲۲، بهطور ناگهانی و غیرمعمول در چکیدههای مقالات علمی افزایش یافتهاند.
این کلمات که عمدتاً «واژگان سبکی» هستند و نه تخصصی، شامل مواردی مانند «کندوکاو کردن» (Delves)، «به نمایش گذاشتن» (Showcasing)، «بینظیر» (Unparalleled)، «گرانبها» (Invaluable) و «حیاتی» (Crucial) میشوند. تحلیلها نشان داد که افزایش استفاده از این واژگان حتی از تغییرات زبانی در دوران همهگیری کرونا، مانند رواج کلمه «ماسک»، چشمگیرتر بوده است.
گسترش بیوقفه استفاده از هوش مصنوعی
این مطالعه نشان میدهد که روند استفاده از هوش مصنوعی در نگارش مقالات علمی در حال «افزایش بیوقفه» است و در برخی حوزهها و مناطق جغرافیایی شایعتر است. برای مثال، در رشتههایی مانند محاسبات و بیوانفورماتیک و در مقالاتی از کشورهای چین و کره جنوبی، بیش از ۲۰ درصد چکیدهها احتمالاً با کمک هوش مصنوعی نگارش شدهاند.
محققان همچنین دریافتند که با افزایش آگاهی عمومی، برخی نویسندگان در حال یادگیری روشهایی برای پنهان کردن نشانههای استفاده از هوش مصنوعی هستند؛ مانند حذف کلمات شاخص یا تغییر دستورات ورودی به چتباتها. با این حال، نگرانی اصلی این است که مطالعات کنونی نمیتوانند مشخص کنند هوش مصنوعی دقیقاً چگونه استفاده شده است: آیا برای ویرایش متن و ترجمه، که کاربردهایی قابل قبول هستند، یا برای تولید بخشهای بزرگی از محتوای علمی بدون نظارت کافی؟
ضرورت تدوین دستورالعملهای اخلاقی
این پژوهش بر لزوم تدوین دستورالعملهای شفاف و سیاستهای مشخص برای استفاده اخلاقی از هوش مصنوعی در جامعه علمی تأکید دارد. فقدان استانداردهای روشن میتواند به کاهش اعتماد به نتایج تحقیقات علمی منجر شود، بهویژه اگر محتوای تولیدشده توسط هوش مصنوعی بدون نظارت دقیق منتشر شود.

