به گزارش سرویس تازه های دنیای فناوری مجله عصر اطلاعات ،
بهنقل از نسخهی پیشانتشار مقالهای که اواخر ماه دسامبر در وبسایت بیوآرکایو منتشر شد، چتبات هوش مصنوعی ChatGPT میتواند چنان چکیدههای علمی جعلی و قانعکنندهای بنویسد که دانشمندان اغلب نمیتوانند آنها را شناسایی کنند. پژوهشگران دربارهی پیامدهای این اتفاق برای علم اختلافنظر دارند.
بهگزارش نیچر، ساندرا واچر از دانشگاه آکسفورد بریتانیا که درزمینهی فناوری و تنظیمگری مطالعه میکند و در پژوهش مشارکت نکرده است، با ابراز نگرانی دربارهی توانایی ChatGPT میگوید اگر اکنون در وضعیتی باشیم که متخصصان نتوانند تشخیص دهند چه چیز واقعی است یا نه، واسطهگری آنها که برای راهنمایی ما در موضوعات پیچیده بهشدت موردنیاز است، بیاثر خواهد شد.
چتبات ChatGPT در پاسخ به درخواستهای کاربران، متنی واقعبینانه و هوشمندانه خلق میکند. این چتبات مدل زبانی بزرگ و سامانهای مبتنیبر شبکههای عصبی است که با دریافت مقادیر عظیمی از متون تولیدشدهی انسانی، یاد میگیرد وظیفهاش را انجام دهد. شرکت نرمافزاری OpenAI در سانفرانسیسکو کالیفرنیا، این ابزار را ۳۰ نوامبر منتشر کرد و استفاده از آن رایگان است.
از زمان انتشار ChatGPT، پژوهشگران با مسائل اخلاقی دربارهی استفاده از آن دستبهگریبان بودهاند؛ زیرا تشخیص تفاوت بسیاری از متون خروجی آن با متن نوشتهشده بهدست انسان دشوار است. اکنون گروهی از پژوهشگران بهسرپرستی کاترین گائو از دانشگاه نورثوسترن در شیکاگو با استفاده از این چتبات، چکیدههای مقالههای پژوهشی مصنوعی تولید کردهاند تا دریابند آیا دانشمندان میتوانند غیرواقعیبودن آنها را تشخیص دهند یا نه.
پژوهشگران از چتبات خواستند تا ۵۰ چکیدهی پژوهشی پزشکی را براساس منتخبی از مقالههای منتشرشده در نشریات علمی معتبر ازجمله جاما، ژورنال پزشکی نیو انگلند، بیامجی، لنست و نیچر مدیسن بنویسد. آنها سپس با استفاده از شناساگر سرقت علمی و شناساگر خروجی هوش مصنوعی، متون تولیدشده را با چکیدههای واقعی مقایسه کردند و از گروهی از پژوهشگران پزشکی خواستند تا چکیدههای مصنوعی را تشخیص دهند.
نتیجه شگفتانگیز بود. جستوجوگر سرقت علمی با بررسی متون تولیدشده با ChatGPT حتی یک مورد سرقت علمی را شناسایی نکرد و میانگین امتیاز اصالت ۱۰۰ درصد را به آنها داد. درمقابل، شناساگر خروجی هوش مصنوعی توانست ۶۶ درصد از چکیدههای تولیدشده را شناسایی کند. بااینحال، داوران انسانی عملکرد چندان بهتری نداشتند. آنها ۶۸ درصد از چکیدههای تولیدشده و ۸۶ درصد از چکیدههای واقعی را بهدرستی شناسایی کردند. بهعبارتدیگر، دانشمندان بهاشتباه ۳۲ درصد از چکیدههای تولیدشده را واقعی و ۱۴ درصد از چکیدههای واقعی را جعلی تشخیص دادند.
گائو و همکارانش در نسخهی پیشانتشار مطالعهی خود میگویند: «ChatGPT چکیدههای علمی باورپذیری مینویسد. مرزهای استفادهی اخلاقی و پذیرفتنی از مدلهای زبانی بزرگ برای کمک به نوشتن متون علمی هنوز مشخص نیست.»
واچر میگوید اگر دانشمندان نتوانند صحت پژوهشهای علمی را تعیین کنند، احتمالاً «عواقب وحشتناکی» درانتظارمان خواهد بود. بهگفتهی او، متون تولیدشده علاوهبر مشکلسازبودن برای پژوهشگران، پیامدهایی برای کل جامعه نیز خواهند داشت؛ زیرا پژوهشهای علمی نقش بزرگی در جوامع ما ایفا میکنند. بهعنوان مثال، تصمیمهای سیاسی ممکن است برپایهی پژوهشی نادرست اتخاذ شوند.
آرویند نارایانان، دانشمند کامپیوتر در دانشگاه پرینستون در نیوجرسی میگوید: «بعید است هیچ دانشمند مهمی از ChatGPT برای تولید چکیده استفاده کند.» او میافزاید اینکه میتوان چکیدههای تولیدشده را شناسایی کرد یا نه، پرسشی «بیاهمیت» است. پرسش اصلی این است که آیا این ابزار میتواند چکیدهای صحیح و قانعکننده ایجاد کند یا خیر؟ چتبات نمیتواند چنین کاری کند و درنتیجه، مزیت استفاده از آن بسیار جزئی است.
ایرن سلیمان در شرکت هوش مصنوعی هاگینگ فیس دربارهی تأثیرات اجتماعی هوش مصنوعی پژوهش میکند. او نگران هرگونه اتکا به مدلهای زبانی بزرگ برای تفکر علمی است. او میگوید این مدلها براساس اطلاعات گذشته آموزش داده میشوند؛ درحالیکه پیشرفت اجتماعی و علمی اغلب ازطریق تفکرات نو حاصل میشود که با افکار گذشته تفاوت دارند.»
بمنظور اطلاع از دیگر خبرها به صفحه اخبار فناوری مراجعه کنید.