مقاله نوشته‌شده با هوش مصنوعی ChatGPT دانشمندان را فریب می‌دهد

به گزارش سرویس تازه های دنیای فناوری مجله عصر اطلاعات ،

به‌نقل از نسخه‌ی پیش‌انتشار مقاله‌ای که اواخر ماه دسامبر در وب‌سایت بیوآرکایو منتشر شد، چت‌بات هوش مصنوعی ChatGPT می‌تواند چنان چکیده‌های علمی جعلی و قانع‌کننده‌ای بنویسد که دانشمندان اغلب نمی‌توانند آن‌ها را شناسایی کنند. پژوهشگران درباره‌ی پیامد‌های این اتفاق برای علم اختلاف‌نظر دارند.

به‌گزارش نیچر، ساندرا واچر از دانشگاه آکسفورد بریتانیا که در‌زمینه‌ی فناوری و تنظیمگری مطالعه می‌کند و در پژوهش مشارکت نکرده است، با ابراز نگرانی درباره‌ی توانایی ChatGPT می‌گوید اگر اکنون در وضعیتی باشیم که متخصصان نتوانند تشخیص دهند چه چیز واقعی است یا نه، واسطه‌گری آن‌ها که برای راهنمایی ما در موضوعات پیچیده به‌شدت مورد‌نیاز است، بی‌اثر خواهد شد.

چت‌بات ChatGPT در پاسخ به درخواست‌های کاربران، متنی واقع‌بینانه و هوشمندانه خلق می‌کند. این چت‌بات مدل زبانی بزرگ و سامانه‌ای مبتنی‌بر شبکه‌های عصبی است که با دریافت مقادیر عظیمی از متون تولیدشده‌ی انسانی، یاد می‌گیرد وظیفه‌اش را انجام دهد. شرکت نرم‌افزاری OpenAI در سان‌فرانسیسکو کالیفرنیا، این ابزار را ۳۰ نوامبر منتشر کرد و استفاده از آن رایگان است.

از زمان انتشار ChatGPT، پژوهشگران با مسائل اخلاقی درباره‌ی استفاده از آن دست‌به‌گریبان بوده‌اند؛‌ زیرا تشخیص تفاوت بسیاری از متون خروجی آن با متن نوشته‌شده به‌دست انسان دشوار است. اکنون گروهی از پژوهشگران به‌سرپرستی کاترین گائو از دانشگاه نورث‌وسترن در شیکاگو با استفاده از این چت‌بات، چکیده‌های مقاله‌های پژوهشی مصنوعی تولید کرده‌اند تا دریابند آیا دانشمندان می‌توانند غیرواقعی‌بودن آن‌ها را تشخیص دهند یا نه.

پژوهشگران از چت‌بات خواستند تا ۵۰ چکیده‌ی پژوهشی پزشکی را براساس منتخبی از مقاله‌های منتشرشده در نشریات علمی معتبر ازجمله جاما، ژورنال پزشکی نیو انگلند، بی‌ام‌جی، لنست و نیچر مدیسن بنویسد. آن‌ها سپس با استفاده از شناساگر سرقت علمی و شناساگر خروجی هوش مصنوعی، متون تولیدشده را با چکیده‌های واقعی مقایسه کردند و از گروهی از پژوهشگران پزشکی خواستند تا چکیده‌های مصنوعی را تشخیص دهند.

نتیجه شگفت‌انگیز بود. جست‌وجوگر سرقت علمی با بررسی متون تولیدشده با ChatGPT حتی یک مورد سرقت علمی را شناسایی نکرد و میانگین امتیاز اصالت ۱۰۰ درصد را به آن‌ها داد. درمقابل، شناساگر خروجی هوش مصنوعی توانست ۶۶ درصد از چکیده‌های تولیدشده را شناسایی کند. بااین‌حال، داوران انسانی عملکرد چندان بهتری نداشتند. آن‌ها ۶۸ درصد از چکیده‌های تولیدشده و ۸۶ درصد از چکیده‌های واقعی را به‌درستی شناسایی کردند. به‌عبارت‌دیگر، دانشمندان به‌اشتباه ۳۲ درصد از چکیده‌های تولیدشده را واقعی و ۱۴ درصد از چکیده‌های واقعی را جعلی تشخیص دادند.

گائو و همکارانش در نسخه‌ی پیش‌انتشار مطالعه‌ی خود می‌گویند: «ChatGPT چکیده‌های علمی باورپذیری می‌نویسد. مرزهای استفاده‌ی اخلاقی و پذیرفتنی از مدل‌های زبانی بزرگ برای کمک به نوشتن متون علمی هنوز مشخص نیست.»

واچر می‌گوید اگر دانشمندان نتوانند صحت پژوهش‌های علمی را تعیین کنند، احتمالاً «عواقب وحشتناکی» درانتظارمان خواهد بود. به‌گفته‌ی او، متون تولیدشده علاوه‌بر مشکل‌سازبودن برای پژوهشگران، پیامدهایی برای کل جامعه نیز خواهند داشت؛ زیرا پژوهش‌های علمی نقش بزرگی در جوامع ما ایفا می‌کنند. به‌عنوان مثال، تصمیم‌های سیاسی ممکن است برپایه‌ی پژوهشی نادرست اتخاذ شوند.

آرویند نارایانان، دانشمند کامپیوتر در دانشگاه پرینستون در نیوجرسی می‌گوید: «بعید است هیچ دانشمند مهمی از ChatGPT برای تولید چکیده استفاده کند.» او می‌افزاید اینکه می‌توان چکیده‌های تولیدشده را شناسایی کرد یا نه، پرسشی «بی‌اهمیت» است. پرسش اصلی این است که آیا این ابزار می‌تواند چکیده‌ای صحیح و قانع‌کننده ایجاد کند یا خیر؟ چت‌بات نمی‌تواند چنین کاری کند و درنتیجه، مزیت استفاده از آن بسیار جزئی است.

ایرن سلیمان در شرکت هوش مصنوعی هاگینگ فیس درباره‌ی تأثیرات اجتماعی هوش مصنوعی پژوهش می‌کند. او نگران هرگونه اتکا به مدل‌های زبانی بزرگ برای تفکر علمی است. او می‌گوید این مدل‌ها براساس اطلاعات گذشته آموزش داده می‌شوند؛ درحالی‌که پیشرفت اجتماعی و علمی اغلب ازطریق تفکرات نو حاصل می‌شود که با افکار گذشته تفاوت دارند.»

بمنظور اطلاع از دیگر خبرها به صفحه اخبار فناوری مراجعه کنید.

درباره ی امیر

مطلب پیشنهادی

راهنمای خرید بهترین گوشی سامسونگ از ۳ میلیون تا ۵۰ میلیون تومان [بهمن ۱۴۰۱]

به گزارش سرویس تازه های دنیای فناوری مجله عصر اطلاعات ، سامسونگ یکی از پیشتازان …