اطـلاعیه بـروزرسانی و تـخفیف هـای ویژه سـایت :

تک تایمز : OpenAI؛‌ شرکت مرموزی که می‌خواهد زودتر از همه به هوش مصنوعی قوی برسد

به گزارش سرویس تازه های دنیای فناوری مجله تک تایمز ،

در تقاطع خیابان هجدهم و فولسوم در سان‌فرانسیسکو، دفتر OpenAI شبیه انباری مرموز به‌نظر می‌رسد. این ساختمان قدیمی با آن نمای بی‌روح خاکستری و پنجره‌های دودی با کرکره‌های اکثرا پایین کشیده، همچون ورودی وزارت جادوی دنیای هری پاتر که به چشم «مشنگ‌ها» چیزی جز باجه‌تلفنی بی‌استفاده نبود که افراد عادی را از کنجکاوی درباره اتفاقات تاریخ‌ساز و حیرت‌انگیزی دور نگه می‌دارد که آن‌سوی دیوارهایش در جریان است. دورتادور این ساختمان نیز حروف قرمز رنگ‌ورورفته «PIONEER BUILDING» به‌چشم می‌خورد که از مالک قبلی آن کارخانه کامیون‌سازی پایونیر به‌جا مانده است؛ اما هیچ اثر و لوگویی از مالک فعلی آن نیست.

احتمالاً درباره Dall-E چیزهایی شنیده‌اید، اگر نشنیده‌اید، حتماً نگاهی به مقاله تکنولوژی Dall-E؛ هیاهوی این‌ روزهای شبکه‌های اجتماعی بیندازید!‍ بااین‌حال، بعید می‌دانم درباره شرکت توسعه‌‌دهنده این هوش مصنوعی که این روزها با قابلیت‌های خود کاربران اینترنتی را شگفت‌زده کرده است، چیزی بدانید. اینکه این شرکت تأثیرگذار تا این حد ناشناخته است، از کم‌کاری من و شما نیست؛ بلکه OpenAI تعمداً مرموز و پنهان‌کار است و تعداد افرادی که در جریان پروژه‌های آن قرار دارند، به‌طرز مشکوکی انگشت‌شمارند.

کارمندان OpenAI به‌رسم هرسال دورهم جمع می‌شوند تا درباره زمانی شرط‌بندی کنند که رؤیای بشر برای دستیابی به «هوش مصنوعی قوی» به حقیقت خواهد پیوست. هوش مصنوعی قوی/عمومی (Artificial general intelligence) یا AGI همانی است که در فیلم‌های علمی‌تخیلی نظیر ترمیناتور و Her می‌بینیم: سیستم دانای کل و خودآگاهی که در عین داشتن هوش انسان‌گونه و قابلیت استدلال و تفکر منطقی، توانایی‌های فرابشری دارد.

ساختمان OpenAI

ساختمان OpenAI هیچ نشانی از اتفاقات هیجان‌انگیزی ندارد که پشت دیوارهای‌ آن می‌افتد.

شرط‌بندی کارمندان OpenAI نوعی سرگرمی است و تخمین‌های آن‌ها اختلاف زیادی با یکدیگر دارد. بااین‌حال، در حوزه‌ای که هنوز امکان دستیابی به سیستم‌های خودمختار و خودآگاه موردبحث است، نیمی از کارمندان OpenAI واقعاً بر این باورند که دستیابی به AGI احتمالاً تا ۱۵ سال آینده صورت خواهد گرفت.

نیمی از کارمندان OpenAI معتقدند تا ۱۵ سال آینده به هوش مصنوعی قوی دست پیدا خواهند کرد

درواقع، مأموریت OpenAI این است که اولین شرکتی باشد که به هوش مصنوعی قوی دست پیدا می‌کند؛ اما نه برای تسلط کامل بر دنیا و به‌زانودرآوردن جمعیت جهان، بلکه برای اطمینان از اینکه این تکنولوژی بسیار پرخطر به‌طورایمن توسعه داده شود و توزیع مزایای آن به‌طور مساوی در جهان صورت گیرد (دست‌کم این چیزی است که خودشان ادعا می‌کنند!)

دانشمندان این حوزه عموما بر این باورند که اگر توسعه AGI مسیری با کمترین مقاومت را دنبال کند؛ یعنی نهادی نباشد تا برای آن قوانین سخت‌گیرانه وضع کند، به‌راحتی می‌تواند از کنترل خارج شود. این ترس و نگرانی با نگاه به وضعیت هوش مصنوعی ضعیف، یعنی همین مدل پردردسری که امروزه به‌شکل الگوریتم‌ها دورمان را احاطه کرده، توجیه‌پذیر است.

اگر سیر تکامل الگوریتم‌ها را به AGI تعمیم دهیم، می‌توان مطمئن بود که در نبود هدایت و مدیریت «چوپانی» خیرخواه، فرجام این تکنولوژی فاجعه‌بار خواهد بود. درست حدس زدید، شرکت OpenAI می‌خواهد نقش این چوپان خیرخواه را برای هدایت توسعه هوش مصنوعی قوی به‌سمت مسیری درست و امن بازی کند. در شرایطی که این حوزه تحت‌کنترل غول‌های دنیای فناوری است، OpenAI به‌عنوان شرکت غیرانتفاعی تأسیس شد تا دستاوردهای آن برای همه ارزش ایجاد کند، نه برای سهام‌داران.

در منشور OpenAI آمده است که دستیابی به هوش مصنوعی قوی ازطریق روش‌های امن چنان مهم است که اگر سازمان دیگری زودتر به این هدف نزدیک شد، این شرکت دست از رقابت برمی‌دارد و درعوض با آن سازمان همکاری می‌کند. همین موضع‌گیری منحصر‌به‌فرد و خیرخواهانه توجه رسانه‌ها و سرمایه‌گذاران را جلب کرد؛ به‌طوری‌که در سال ۲۰۱۹، سرمایه‌گذاری یک‌میلیارددلاری مایکروسافت را به‌همراه داشت. البته همان‌طورکه خودتان احتمال حدس زدید، واقعیت ماجرا طور دیگری رقم خورد.

OpenAI چگونه شکل گرفت؟

حوزه هوش مصنوعی از همان ابتدا در تلاش برای درک هوش انسانی و یافتن روش‌هایی برای تقلید از آن بوده است. در سال ۱۹۵۰، آلن تورینگ، ریاضی‌دان و دانشمند کامپیوتر مشهور انگلیسی، مقاله‌ای نوشت که با سؤال جنجالی «آیا ماشین‌ها می‌توانند فکر کنند؟» شروع می‌شد. شش سال بعد، گروهی از دانشمندان که مجذوب این ایده شده بودند، در کالج دارتموث گردهم آمدند تا چهارچوب و اصول رشته هوش مصنوعی را تعیین کنند.

مشکل این‌‌‌‌جا است که AGI از آن سال تاکنون، همچنان موضوع مبهمی باقی مانده است. هیچ‌کس نمی‌تواند شکل احتمالی آن یا حداقل کاری را توصیف کند که از عهده‌اش برمی‌آید. برای مثال، هنوز معلوم نیست که قرار است فقط یک مدل هوش مصنوعی قوی داشته باشیم یا بیشتر و اینکه شاید هوش انسانی تنها جزئی از کل باشد. افزون‌براین، دیدگاه‌ها درباره وظایف AGI نیز متفاوت است.

از دید رمانتیک، هوش ماشینی بی‌نیاز از خواب و رها از ناکارآمدی تعاملات انسانی، می‌تواند مشکلات پیچیده‌ای همچون تغییرات اقلیمی و فقر و گرسنگی جهانی را حل کند. اکثر دانشمندان این حوزه معتقدند دستیابی به چنین قابلیت‌های پیشرفته‌ای ده‌ها سال یا حتی قرن‌ها طول می‌کشد؛ البته اگر اصلاً توسعه چنین چیزی ممکن باشد. بسیاری نیز نگران‌اند که تلاش بیش‌از‌حد برای پیگیری این هدف ممکن است به عواقب جبران‌ناپذیری منجر شود.

در دهه‌های ۱۹۷۰ و ۱۹۸۰ و ۱۹۹۰، حوزه هوش مصنوعی سرشار از وعده‌های بزرگ، اما اجرای ناامیدکننده بود. تا اینکه بودجه شرکت‌ها ته کشید و زخم‌های عمیقی بر نسل کامل از پژوهشگرانی بر جای گذاشت که تمام وقت خود را پای این پروژه گذاشته بودند. در این فضا بود که OpenAI در ۱۱ دسامبر ۲۰۱۵ با هیاهوی رسانه‌ای به وادی هوش مصنوعی قدم گذاشت.

این اولین شرکتی نبود که قصد خود را برای دستیابی به AGI اعلام می‌کرد؛ چراکه شرکت DeepMind که در سال ۲۰۱۴ گوگل آن را ازآنِ خود کرد، پنج سال زودتر از شکل‌گیری OpenAI، وعده دستیابی به AGI را داده بود. گفتنی است این شرکت ماه پیش ادعا کرد در آستانه دستیابی به AGI قرار دارد.

مشکل AGI این است که هیچ‌کس نمی‌داند قرار است چه شکلی باشد

داستان OpenAI فرق داشت؛ زیرا با سرمایه‌گذاری هنگفت یک‌میلیارددلاری افراد نام‌آشنایی چون ایلان ماسک و سم آلتمن و پیتر تیل، هم‌بنیان‌گذار پی‌پال تأسیس شد. این فهرست پرستاره از سرمایه‌گذاران درکنار اسامی به‌ همین اندازه مشهور کارمندانش،‌ هیاهوی رسانه‌ای بزرگی به‌راه انداخت. گرگ براکمن که زیرساخت‌های فنی شرکت فین‌تک Stripe زیرنظر او بود، مدیر ارشد فناوری OpenAI شد؛ ایلیا سوتسکور که زیرنظر جفری هینتون، پیش‌گام حوزه هوش مصنوعی، تحصیل کرده بود، مدیر تحقیقات شد؛ و هفت پژوهشگر تازه‌فارغ‌التحصیل‌شده از دانشگاه‌های برتر یا دست‌چین‌شده از شرکت‌های دیگر نیز تیم فنی اصلی را تشکیل دادند.

ماسک فوریه ۲۰۱۸ اعلام کرد که به‌دلیل اختلاف‌نظر بر سر اهداف و برنامه‌های OpenAI از این شرکت جدا شده است. یک ماه بعد، آلتمن از ریاست شتاب‌دهنده Y Combinator کناره‌گیری کرد تا مدیرعامل OpenAI شود. مهم‌تر از تیم پرستاره سرمایه‌‌گذاران و اعضا، وضعیت غیرانتفاعی آن است. در اطلاعیه تأسیس این شرکت آمده است:

وجود مؤسسه‌ پژوهشی پیشرویی که بتواند دستیابی به نتایج مفید برای همه را به منافع شخصی خود ترجیح دهد، مهم است. ما پژوهشگران را تشویق می‌کنیم تا پروژه‌های خود را چه به‌صورت مقاله یا پست وبلاگ یا کد دردسترس عموم قرار دهند و پتنت‌های ما (در صورت وجود) با کل دنیا به اشتراک گذاشته خواهند شد.

OpenAI با این اعلامیه خود را در تقابل مستقیم با آزمایشگاه‌های دیگر ازجمله DeepMind قرار داد و تلویحاً گفت هیچ‌کدام‌ از‌ آن‌ها نمی‌توانند در خدمت بشر باشند؛ چون دامنه فعالیت‌های‌ آن‌ها را منافع تجاری تعیین و محدود می‌کند.

تیم هیئت مدیره OpenAI

از چپ: گرگ براکمن، هم‌بنیان‌گذار و مدیر ارشد فناوری؛ ایلیا سوتسکور هم‌بنیان‌گذار و دانشمند ارشد؛ داریو آمودی، مدیر تحقیقات.

در فضایی که پژوهش‌ها به‌سرعت به‌سمت خصوصی‌‌شدن و تمرکز بر سودهای مالی کوتاه‌مدت پیش می‌رفت، OpenAI راه جدیدی برای تأمین بودجه‌‌ی خود ارائه کرد. تعداد اعضای تیم نیز کم بود و همه همدیگر را از نزدیک می‌شناختند. ساختار مدیریتی نیز صمیمی و مسطح بود و هرکسی می‌توانست به‌راحتی ایده‌های خود را مطرح و در بحث‌ها شرکت کند. ماسک نقش پررنگی در شکل‌دادن به اسطوره جمعی این شرکت ایفا کرد. پیتر عبیل، استاد دانشگاه برکلی که زمانی در OpenAI کار می‌کرد، حرف‌های ماسک را این‌طور به‌یاد می‌آورد:

طوری که او ماجرا را برای من تشریح کرد، این بود که «ببین، من می‌فهمم که احتمالاً خیلی مانده تا به AGI برسیم؛ اما اگر این‌طور نبود چه؟ شاید حتی ۱ درصد یا ۰/۱ درصد احتمال این باشد که پنج تا ده سال دیگر محقق شود. بهتر نیست راجع به آن با دقت و احتیاط زیاد فکر کنیم؟» این حرفش مرا خیلی تحت‌تأثیر قرار داد.

ساختار سازمانی غیررسمی OpenAI باعث ابهام و سردرگمی درباره اهداف و مسیر این شرکت نیز شده بود. در می ۲۰۱۶، داریو آمودی که آن زمان پژوهشگر گوگل بود، با آلتمن و براکمن ملاقات کرد و به آن‌ها گفت هیچ‌کس از کار آن‌ها سر در نمی‌آورد. مقاله‌ای در New Yorker در سال ۲۰۱۶ با این لید که «آیا آلتمن آمده تا مشکلات دنیا را حل کند یا بر سیلیکون ولی حاکم شود»، نشان داد که حتی خود اعضای تیم هم نمی‌دانند مشغول انجام چه کاری هستند. براکمن در پاسخ به سؤال آمودی درباره هدف OpenAI گفته بود:‌ «هدف ما در‌حال‌حاضر این است که بهترین کاری را که می‌توان انجام داد،‌ انجام دهیم؛ البته این هدف کمی گنگ است.»

باوجوداین، آمودی چند ماه بعد به این تیم پیوست. خواهرش، دنیلا، پیش‌تر با براکمن کار کرده بود و آمودی بسیاری از اعضای OpenAI را می‌شناخت. بعد از دو سال و به‌درخواست براکمن، دنیلا نیز به آن‌ها ملحق شد. براکمن در گفت‌وگو با خبرنگار MIT گفت: «فکرش را بکن… ما کارمان را با هیچ شروع کردیم. ما فقط این فکر ایدئال را در سر داشتیم که می‌خواستیم AGI در مسیر درستی توسعه پیدا کند.»

۱۵ ماه پس از تأسیس OpenAI، مدیریت به این نتیجه رسید که دیگر وقت آن فرارسیده است که اهداف و پروژه‌های این شرکت شکل و شمایل منسجم‌تر و متمرکزتری به خود بگیرند. این‌چنین شد که براکمن و چند نفر دیگر از اعضای اصلی شروع به تنظیم سند داخلی شرکت کردند که قرار بود مسیر رسیدن به هوش مصنوعی قوی را برایشان روشن کند؛ اما آن‌ها به‌سرعت متوجه مشکل بسیار بزرگی شدند: شرکت نمی‌توانست با وضعیت غیرانتفاعی به کار خود ادامه دهد.

به‌گفته براکمن، اگر OpenAI می‌خواست در این عرصه حرفی برای گفتن داشته باشد، به حجم زیادی از سرمایه‌گذاری نیاز داشت که آن را در سطح رقابت با شرکت‌های دیگر قرار دهد. بدین‌ترتیب، مارس ۲۰۱۹، OpenAI وضعیت کاملاً غیرانتفاعی خود را کنار گذاشت و به شرکتی سودمحور، اما با محدودیت بازده سرمایه‌ ۱۰۰ برابری تبدیل شد. کمی بعد، مایکروسافت یک‌میلیارد دلار در آن سرمایه‌گذاری کرد و قرار شد با همکاری یکدیگر، برای سرویس رایانش ابری آژور تکنولوژی‌‌های هوش مصنوعی توسعه دهند.

همان‌طورکه پیش‌بینی‌شدنی بود،‌ این اقدام موجی از اتهامات مبنی‌بر برگشت OpenAI از حرف خود را برانگیخت. کاربری در Hacker News بلافاصله پس از اعلام این خبر پرسید «اصلاً مگر محدودیت بازگشت ۱۰۰ برابری سرمایه، محدودیت محسوب می‌شود؟» و درادامه گفت سرمایه‌گذاران اولیه گوگل، تنها حدود ۲۰ برابر سرمایه‌‌ی خود را از خرید سهام این شرکت دریافت کردند. این کاربر افزود:

شما روی این شرط بسته‌اید که ساختار سازمانی شرکتتان می‌تواند بازده سرمایه‌‌ای بسیار بزرگ‌تر از گوگل داشته باشد؛ اما درعین‌حال نمی‌خواهید قدرت بی‌رویه در دستان شما متمرکز شود؟ چطور چنین چیزی ممکن است؟ قدرت مگر چیزی غیر از تمرکز منابع است؟

این اقدام بسیاری از کارمندان OpenAI را نیز به‌دلایل مشابه آزرده‌خاطر کرده بود. مدیریت برای آرام‌کردن جوّ، در اسناد محرمانه‌ای به سؤال آن‌ها مبنی‌بر اینکه «آیا می‌توانم به OpenAI اعتماد کنم؟» جواب داد «بله» و بعد در یک پاراگراف دلایل این اعتماد را توضیح داد.

چرا این‌قدر پنهان‌کاری؟

OpenAI برخلاف اسمش، شرکت چندان روراستی نیست و اکثر اتفاقاتی که پشت دیوارهای آن می‌افتد، از دید خبرنگاران و عموم مردم پنهان است. درواقع، به‌نظر می‌رسد در تمام سال‌های فعالیت این شرکت، تنها یکی از خبرنگاران MIT اجازه داشته است در ساختمان این شرکت حاضر شود و با اعضای تیم گفت‌وگو کند.

طبق توصیف این خبرنگار، در طبقه اول چند فضای مشترک و دو اتاق کنفرانس به‌چشم می‌خورد. یکی از این اتاق‌ها که برای جلسات بزرگ‌تر در نظر گرفته شده است، «ادیسه فضایی» (A Space Odyssey) نام دارد. فضای دیگر که بیشتر شبیه باجه‌تلفن است تا اتاق کنفرانس، «شوخی بی‌پایان» (Infinite Jest)، عنوان رمان معروف دیوید فاستر والاس، نامیده می‌شود. این اتاق، تنها جایی است که خبرنگاران اجازه دارند به آن دسترسی داشته باشند و بازدید آن‌ها از طبقات دوم و سوم ممکن نیست؛ جایی که پذیرای میز کار اعضای تیم و چندین ربات و تمام اتفاقات هیجان‌انگیز است.

لوگوی OpenAI

نمایی از لوگو OpenAI داخل ساختمان این شرکت.

به‌نظر می‌رسد آنچه OpenAI به‌طورعلنی اعلام می‌کند با نحوه عملکردش پشت درهای بسته در تناقض باشد. با گذشت زمان، رقابت شدید و فشار فزاینده برای دستیابی به بودجه بیشتر باعث شد این شرکت از آرمان‌هایی که در زمان تأسیس در سر داشت، ازجمله شفافیت و روراستی و روحیه همکاری فاصله بگیرد.

بسیاری از کارمندان این شرکت هنگام مصاحبه با MIT، اصرار می‌کردند که نامشان فاش نشود؛ چون اجازه نداشتند درباره پروژه‌های شرکت صحبت کنند یا از واکنش مدیریت می‌ترسیدند. از رفتار آن‌ها این تصویر در ذهن شکل می‌گیرد که OpenAI با وجود تمام آرمان‌های ستودنی‌اش، به‌شدت درگیر حفظ رازهای شرکت و وجهه خود و وفاداری کارمندان است.

اولین‌بار مردم با خبر انتشار مدل زبانی GPT-2 از وجود OpenAI باخبر شدند

OpenAI اگرچه در سال ۲۰۱۵ تأسیس شد، اولین‌باری که مردم از رسانه‌ها چیزی درباره‌ فعالیت‌هایش شنیدند، ۱۴ فوریه ۲۰۱۹ بود که خبر پژوهش تحسین‌انگیزی منتشر شد: مدلی به نام GPT-2 که می‌توانست مقالات قانع‌کننده‌ای را تنها با فشار‌دادن یک دکمه تولید کند. برای مثال، می‌شد به این مدل یک جمله از کتاب «ارباب حلقه‌ها» یا جمله آغازین یک خبر درباره کشفیات جدید در حوزه هوش مصنوعی داد تا چند پاراگراف متن مرتبط با موضوع درخواست‌شده را ایجاد کند؛ به‌طوری‌که تشخیص اینکه این متن را هوش مصنوعی نوشته و نه انسان، واقعاً دشوار بود.

این دستاورد شگفت‌انگیز با مشکل بزرگی همراه بود. OpenAI می‌گفت این مدل خیلی خطرناک است و نمی‌توان آن را دردسترس عموم قرار داد و اینکه اگر این مدل به‌‌دست افراد ناشایست و خلاف‌کار بیفتد، می‌تواند خیلی راحت به سلاحی برای تولید اطلاعات نادرست در مقیاسی بسیار وسیع تبدیل شود.

معرفی پروژه GPT-2 واکنش شدید دانشمندان را برانگیخت. برخی می‌گفتند هشدارهای OpenAI چیزی جز شیرین‌کاری تبلیغاتی نیست؛ چون GPT-2 هنوز آن‌قدر پیشرفته نشده است که بخواهد در این‌ حدواندازه خطرناک باشد. اگر هم واقعاً خطرناک بود، چه لزومی داشت این شرکت وجود آن را اعلام کند و بعد جلو بررسی موشکافانه مردم را بگیرد؟ باور بسیاری این بود که OpenAI سعی می‌کرد از هراسی که درباره هوش مصنوعی بین مردم ایجاد کرده بود، برای بر سر زبان انداختن نام خود استفاده کند.

واکنش‌های منفی علیه GPT-2 به این‌جا ختم نشد؛ زیرا مردم احساس می‌کردند OpenAI داشت باردیگر از وعده‌های اولیه‌اش مبنی بر شفافیت و روراستی فاصله می‌گرفت. با اعلام خبر سودمحور‌شدن OpenAI تنها یک ماه بعد از معرفی GPT-2 و تصمیم این شرکت به جلوگیری از دسترسی عموم به این پروژه، مردم درباره ماهیت خیرخواهانه OpenAI دچار شک‌و‌تردید شدند. آن‌ها با خود می‌گفتند نکند این تکنولوژی برای این از دسترس عموم خارج شده است تا OpenAI بتواند برای آن مجوز بگیرد و بدین‌ترتیب، از انتشار آن به‌صورت متن‌باز، همان‌طور‌که در ابتدا وعده داده بود، شانه خالی کند؟

اتاق کنفرانس Infinite Jest در شرکت OpenAI

اتاق کنفرانس Infinite Jest در شرکت OpenAI.

مردم خبر نداشتند که GPT-2، تنها پروژه‌ای نبود که OpenAI تصمیم گرفته بود آن را مخفی‌ کند؛ زیرا در آن زمان، پروژه دیگری که حالا آن را با نام Dall-E می‌شناسیم، چندین سال به‌صورت کاملاً محرمانه‌ در حال توسعه بود. شاید برای شما هم این سؤال پیش آمده است که «چرا شرکتی که با شعار شفافیت تأسیس شد و مأموریتش را توزیع مساوی هوش مصنوعی بین تمام مردم دنیا اعلام کرد، پروژه‌هایش را در خفا توسعه می‌دهد و جلو دسترسی آزاد مردم به آن‌ها را می‌گیرد؟» درباره راه‌های دستیابی به هوش مصنوعی قوی دو نظریه رایج وجود دارد که شاید دلیل این پنهان‌کاری را کمی توضیح دهد:

بسیاری از پژوهشگران جایی بین این دو نظریه ایستاده‌اند؛ اما OpenAI فقط‌وفقط به‌ نظریه اول معتقد است. اکثر دستاوردهای این شرکت که در‌ادامه با برخی از مهم‌ترین آن‌ها آشنا خواهید شد، محصول به‌کارگیری حجم چشمگیری از قدرت محاسباتی کامپیوتر برای ارتقای عملکرد نوآوری‌هایی است که در آزمایشگاه‌های دیگر توسعه یافته است. برای مثال، تیمی به نام «Foresight» (آینده‌نگری) در این شرکت مسئول آن است تا توانایی‌های هوش مصنوعی را با خوراندن حجم عظیم‌تری از داده به الگوریتم‌های موجود و به‌کارگیری قدرت رایانشی بیشتر افزایش دهد.

OpenAI معتقد است با همین تکنولوژی‌های موجود می‌توان به AGI دست یافت

در پسِ این طرز فکر بود که پروژه Dall-E، مدل بسیار پیشرفته‌ای که می‌تواند درخواست‌های متنی را به تصاویر شگفت‌انگیزی تبدیل کند، تا مدت‌ها از دید عموم مخفی نگه داشته شده بود؛ چراکه OpenAI این دانش را مزیت رقابتی اصلی خود می‌داند. به کارمندان و کارآموزان صراحتاً دستور داده شده بود تا هیچ حرفی درباره این پروژه نزنند و افرادی که شرکت را ترک کردند، به امضای قرارداد عدم‌افشای اطلاعات مجبور شده بودند.

تازه در ماه ژانویه ۲۰۲۰ بود که این شرکت به‌دور از هیاهوی رسانه‌ای معمول و خیلی بی‌سروصدا مقاله‌ای را در یکی از پایگاه‌های داده متن‌باز برای تحقیقات هوش مصنوعی منتشر کرد. افرادی که تا آن لحظه به پنهان‌کاری و سکوت درباره این پروژه مجبور شده بودند، از تصمیم این شرکت به انتشار این مقاله سر در نمی‌آوردند. اوایل، قرار نبود OpenAI درگیر این حجم از مخفی‌کاری شود؛ اما به‌تدریج این رویه به عادت تبدیل شد.

حالا OpenAI دیگر به اصل شفافیت به‌عنوان بهترین راه برای ساخت AGI امن و مفید اعتقادی ندارد و بسیاری از پروژه‌های در حال توسعه آن در هاله‌‌ی غلیظی از ابهام و پنهان‌کاری فرورفته است. باوجوداین، توضیحی که خود OpenAI درباره این مخفی‌کاری می‌دهد،‌ چیز دیگری است. یکی از سخن‌گویان این شرکت در بیانیه‌‌ای گفت: «می‌خواهیم نتایج تحقیقاتمان را آهسته منتشر کنیم تا پیش از رها‌کردن آن در دستان بشر، متوجه ریسک‌های احتمالی و تأثیرات آن شویم.»

با‌این‌حال، پروژه Dall-E که این روزها سروصدای زیادی در اینترنت به‌راه انداخته و درحال‌حاضر در فاز بتای خصوصی است، تا چهار سال بزرگ‌ترین پروژه مخفی OpenAI بود. افرادی که از نزدیک درگیر توسعه این پروژه بودند، می‌گفتند تیم مدیریت OpenAI بر این باور است که Dall-E نویدبخش‌ترین راه برای دستیابی به هوش مصنوعی قوی است. عجیب نیست با چنین باوری، OpenAI بخواهد پیشرفت‌هایش را از دید شرکت‌های دیگر پنهان کند.

دستاوردهای مهم OpenAI در حوزه هوش مصنوعی

به‌جز Dall-E که نسخه دوم آن ۶ آوریل ۲۰۲۲ دراختیار تعداد معدودی از هنرمندان قرار گرفت و ما به‌طورمفصل درباره‌اش در مقاله دیگری صحبت کردیم، OpenAI در مدت ۷ سال از حیات خود، دستاوردهای مهمی در حوزه هوش مصنوعی داشته که به‌طور خاص، بر موضوع خلاقیت و ذوق هنری دست گذاشته است. در‌ادامه، برخی از آن‌ها را معرفی می‌کنیم.

بات ‌OpenAI Five – آگوست ۲۰۱۷

OpenAI Five اولین سیستم هوش مصنوعی است که توانست قهرمان‌های جهان را در بازی Dota 2 شکست دهد. این بات روش بازی را از صفر و به‌طور خودآموز یاد گرفت و از یادگیری تقلیدی یا جست‌وجوی درختی کمک نگرفت. به‌گفته این شرکت، توسعه OpenAI Five اولین قدم به‌سمت ساخت سیستم‌های هوش مصنوعی است که بتوانند در موقعیت‌های پیچیده و پرهرج‌ومرج که رفتارها و واکنش‌های انسان‌های واقعی را شامل می‌شود، به اهداف تعیین‌شده دست پیدا کنند.

مدل زبانی GPT-2 – نوامبر ۲۰۱۹

GPT مخفف Generative Pre-trained Transformer (مولد از‌پیش‌آموزش‌یافته ترانسفورمر)، هوش مصنوعی متن‌بازی است که کارهای شگفت‌انگیزی انجام می‌دهد؛ ازجمله ترجمه‌، پاسخ به سؤالات، خلاصه‌کردن متن و تولید متنی که گاهی تشخیص آن از نوشته انسانی به‌شدت دشوار خواهد بود. این مدل برپایه معماری شبکه عصبی ترانسفورمر ایجاد شده است که گوگل آن را در سال ۲۰۱۷ طراحی کرد و در ساخت مدل زبانی پیشرفته‌ LaMDA به‌کار برد.

مزیت GPT-2 به متن‌باز‌بودن آن است؛ به‌طوری‌که کد منبع آن به‌رایگان دردسترس عموم قرار دارد و می‌تواند کمک‌حال استارتاپ‌هایی باشد که می‌خواهند مسیر توسعه این مدل زبانی را ادامه دهند. جالب این‌‌‌جا است در همان سال بود که OpenAI تصمیم گرفت ساختار غیرانتفاعی را کنار بگذارد و جلو دسترسی عموم به کد منبع پروژه‌های آینده خود را بگیرد.

سیستم تولید آهنگ Jukebox – آوریل ۲۰۲۰

سیستم Jukebox واقعاً حیرت‌انگیز است. کافی است به این بات ژانر آهنگ و نام هنرمند و متن آهنگ را بدهید تا نمونه‌ای از یک آهنگ جدید را از صفر تا صد برایتان تولید کند. در پروفایل ساندکلاد OpenAI، به نمونه‌هایی از آهنگ‌های تولید‌شده با هوش مصنوعی Jukebox می‌توانید گوش کنید. به‌گفته این شرکت، متن آهنگ‌ها به‌وسیله مدل زبانی و تعدادی از پژوهشگران نوشته شده است.

پیش از معرفی Jukebox، شرکت OpenAI سیستم MuseNet را در سال ۲۰۱۹ رونمایی کرد که دانش فوق‌العاده‌ای از انواع و اقسام ژانرهای موسیقی داشت و می‌توانست با ترکیب دو ژانر متفاوت، مثلاً کلاسیک و پاپ، آهنگی در ژانری جدید تولید کند.

مدل زبانی GPT-3 – ژوئن ۲۰۲۰

اگرچه GPT-2 در زمان خودش دستاورد مهمی محسوب می‌شد، به‌خاطر دسترسی به مجموعه داده محدود و تنها ۱٫۵ میلیارد پارامتر، در تولید متن‌هایی که بعد از چند پاراگراف تکراری و خسته‌کننده نشوند، قدرت مانور زیادی نداشت. نسخه سوم این مدل با ۱۷۵ میلیارد پارامتر در سال ۲۰۲۰ در فاز بتا عرضه شد؛ هرچند در اقدامی خلاف سیاست‌های شرکت، کد منبع آن هرگز دراختیار عموم قرار نگرفت. جالب است بدانید هوش مصنوعی LaMDA گوگل که یکی از مهندسانش در ادعایی عجیب آن را خودآگاه خوانده است، ۱۳۷ میلیارد پارامتر دارد و از GPT-3 ضعیف‌تر است.

GPT-3 در حوزه یادگیری ماشین معجزه می‌کند. کیفیت نمونه‌هایی که با استفاده از این هوش مصنوعی تولید‌ شده، به‌قدری شگفت‌انگیز است که به‌سختی می‌توان تشخیص داد آن‌ها را انسان ننوشته است. برای مثال، کاربری در توییتر که اجازه پیدا کرده است از GPT-3 استفاده کند، نمونه‌ متن‌هایی را به‌اشتراک گذاشته که در آن،‌ هوش مصنوعی در قالب یوتیوبرهای تکنولوژی فرو رفته است و درباره لپ‌تاپی صحبت می‌کند که روح ریچارد نیکسون را تسخیر کرده است. این کاربر جمله تأمل‌برانگیزی برای این توییت نوشته است: «یوتیوبرهای انسان، خدا رحمتتون کنه. هیچ‌وقت نمی‌تونید با محتوایی مثل این رقابت کنید.»

توییت نمونه متن GPT-3

متنی که GPT-3 برای درخواست «بررسی لپ‌تاپ تسخیرشده به‌وسیله روح ریچارد نیکسون» نوشته است.

OpenAI از ارائه GPT-3 به‌صورت پروژه‌ای متن‌باز خودداری کرد؛ چون مایکروسافت امتیاز دسترسی انحصاری به کد منبع این مدل را خریده است. البته عموم می‌توانند از این مدل استفاده کنند؛ هرچند باید اجازه‌‌ی دسترسی به این پلتفرم را از مایکروسافت بگیرند.

ابزار کدنویس Copilot – ژوئن ۲۰۲۱

مایکروسافت با سرمایه‌گذاری یک‌میلیارد‌دلاری در OpenAI برنامه‌های بزرگی در سر داشت. این شرکت علاوه‌بر کسب حق امتیاز GPT-3، ازطریق پلتفرم گیت‌هاب با OpenAI وارد همکاری شد تا ابزار هوش مصنوعی Copilot را توسعه دهند. Copilot درون برنامه ویرایشگر کد اجرا می‌شود و به توسعه‌دهندگان در نوشتن کد کمک می‌کند. استفاده از Copilot برای دانشجویان تأیید‌شده و گردانندگان پروژه‌های متن‌باز رایگان است و به‌گفته گیت‌هاب، در فایل‌هایی که Copilot در آن‌ها فعال است، نزدیک ۴۰ درصد کدها با این ابزار نوشته می‌شود. Copilot از مدل Codex شرکت OpenAI توسعه یافته که از نسل الگوریتم پرچم‌دار GPT-3 است.

منشور و استراتژی OpenAI

شاید یکی از دغدغه‌های مهم مربوط به هوش مصنوعی، بحث جایگزینی هوش انسانی باشد. حالا که با هوش ماشینی می‌توان آهنگ ساخت، داستان نوشت، عجیب‌وغریب‌ترین ایده‌ها را به‌تصویر کشید و حتی کد نوشت،‌ دیگر چه نیازی به هنرمندان و برنامه‌نویسان خواهد بود؟ پاسخ OpenAI به این دغدغه مهم در منشوری آماده است که به‌نوعی ستون فقرات این شرکت به‌شمار می‌رود و تمام استراتژی‌ها و سیاست کلی آن را به‌تصویر می‌کشد:

به‌باور ما، تأثیر هوش مصنوعی باید به‌گونه‌ای باشد که به تمام افراد آزادی اقتصادی بدهد تا بتوانند فرصت‌های جدیدی پیدا کنند که امروز تصور‌کردنی نیست.

برای براکمن پایبندی سرسختانه به این سند چیزی است که ساختار OpenAI را کارآمد می‌کند. براساس این منشور، تمام کارمندان به‌استثنای چند نفر، موظف‌اند که در یک اتاق کار کنند. بسیاری از آن‌ها به مهمانی‌های یکسانی می‌روند و به فلسفه «ایثار مؤثر» معتقدند که می‌گوید از شواهد و منطق باید برای تعیین مؤثرترین شیوه‌های بهبود جهان استفاده کرد. این منشور به‌قدری برای OpenAI مقدس است که حقوق کارمندان نیز به میزان پایبندی آن‌ها به اصول آن تعیین می‌شود.

منشور OpenAI به‌قدری مقدس است که حقوق کارمندان به میزان پایبندی به آن تعیین می‌شود

فردی که استراتژی OpenAI را در این منشور گردآوری کرده، کسی نیست جز داریو آمودی، کارمند سابق گوگل که ابتدا درباره هدف و مأموریت OpenAI شک‌و‌تردید داشت؛ اما حالا به‌عنوان مدیر تحقیقات این شرکت مشغول کار است.

آمودی استراتژی OpenAI را به دو بخش تقسیم می‌کند. بخش اول به برنامه‌ریزی برای دستیابی به قابلیت‌های پیشرفته هوش مصنوعی مربوط می‌شود و تیم‌های مختلف بر سر این شرط‌بندی‌ می‌کنند که توسعه کدام قابلیت درنهایت به AGI منتهی می‌شود. برای مثال، تیم زبان روی این نظریه شرط بسته است که هوش مصنوعی می‌تواند تنها ازطریق یادگیری زبان، به درک چشمگیری از جهان دست پیدا کند. درمقابل، تیم رباتیک معتقد است توسعه هوش ماشینی در سطح هوش انسانی به جسم فیزیکی نیاز دارد.

ازنظر OpenAI، هرکدام از این پیش‌بینی‌ها وزن یکسانی دارد و لازم است پیش از کنار گذاشتنشان، به‌طورکامل آزمایش شوند. آمودی در تأکید اهمیت این موضوع، مدل زبانی GPT-2 را مثال می‌زند که می‌تواند به‌طرز فوق‌العاده واقع‌گرایانه‌ای متن‌‌های پیچیده تولید کند. او می‌گوید:

زبان خالص مسیری بود که حوزه هوش مصنوعی و حتی برخی از ما ‌درباره‌اش شک‌وتردید داشتیم؛ اما الان به جایی رسیده است که با حیرت می‌گوییم این حوزه حرف زیادی برای گفتن دارد.

در‌نهایت، هدف این است که تعداد این تیم‌ها مرتب کمتر‌و‌کمتر شود تا سرانجام تمام نظریه‌ها و شرط‌بندی‌های مختلف در نظریه‌ای واحد برای توسعه AGI جمع شوند. پروژه بسیار محرمانه Dall-E نیز دقیقاً از همین فرایند پیروی کرده است.

ما در موقعیت بغرنجی قرار داریم، نه می‌دانیم AGI چه شکلی است و نه اینکه کِی قرار است اتفاق بیفتد

بخش دوم استراتژی OpenAI بر راهکارهایی متمرکز است تا سیستم‌های هوش مصنوعی مرتب در حال تکامل را امن و بی‌خطر کند. برای نمونه، اینکه مطمئن شوند این سیستم‌ها ارزش‌های انسانی را بازتاب می‌کنند، می‌توانند منطق پسِ تصمیماتشان را توضیح دهند و بدون آسیب‌رساندن به انسان‌ها چیزهای جدید یاد بگیرند. آمودی اقرار می‌کند که این بخش از استراتژی OpenAI ساختار منسجمی ندارد و بیشتر فرایندی حسی است تا مبتنی‌‌‌‌‌بر پایه نظریه‌های اثبات‌شده. او می‌افزاید:

روزی خواهید دید که ما به AGI می‌رسیم و دوست دارم تا آن روز حس خوبی به این سیستم‌ها داشته باشم. هرچیزی که درحال‌حاضر حس خوبی به آن نداشته باشم، یک تیم برایش ایجاد می‌کنم تا فقط روی آن متمرکز شوند.

ما در موقعیت بغرنجی قرار داریم، اینکه نمی‌دانیم AGI چه شکلی است و کِی قرار است اتفاق بیفتد. ذهن هر شخصی محدود است. بهترین کاری که می‌توان کرد، استخدام پژوهشگران حوزه امنیت است که اغلب دیدگاهشان از چیزی که فکر می‌کنم، متفاوت است. به‌دنبال چنین تنوعی هستم که به‌ نظرم تنها راهی است که می‌توان متوجه تمام جوانب قضیه شد.

مشکلات OpenAI: نبود تنوع و بودجه

براکمن می‌گوید برای رسیدن به بهترین و امن‌ترین شکل AGI، استراتژی بیشترین تنوع در اعضای تیم را دنبال می‌کند؛ اما اعضای تیم واقعاً چقدر متنوع‌اند؟ دست‌کم تا سال ۲۰۲۰ که گفت‌وگوی MIT با کارمندان OpenAI انجام شده بود، از بیش از ۱۲۰ کارمند، تنها ۲۵ درصد آن‌ها زن بودند. در تیم اجرایی نیز، تنها دو زن حضور دارند و فقط ۳۰ درصد تیم مدیریتی زن است. هر چهار مدیر عالی‌رتبه OpenAI، ازجمله براکمن و آلتمن، مردان سفیدپوست هستند. درصد بسیار زیادی از کارمندان هم یا سفیدپوست هستند یا آسیایی.

نبود تنوع جنسیتی و نژادی در حوزه هوش مصنوعی بسیار رایج است. برای مثال، گزارش ۲۰۱۹ مؤسسه AI Now نشان داد که زن‌ها، تنها ۱۸ درصد سخنران‌های کنفرانس‌های مطرح در حوزه هوش مصنوعی و ۲۰ درصد استادان دانشگاه و ۱۰ درصد پژوهشگران فیسبوک و گوگل را تشکیل می‌دهند. باوجوداین، نبود تنوع برای شرکتی که مأموریتش «توزیع تکنولوژی هوش مصنوعی به‌طورمساوی بین همه» است، اتفاق به‌مراتب مشکل‌سازتری خواهد بود؛‌ چراکه OpenAI از گروه‌هایی که ممکن است از سمت هوش مصنوعی و تبعیض‌های مدل‌های زبانی درمعرض بیشترین آسیب قرار داشته باشند، هیچ نماینده‌ای ندارد.

براکمن قبول ندارد که مشکلات اجتماعی AGI را باید از همان ابتدا حل کرد

علاوه‌براین، اصلاً معلوم نیست OpenAI چگونه می‌خواهد مزایای AGI را بین تمام بشر، آن‌هم به‌طور‌مساوی توزیع کند. برخی می‌گویند این شرکت درکی از جنبه اجتماعی هوش مصنوعی ندارد و صرفاً چون می‌داند این حوزه بسیار سودآور است، درگیر آن شده است.

براکمن می‌پذیرد که برای تحقق رؤیای OpenAI، هم تخصص فنی و هم تخصص اجتماعی لازم است؛ اما قبول ندارد که مشکلات اجتماعی را باید از همان قدم‌های نخستین حل کرد. به‌باور او، قدم اول این است که بفهمیم AGI قرار است چه شکلی باشد و تازه بعد‌از‌آن، می‌توان درباره پیامدهای این سیستم صحبت کرد.

مشکل دوم OpenAI کمبود بودجه است. شرکت AI2 مستقر در سیاتل که مشغول انجام پژوهش‌های بلندپروازانه‌ای در حوزه هوش مصنوعی است، از نوع غیرانتفاعی است؛ اما از پول هنگفت به‌جامانده از پال آلن، یکی از بنیان‌گذاران مایکروسافت، برای تأمین بودجه پروژه‌هایش استفاده می‌کند.

OpenAI نمی‌تواند هم وضعیت غیرانتفاعی خود را حفظ کند و هم بودجه کافی برای اجرای پروژه‌هایش را داشته باشد؛ نه‌فقط به این دلیل که به پول هنگفت دسترسی ندارد؛ بلکه چون می‌خواهد زودتر از هر شرکت دیگری به AGI برسد. همین فشار به تصمیماتی منجر می‌شود که OpenAI را از هدف اولیه خود دورتر و دورتر می‌کند. برای مثال،‌ این شرکت برای جذب سرمایه و نیروی متخصص، هیاهوی تبلیغاتی راه می‌اندازد و سراغ استراتژی منابع عظیم محاسبات کامپیوتری می‌رود، نه به این دلیل که این تنها راه رسیدن به AGI است؛ بلکه چون به‌نظر سریع‌ترین راه می‌رسد.

هوش مصنوعی قوی؛ پایان خلاقیت انسانی؟

احتمالاً زمانی می‌رسد که تقریباً همه‌چیز با هوش مصنوعی جایگزین خواهد شد. اهمیت پروژه‌های OpenAI و شاید جنبه هراس‌انگیز آن‌ها موفقیتشان به توسعه نوعی از هوش مصنوعی است که به‌ظاهر خلاقیت و ذوق هنری انسانی را هدف گرفته‌ است. پروژه Dall-E به ما نشان داد که در آینده نزدیک، شاید دیگر به تصویرگران و افراد متخصص در حوزه ویرایش عکس نیازی نباشد؛ چون هوش مصنوعی این کار را در چند ثانیه به‌‌رایگان و با نتیجه‌ای حیرت‌انگیز انجام می‌دهد.

مدل زبانی GPT-3 نیز موفق شد متن‌هایی تولید کند که تشخیص آن‌ها از نوشته‌های انسانی واقعاً دشوار است. شاید با فراگیر‌شدن این سیستم، دیگر حتی به نویسندگان و خبرنگاران نیازی نباشد. همچنین، شاید زمانی برسد که همین مقاله را به‌طورکامل هوش مصنوعی بنویسد!

با‌این‌همه، OpenAI شرکت نوآوری مملو از پژوهشگران مستعد است که با تمام وجود سخت مشغول انجام پژوهش‌های بلندپروازانه‌ای برای خدمت به بشر هستند. تمام این پنهان‌کاری‌ها و مشکلات اگر به همین شکل ادامه پیدا کند، ممکن است درنهایت فاجعه‌بار شود؛ اما هنوز تا دستیابی به هوش مصنوعی در سطح انسان راه درازی مانده است و OpenAI هنوز فرصت دارد سیاست کارآمدتری را برای تحقق مأموریتش به‌منظور «توزیع تکنولوژی هوش مصنوعی به‌طورمساوی بین همه» در پیش گیرد.



بمنظور اطلاع از دیگر خبرها به صفحه
اخبار فناوری مراجعه کنید.

درباره ی امیر

مطلب پیشنهادی

تک تایمز : مک‌ مینی M2 و M2 Pro بدون تغییر ظاهری در دست ساخت است

به گزارش سرویس تازه های دنیای فناوری مجله تک تایمز ، مارک گورمن از بلومبرگ …