چند روزی است همهجا صحبت از پروژه مخفی و ظاهراً خطرناک *Q است که میگویند اولین مدل هوش مصنوعی با قابلیتهای فرا انسانی است.
همین دو، سه هفته پیش بود که درهای همیشه بستهی شرکت مرموز OpenAI، خالق هوش مصنوعی ChatGPT، سرانجام به طرز غافلگیرکنندهای به روی رسانهها باز شد؛ هیئتمدیره بهطور ناگهانی سم آلتمن، مدیرعامل شرکت را برکنار کرد؛ صدها کارمند در اعتراض به این تصمیم تهدید به استعفا کردند؛ مایکروسافت پیشدستی کرد و به آلتمن پیشنهاد سمت مدیرعاملی واحد هوش مصنوعی داد؛ اما آلتمن دوباره به پست خود برگشت و رسانهها کل ماجرا را از زوایای مختلف تجزیهوتحلیل کردند. اما با تمام این گزارشها و ماجراهای دراماتیک، هنوز دقیقا نمیدانیم OpenAI چگونه تکنولوژی خود را توسعه میدهد یا آلتمن برای پروژههای قدرتمندتر آینده چه نقشههایی در سر دارد.
درک بسیار محدود ما از برنامههای OpenAI خودش را زمانی آشکار کرد که رویترز و وبسایت تکنولوژیمحور The Information در دو گزارش جداگانه نوشتند که پیش از اخراج آلتمن، چندین پژوهشگر OpenAI نگرانیهایی دربارهی پیشرفت بزرگ پروژهای ظاهراً خطرناک مطرح کرده بودند؛ پروژهی الگوریتممحوری با نام مرموز *Q (بخوانید کیواستار).
رویترز به نقل از منبعی ناشناس نوشت: «مدل جدید بهکمک منابع محاسباتی عظیم توانست برخی مسائل ریاضی خاص را حل کند. اگرچه این مسائل در سطح مقطع ابتدایی بود، موفقیت صددرصد در حل آنها پژوهشگران را به موفقیت آیندهی *Q بسیار خوشبین کرده است.»
وبسایت The Information هم نوشت *Q پیشرفت چشمگیری است که به توسعهی «مدلهای هوش مصنوعی بسیار قدرتمندتر» منجر خواهد شد و اینکه «سرعت توسعهی این پروژه برخی از پژوهشگرانی را که نگران امنیت هوش مصنوعی بودند، ترساند.»
همین دو گزارش کافی بود تا آتش گمانهزنیها و نگرانیها را شعلهور کند. آیا *Q بهنوعی به اخراج آلتمن مرتبط بود؟ آیا این پروژه آنطور که شایعات میگویند، قدرتمند است؟ آیا میتواند نشانهای از نزدیکتر شدن OpenAI به هدفش، یعنی دستیابی به AGI یا همان هوشمصنوعی در سطح فیلمهای علمیتخیلی باشد؟ آیا الگوریتم *Q واقعا میتواند تسکهای پیچیده را مثل یا حتی بهتر از انسانها حل کند؟ آیا آخرالزمان رباتی از آنچه فکر میکردیم به ما نزدیکتر است؟
با اینکه یکی، دو هفتهای است نام پروژهی مخفی *Q آشکار شده است، هنوز چیز زیادی از آن نمیدانیم. آلتمن هم در مصاحبهی جدیدش با ورج وجود این پروژه را تایید کرد، اما گفت «دربارهی درز ناخوشایند این پروژه هیچ حرفی نمیتوانم بزنم.» و صرفاً به گفتن یک سری جملات مبهم دربارهی «پیشرفت معنادار و سریع» و تلاش برای توسعهی «امن و سودمند» پروژههای شرکت بسنده کرد.
پروژهی مرموز *Q چه میتواند باشد؟
آنچه در گزارشها خواندیم میگوید کیواستار الگوریتمی است که میتواند مسائل ریاضی مقطع ابتدایی را طوری که هرگز نمونهاش را ندیدهایم، حل کند. شاید فکر کنید حل این مسائل چندان قابلتوجه نیست؛ بههرحال، اگر کودکی ۱۰، ۱۱ ساله بتواند آنها را حل کند، پس حتی ضعیفترین هوش مصنوعی هم باید بهراحتی از پس حل آن برآید. اما در دنیای AI داستان متفاوت است؛ طوری که برخی از پژوهشگران OpenAI ظاهراً بر این باورند که کیواستار میتواند اولین نشانهی بهبود توانایی «استدلال» یا همان استفاده از منطق برای حل مسائل جدید در مدلهای هوش مصنوعی باشد.
سالها است پژوهشگران در تلاشاند مدلهای هوش مصنوعی را بهجایی برسانند تا بتوانند مسائل ریاضی را بهدرستی حل کنند. مدلهای زبانی چون GPT-4 که در چتبات ChatGPT بهکار رفته است، میتوانند بهطور بسیار محدودی از پس مسائل ریاضی برآیند، اما نه درحدی که در تمام سناریوها قابلاطمینان باشد.
ما درحالحاضر الگوریتم یا حتی معماری مناسبی نداریم که بتوانیم با استفاده از هوش مصنوعی، مسائل ریاضی را بهطور قابل اطمینانی حل کنیم. یادگیری عمیق و شبکههای عصبی موسومبه ترنسفورمر که زیربنای توسعهی مدلهای زبانی است، در پیدا کردن الگو و تشخیص گربه از درخت عالی هستند، اما صرف بهرهمندی از این قابلیت برای دستیابی به هوش مصنوعی قوی کافی نیست.
جالب است بدانید برای تست قدرت استدلال مدل هوش مصنوعی از ریاضی بهعنوان بنچمارک استفاده میکنند؛ چون طرح مسئلهی جدید برای پژوهشگران آسان است و رسیدن به راهحل به درک مفاهیم انتزاعی و برنامهریزی گامبهگام نیاز دارد.
توانایی استدلال یکی از عناصر کلیدی و درعینحال همچنان غایب سیستمهای هوش مصنوعی هوشمندتر و همهمنظوره است؛ همان سیستمی که OpenAI آن را «هوش عمومی مصنوعی» معروفبه AGI مینامد. بهگفتهی این شرکت، چنین سیستمی اگر پا به دنیای واقعی بگذارد، در اکثر کارها از انسان بهتر خواهد بود و اگر روزی بخواهد از کنترل انسان خارج شود، فاجعهی جهانی رخ خواهد داد.
زمانیکه گزارشهای مربوط به کیوستار را کنار هم میگذاریم و آنها را به جنجالیترین مشکلات هوش مصنوعی این روزها ربط میدهیم، به پروژهای میرسیم که OpenAI آن را چیزی حدود هفت ماه پیش در ماه می معرفی کرد و مدعی شد که بهکمک تکنیکی بهنام «نظارت بر فرایند» (Process Supervision) به نتایج قدرتمند جدیدی دست پیدا کرده است.
در این پروژه، ایلیا سوتسکیور، دانشمند ارشد و یکی از بنیانگذاران OpenAI نقش داشت که مهرهی اصلی اخراج سم آلتمن از شرکت بود؛ هرچند بعد از بحران OpenAI از تصمیمش برگشت و آلتمن را با آغوش باز پذیرفت. بهگفتهی The Information، ایلیا رهبری توسعهی کیواستار را برعهده داشته است.
پروژهی ماه می OpenAI بر کاهش اشتباهات منطقی مدلهای زبانی بزرگ از طریق «نظارت بر فرایند» متمرکز بود. در نظارت بر فرایند، مدل هوش مصنوعی برای تجزیهی مراحل موردنیاز حل مسئله آموزش داده میشود تا شانس الگوریتم برای رسیدن به پاسخ درست افزایش یابد. این پروژه نشان داد که چگونه این تکنیک میتواند به مدلهای زبانی بزرگ که اغلب در حل مسائل ریاضی ابتدایی دچار خطاهای سادهای میشوند کمک کند با چنین مسائلی بهطور مؤثرتری برخورد کنند.
به باور بسیاری از متخصصان هوش مصنوعی، بهبود مدلهای زبانی بزرگ گام بعدی در کاربردیتر کردن آنها است. بهگفتهی اندرو نگ، استاد دانشگاه استنفورد که رهبری آزمایشگاههای هوش مصنوعی در گوگل و بایدو را بر عهده داشت، «مدلهای زبانی بزرگ در حل مسائل ریاضی خیلی ماهر نیستند. البته ما انسانها هم همین وضعیت را داریم. ولی خب، اگر یک قلم و کاغذ به من بدهید، ضرب من بهمراتب از این مدلها بهتر خواهد بود. هرچند من فکر میکنم بهبود مدلهای زبانی با حافظهای که بتواند الگوریتم ضرب را اجرا کند، آنقدرها کار سختی نیست.»
دربارهی ماهیت *Q سرنخهای دیگری هم وجود دارد. نام این پروژه ممکن است اشارهای به «کیو-یادگیری» (Q-learning) باشد که درواقع شکلی از یادگیری تقویتی است که برای ساخت باتهای بازی و بهبود ChatGPT بهکار میرود و در آن، الگوریتم سعی میکند ازطریق بازخورد مثبت یا منفی، مسئله را حل کند.
برخی همچنین معتقدند که *Q ممکن است به الگوریتم جستجوی *A مرتبط باشد که در برنامههایی برای پیدا کردن بهترین مسیر برای رسیدن به هدف بهوفور استفاده میشود.
وبسایت The Information سرنخ دیگری به ما میدهد:
پیشرفت چشمگیر سوتسکیور در این پروژه به OpenAI اجازه داد بر محدودیتهای دستیابی به دادههای باکیفیت برای آموزش مدلهای جدید غلبه کند. در این پروژه برای آموزش مدلهای جدید از دادههای تولیدشده توسط کامپیوتر استفاده شده است، نه دادههایی که از دنیای واقعی یا همان اینترنت به دست آمدهاند.
باتوجه به توضیحات The Information، اینطور به نظر میرسد که در پروژهی کیواستار، الگوریتمها با دادههای مصنوعی آموزش داده شدهاند؛ روشی که اخیرا برای آموزش مدلهای هوش مصنوعی قدرتمندتر به کار برده میشود.
وقتی تمام این سرنخها را کنار هم میگذاریم، به این نتیجه میرسیم که *Q ممکن است پروژهای باشد که در آن از مقادیر عظیمی از دادههای مصنوعی تولیدشده توسط کامپیوتر استفاده شده تا بهکمک تکنیک یادگیری تقویتی، نوعی مدل زبانی بزرگ برای انجام وظایفی مثل محاسبات ریاضی ساده آموزش ببیند.
اگر بخواهیم داستان را از این هم پیچیدهتر کنیم، نیتن لمبرت، دانشمند حوزهی یادگیری ماشین بهتفصیل در مقالهای دربارهی ماهیت احتمالی کیواستار نوشته است. بهطور خلاصه، لمبرت معتقد است که در پروژهی *Q از یادگیری تقویتی و چند تکنیک دیگر استفاده شده تا توانایی مدل زبانی بزرگ در حل تسکها از طریق استدلال گامبهگام بهبود پیدا کند. او میگوید شاید این روش کمک کند ChatGPT در حل مسائل ریاضی بهتر شود، اما معلوم نیست این روش به توسعهی سیستم هوش مصنوعیای منجر شده باشد که بتواند روزی از کنترل انسان بگریزد.
بالاخره کیواستار نوعی AGI است یا نه؟
راستش تا زمانیکه خود OpenAI دربارهی ماهیت واقعی این پروژه حرفی نزند، نمیتوان مطمئن بود. اما این شک و تردید یکی از قدیمیترین حقایق دربارهی پژوهشهای هوش مصنوعی را آشکار میکند؛ اینکه نظرها دربارهی پیشرفتهای این حوزه در همان لحظهای که رخ میدهند، بهشدت متفاوت است. زمان زیادی طول میکشد تا دانشمندان دربارهی اینکه آیا الگوریتم یا پروژهای واقعا پیشرفت چشمگیری در حوزهی هوش مصنوعی بوده است یا خیر، به توافق برسند؛ چراکه لازم است پژوهشگران بیشتری تأیید کنند ایدهی مطرح شده چقدر قابل تکرار، موثر و بهطور گستردهای قابل اجرا است.
مثلا الگوریتم ترنسفورمر را که زیربنای مدلهای زبانی بزرگ و ChatGPT است، در نظر بگیرید؛ زمانیکه محققان گوگل این الگوریتم را در سال ۲۰۱۷ توسعه دادند، از آن بهعنوان پیشرفت مهمی یاد شد، اما افراد بسیار کمی پیشبینی میکردند که این الگوریتم برای هوش مصنوعی مولد امروزی تا این حد حیاتی باشد. تنها زمانیکه OpenAI با حجم عظیمی از داده و منابع محاسباتی سراغ ترنسفورمر آمد و آن را تقویت کرد، سایر شرکتهای هوش مصنوعی هم به استفاده از این الگوریتم روی آوردند و مرزهای تولید تصویر، متن و حتی ویدیو بهکمک AI را جابهجا کردند.
در پژوهشهای هوش مصنوعی یا اصلا هر پژوهش علمی دیگری، ظهور و سقوط ایدهها مبتنیبر شایستهسالاری صرف نیست. معمولا دانشمندان و شرکتهایی که بیشترین منابع و بزرگترین تریبون را در اختیار دارند، بیشترین تأثیرگذاری را هم در این حوزه خواهند داشت.
در صنعت هوش مصنوعی، قدرت در دست چند شرکت ازجمله متا، گوگل، اوپنایآی، مایکروسافت و آنتروپیک تجمیع شده است. درحالحاضر، همین فرایند ناقص ایجاد اجماع بهترین چیزی است که داریم، اما هرروز محدودتر میشود؛ چراکه پژوهشهایی که زمانی عمدتاً جلوی چشمان همه انجام میشد، حالا بهصورت کاملاً مخفیانه صورت میگیرد.
در طول ده سال گذشته و زمانیکه شرکتهای بزرگ فناوری از پتانسیل تجاریسازی فوقالعادهی هوش مصنوعی آگاه شدند، سعی کردند دانشجویان را با پیشنهادهای بسیار وسوسهانگیز از فضای دانشگاه دور کنند و به سیلیکونولی بکشانند. بسیاری از دانشجویان دکترا برای پیوستن به آزمایشگاه این شرکتها دیگر منتظر دریافت مدرک خود نمیمانند و بسیاری از پژوهشگرانی که تصمیم میگیرند در دانشگاه بمانند، از همین شرکتها برای انجام پروژههایشان فاند دریافت میکنند. این روزها، بسیاری از پژوهشهای هوش مصنوعی در شرکتهای تکنولوژیای انجام میشود که در تلاشند باارزشترین دستاوردهایشان را از چشم رقبای تجاری خود پنهان کنند.
اوپنایآی از آن دسته شرکتهایی است که به صراحت اعلام کرده هدف از اجرای تمام پروژههایش رسیدن به AGI است. این شرکت مرموز دلیل محرمانه بودن پروژههایش را به خطرات هوش مصنوعی ربط داده و میگوید هر چیزی که بتواند راه رسیدن به ابرهوش را تسریع کند باید تحت نظارت و کنترل شدید قرار بگیرد، وگرنه ممکن است به تهدیدی علیه بشریت تبدیل شود.
البته OpenAI آشکارا اعتراف کرده که محرمانه نگه داشتن پروژههایش اجازه میدهد فاصلهاش را از رقبا حفظ کند. ایلیا سوتسکیور، دانشمند ارشد اوپنایآی در ماه مارس به ورج گفت «توسعهی GPT-4 کار آسانی نیست. تقریبا تمام کارمندان شرکت به مدت بسیار طولانی در توسعهی این مدل زبانی درگیر بودند. شرکتهای بسیار زیادی وجود دارند که میخواهند دقیقا همین کار ما را انجام دهند.»
آیا باید از پروژهی *Q بترسیم؟
افرادی که مانند بنیانگذاران OpenAI از تهدید هوش مصنوعی علیه بشریت نگران هستند، از این میترسند که قابلیتهایی مثل قدرت استدلال منجر به ظهور هوش مصنوعی افسارگسیخته شود. اگر چنین سیستمهای هوش مصنوعی اجازه داشته باشند اهداف خودشان را تعیین کنند و در دنیای فیزیکی و دیجیتال دخالت کنند، دغدغههای امنیتی بزرگی ایجاد میشود.
اما اگرچه توانایی حل مسائل ریاضی ممکن است ما را یک قدم به سیستمهای هوش مصنوعی قدرتمند نزدیک کند، حل این مدل مسائل بهمعنی ظهور ابرهوش نیست. البته این اولین باری نیست که مدل جدیدی جنجال دستیابی به AGI به راه انداخته است. سال گذشته، پژوهشگران دربارهی مدل همهکارهی Gato که توسط دیپمایند گوگل توسعه یافته است، همین نظر را داشتند.
گاتو بهگفتهی MIT Technology Review، سیستمی است که «چندین تسک مختلف را همزمان یاد میگیرد و میتواند بین آنها جابهجا شود و بدون فراموشی مهارتهای قبلی، مهارتهای جدید بیاموزد.» گاتو مدلی است که میتواند بازیهای آتاری انجام دهد، برای تصاویر کپشن بنویسد، چت کند و حتی با بازوی رباتی واقعی، قطعههای مکعبی را روی هم بگذارد.
آن زمان، برخی از پژوهشگران AI مدعی شدند دیپمایند «در شرف» دستیابی به AGI است، چون گاتو میتواند تسکهای مختلف بسیاری را بهخوبی انجام دهد. ماجرای ادعای خودآگاه شدن هوش مصنوعی LaMDA گوگل هم همین بود. جنجال و هیاهو بر سر هوش مصنوعی چیز تازهای نیست، فقط هر بار از پروژه و شرکت دیگری سر در میآورد.
این جنجالها شاید ابزار فوقالعاده موثری در پرآوازه شدن نام شرکتها باشند، اما آسیبی که به صنعت هوش مصنوعی وارد میکنند، بیشتر از سودشان است، چراکه حواس افراد را از مشکلات واقعی و ملموس هوش مصنوعی پرت میکنند. هرچند شایعات دربارهی مدل هوش مصنوعی قدرتمند میتواند زنگ اخطاری برای صنعت تکنولوژیِ مقرارتگریز باشد؛ چیزی نمانده تا اتحادیهی اروپا قانون هوش مصنوعی را نهایی کند.
اینروزها، یکی از بزرگترین کشمکشها بین قانونگذاران این است که آیا شرکتهای تکنولوژی باید برای قانونمند کردن مدلهای هوش مصنوعی خود قدرت بیشتری داشته باشند یا خیر. چند وقت پیش نیز اجلاس ایمنی هوش مصنوعی برای اولینبار در تاریخ برگزار شد تا پیش از افسارگسیخته شدن هوش مصنوعی، برای کنترل آن چارهای اندیشید.