برتری هوش مصنوعی در تمدنهای هوشمند میتواند به مانعی برای دسترسی آنها به فضای میانسیارهای یا میانستارهای تبدیل شود.
هوش مصنوعی به هزاران روش مختلف حضور خود را به ما نشان میدهد. این فناوری دارای قابلیتهایی مثل دسترسی به منابع عظیم داده، کشف کلاهبرداریهای مالی، هدایت خودروها و حتی پیشنهاد موسیقی است. از طرفی چتباتهای هوش مصنوعی عملکرد حیرتانگیزی دارند؛ اما تمام اینها تازه آغاز راه هستند.
آیا میتوانیم بفهمیم هوش مصنوعی با چه سرعتی توسعه مییابد؟ اگر پاسخ منفی باشد، آیا مفهوم فیلتر بزرگ را دربر دارد؟ پارادوکس فرمی به اختلاف بین احتمال بالای وجود تمدنهای پیشرفته و نبود شواهدی از حضور آنها اختصاص دارد. راهحلهای زیادی برای چرایی وجود این اختلاف ارائه شدهاند. یکی از این فرضیهها «فیلتر بزرگ» است.
فیلتر بزرگ به رویداد یا موقعیتی فرضی گفته میشود که از تبدیل حیات هوشمند به موجودیتی میانسیارهای یا میانستارهای جلوگیری کرده و حتی میتواند به نابودی آن بینجامد. از این دست رویدادها میتوان به تغییرات اقلیمی، جنگ هستهای، برخوردهای سیارکی، انفجارهای ابرنواختر، طاعون یا حتی موارد دیگری از رویدادهای فاجعهبار اشاره کرد؛ اما دربارهی رشد سریع هوش مصنوعی چه میتوان گفت؟
پژوهشی جدید در مجله Acta Astronautica، نشان میدهد که هوش مصنوعی در حال تبدیل شدن به ابرهوش مصنوعی (ASI) است که میتواند یکی از فیلترهای بزرگ باشد. عنوان این مقاله به این شرح است: «آیا هوش مصنوعی فیلتر بزرگی است که باعث کمیاب شدن تمدنهای پیشرفته در جهان میشود؟» مؤلف این مقاله مایکل گرت از دانشکدهی فیزیک و نجوم دانشگاه منچستر است.
برخی افراد بر این باورند که فیلتر بزرگ از تبدیل گونههای فناورانه مثل ما به گونههای چندسیارهای جلوگیری میکند. این خبر بدی است، زیرا گونههایی که تنها یک خانه دارند، در معرض خطر انقراض یا رکود قرار میگیرند. به باور گرت، گونهها بدون سیارهی پشتیبان در رقابت با زمان هستند. او مینویسد:
چنین فیلتری پیش از آنکه تمدنها به ثبات و حضور چندسیارهای برسند، ظاهر میشود و نشان میدهد طول عمر رایج یک تمدن پیشرفته کمتر از ۲۰۰ سال است.
اگر فرضیهی فوق حقیقت داشته باشد، میتوان ثابت کرد چرا تاکنون هیچ اثری از فناوری یا مدرک دیگری از هوش فرازمینی پیدا نکردیم؛ اما این فرضیه دربارهی مسیر فناوری انسان چه میگویند؟ اگر با یک محدودیت ۲۰۰ ساله روبهرو شویم و این محدودیت به خاطر ASI باشد، سرنوشتمان چه خواهد بود؟
گرت همچنین بر نیاز به ایجاد چارچوبهای قانونمند برای توسعهی هوش مصنوعی در زمین و پیشرفت جامعهی چندسیارهای برای مقابله با تهدیدهای موجود تأکید دارد.
بسیاری از دانشمندان و متفکران میگویند ما در آستانهی تحولی عظیم قرار داریم. هوش مصنوعی در حال ایجاد تحول در چگونگی انجام کارها است؛ بخش زیادی از این تحول پشت صحنه رخ میدهد. به نظر میرسد هوش مصنوعی میلیونها شغل را حذف کند و هنگامی که با رباتیک همراه شود، دیگر حد و مرزی نخواهد داشت. قطعا این تحولات نگرانی آشکاری خواهند بود.
با اینحال، نگرانیهای سیستماتیکتر و عمیقتری وجود دارند. چه کسی الگوریتمها را مینویسد؟ آیا هوش مصنوعی تا حدی قادر به تشخیص خواهد بود؟ تقریبا با قطعیت میتوان گفت که این امکان را خواهد داشت. آیا الگوریتمهای رقابتی، جوامع دموکراتیک قدرتمند را رو به زوال میبرند؟ آیا جوامع باز همچنان متوقف خواهند شد؟ آیا ASI برای ما تصمیمگیری خواهد کرد و در این صورت چه کسی پاسخگو خواهد بود؟
پرسشهای فوق بدون هیچ پایان مشخصی در حال افزایش هستند. استیون هاوکینگ همیشه هشدار میداد درصورتیکه هوش مصنوعی بهصورت مستقل به تکامل برسد، میتواند نسل بشریت را نابود کند. او در سال ۲۰۱۷ در گفتگو با مجلهی وایرد گفت:
از این میترسم که هوش مصنوعی به کلی جایگزین انسان شود. اگر افراد در حال حاضر میتوانند ویروسهای کامپیوتری را طراحی کنند، احتمالا در آینده شخصی خواهد توانست نوعی هوش مصنوعی را طراحی کند که خود را بهبود میدهد و تکثیر میکند. این نوع هوش شکل جدیدی از حیات خواهد بود که میتواند بر انسانها برتری پیدا کند.
هاوکینگ را شاید بتوان یکی از شاخصترین چهرههای هشدار دربارهی هوش مصنوعی دانست؛ اما او تنها نیست. رسانهها پر از بحثها و هشدارها و همچنین مقالههایی دربارهی قابلیتهای هوش مصنوعی هستند. مهمترین هشدارها میگویند که ASI میتواند سرکش شود. برخی افراد این فرضیه را علمی تخیلی میدانند، اما گرت اینطور فکر نمیکند. به نوشتهی او:
نگرانیها دربارهی ابرهوش مصنوعی (ASI) و سرکش شدن آن در آینده یک مسئلهی مهم به شمار میروند. مبارزه با این احتمال طی سالهای آینده به یک زمینهی پژوهشی روبهرشد برای رهبران هوش مصنوعی تبدیل خواهد شد.
اگر هوش مصنوعی هیچ مزیتی نداشت، مسئله سادهتر میشد؛ اما این فناوری انواع مزیتها از تصویربرداری و تشخیص پزشکی بهبودیافته تا سیستمهای حمل و نقل ایمنتر را به دنبال دارد. ترفند دولتها این است که امکان رشد مزایا را بدهند و در عین حال آسیبها را کنترل کنند. به نوشتهی گرت، این مسئله بهویژه در حوزههای دفاعی و امنیت ملی اهمیت پیدا میکند که در آنها رشد اخلاقی و مسئولیتپذیری اهمیت دارد.
مشکل اینجاست که ما و دولتهایمان آمادگی کافی را نداریم. هرگز چیزی مانند هوش مصنوعی وجود نداشته و صرفنظر از اینکه چگونه برای ایدهپردازی و درک مسیر آن تلاش کنیم، به نتیجهی قابل انتظار نمیرسیم. بنابراین اگر ما در چنین موقعیتی قرار داریم، احتمالا دیگر موجودات بیولوژیکی در دیگر نقاط جهان هم همین شرایط را دارند. ظهور هوش مصنوعی و ابرهوش مصنوعی میتواند مسئلهای کیهانی باشد و به همین دلیل آن را به کاندیدی مناسب برای فیلتر بزرگ تبدیل کند. خطری که ASI میتواند تحمیل کند، این است که شاید روزی دیگر نیازی به حیات بیولوژیکی سازندهاش نداشته باشد.
براساس توضیحات گرت، سیستمهای ASI با رسیدن به تکینگی فناورانه میتوانند از هوش بیولوژیکی سبقت بگیرند و با سرعتی به تکامل برسند که حتی از مکانیزمهای ناظر خود پیش بیفتند و در نهایت به پیامدهای غیرمنتظره و غیرعمدی بینجامند، بهطوریکه بعید است با اخلاق و علایق بیولوژیکی سازگار باشند.
چگونه ASI میتواند خود را از زندگی بیولوژیکی مزاحمی که آن را اسیر کرده، رهایی پیدا کند؟ ممکن است ویروسی کشنده را مهندسی کند؛ یا از تولید و توزیع محصولات کشاورزی جلوگیری کند یا حتی به فروگداخت نیروگاه هستهای بینجامد و جنگی را آغاز کند.
هنوز نمیتوان به طور قطعی دربارهی احتمالات سخن گفت، زیرا قلمروی هوش مصنوعی نامشخص است. صدها سال پیش، نقشهنگارها هیولاهایی را در مناطق کشفنشدهی دنیا ترسیم میکردند و حالا این کاری است که ما انجام میدهیم. تحلیل گرت مبتنی بر این مسئله است که ASI و انسانها فضای یکسانی را اشغال کنند؛ اما اگر بتوانیم به وضعیت چندسیارهای برسیم، این چشمانداز تغییر خواهد کرد. گرت مینویسد:
برای مثال، گونههای بیولوژیکی چندسیارهای میتوانند از تجربیات مستقل سیارههای مختلف استفاده کنند و با افزایش تنوع استراتژیهای بقا از شکست تک نقطهای که تمدن تک سیارهای تحمیل میکند، اجتناب کنند.
اگر بتوانیم خطر را روی سیارههای متعدد در اطراف چند ستاره توزیع کنیم، میتوانیم از خود در برابر بدترین پیامدهای احتمالی ASI محافظت کنیم. این مدل توزیعیافته با ایجاد افزونگی، انعطاف تمدن بیولوژیکی را در برابر فاجعههای هوش مصنوعی افزایش میدهد. اگر یکی از سیارهها یا پایگاههایی که انسان آینده اشغال میکند، در بقا در مقابل تکینگی فناورانهی ASI شکست بخورند، ممکن است بقیه جان سالم به در ببرند و از این شکست درس بگیرند.
وضعیت چندسیارهای همچنین میتواند فراتر از نجات از دست ASI باشد. براساس سناریوهای فرضی گرت میتوانیم تجربیات بیشتری را با هوش مصنوعی امتحان کنیم و در عین حال آن را محدود نگهداریم. هوش مصنوعی را روی یک سیارک ایزوله یا سیاره کوتوله در نظر بگیرید که به منابع لازم برای فرار دسترسی ندارد و به این صورت میتوان آن را محدود کرد. به نوشتهی گرت:
این سناریو برای محیطهای ایزوله صدق میکند که در آنها آثار هوش مصنوعی پیشرفته را میتوان بدون ریسک آنی نابودی سراسری بررسی کرد.
با اینحال یک مسئلهی پیچیده در اینجا مطرح میشود. هوش مصنوعی با سرعتی فزاینده در حال پیشرفت است، در حالی که تلاشهای انسان برای تبدیلشدن به گونهی چندسیارهای سرعت پائینی دارند. به نوشتهی گرت، ناسازگاری بین پیشرفت سریع هوش مصنوعی و توسعهی آهستهی فناوری فضایی بسیار واضح است.
تفاوت در اینجاست که هوش مصنوعی محاسباتی و اطلاعاتی است، اما سفرهای فضایی با موانع فیزیکی متعددی روبهرو هستند که هنوز روش غلبه بر آنها را نمیدانیم. ماهیت بیولوژیکی انسان مانعی برای سفرهای فضایی است، اما هیچ کدام از این موانع هوش مصنوعی را محدود نمیکنند.
به نوشتهی گرت، با اینکه هوش مصنوعی از نظر تئوری قابلیتهای خود را حتی بدون محدودیتهای فیزیکی بهبود میدهد، سفرهای فضایی با محدودیتهای انرژی، علم مواد و واقعیتهای خشن محیط فضا روبهرو هستند.
در حال حاضر هوش مصنوعی تحت محدودیتهایی که انسان تعیین کرده عمل میکند؛ اما شاید همیشه این طور نباشد. هنوز نمیدانیم هوش مصنوعی چه زمانی ممکن است به ASI تبدیل شود؛ اما نمیتوانیم این احتمال را نادیده بگیریم. این مسئله میتواند به دو نتیجهگیری درهمتنیده منجر شود.
اگر حق با گرت باشد، انسان باید بیشتر برای سفرهای فضایی تلاش کند. شاید به نظر دور از دسترس برسد، اما افراد آگاه میدانند که زمین برای همیشه سکونتپذیر نخواهد بود. اگر انسان تمدن خود را به داخل فضا گسترش ندهد، ممکن است به دست خود یا به دست طبیعت نابود شود. با اینحال دستیابی به ماه و مریخ میتواند نویدبخش گامهای آینده باشد.
دومین نتیجهگیری در ارتباط با قانونمند شدن و نظارت بر هوش مصنوعی است؛ وظیفهای دشوار در جهانی که بیمارهای روانی میتوانند کنترل کل ملتها را به دست بگیرند و به جنگافزوزی منجر شوند. به نوشتهی گرت، با اینکه ذینفعان صنایع، سیاستگذارها، کارشناسان مستقل و دولتهایشان دربارهی ضرورت قانونگذاری هشدار میدهند، ایجاد یک چارچوب قانونی که در سراسر جهان پذیرفته شود کار دشواری است.
در واقع اختلاف همیشگی بشریت، هدف نظارت بر هوش مصنوعی را غیرقابل کنترل میسازد. صرفنظر از اینکه با چه سرعتی راهبردها را توسعه دهیم، ابرهوش مصنوعی میتواند با سرعت بیشتری رشد کند. در واقع بدون قانون کاربردی، دلیلی بر این باور وجود دارد که هوش مصنوعی نهتنها تهدیدی برای تمدن آینده بلکه تهدیدی برای کل تمدنهای پیشرفته به شمار میرود.
تداوم حیات هوشمند و آگاهانه در جهان ممکن است به پیادهسازی مؤثر و به موقع ضوابط قانونی و تلاشهای فناورانه وابسته باشد.
به قلم : سرکار خانم سارا ارجمند
منبع : زومیت