رفیق کاردُرستمون، به فروشگاه اینترنتی کاردرست، خوش اومدی ❤️

سبد خرید
0

سبد خرید شما خالی است.

حساب کاربری

یا

حداقل 8 کاراکتر

91693461021

با ما در تماس باشـید

هوش مصنوعی می‌تواند توضیح دهد چرا تاکنون فرازمینی‌ها را ندیده‌ایم

زمان مطالعه9 دقیقه

تاریخ انتشار : ۳۰ فروردین ۱۴۰۳تعداد بازدید : 134نویسنده : دسته بندی : وبلاگ
پرینت مقالـه

می پسنـدم0

اشتراک گذاری

اندازه متن12

برتری هوش مصنوعی در تمدن‌های هوشمند می‌تواند به مانعی برای دسترسی آن‌ها به فضای میان‌سیاره‌ای یا میان‌ستاره‌ای تبدیل شود.

هوش مصنوعی به هزاران روش مختلف حضور خود را به ما نشان می‌دهد. این فناوری دارای قابلیت‌هایی مثل دسترسی به منابع عظیم داده، کشف کلاه‌برداری‌های مالی، هدایت خودرو‌ها و حتی پیشنهاد موسیقی است. از طرفی چت‌بات‌های هوش مصنوعی عملکرد حیرت‌انگیزی دارند؛ اما تمام این‌ها تازه آغاز راه هستند.

آیا می‌توانیم بفهمیم هوش مصنوعی با چه سرعتی توسعه می‌یابد؟ اگر پاسخ منفی باشد، آیا مفهوم فیلتر بزرگ را دربر دارد؟ پارادوکس فرمی به اختلاف بین احتمال بالای وجود تمدن‌های پیشرفته و نبود شواهدی از حضور آن‌ها اختصاص دارد. راه‌حل‌های زیادی برای چرایی وجود این اختلاف ارائه شده‌اند. یکی از این فرضیه‌ها «فیلتر بزرگ» است.

فیلتر بزرگ به رویداد یا موقعیتی فرضی گفته می‌شود که از تبدیل حیات هوشمند به موجودیتی میان‌سیاره‌ای یا میان‌ستاره‌ای جلوگیری کرده و حتی می‌تواند به نابودی آن بینجامد. از این دست رویدادها می‌توان به تغییرات اقلیمی، جنگ هسته‌ای، برخوردهای سیارکی، انفجارهای ابرنواختر، طاعون یا حتی موارد دیگری از رویدادهای فاجعه‌بار اشاره کرد؛ اما درباره‌ی رشد سریع هوش مصنوعی چه می‌توان گفت؟

پژوهشی جدید در مجله Acta Astronautica، نشان می‌دهد که هوش مصنوعی در حال تبدیل شدن به ابرهوش مصنوعی (ASI) است که می‌تواند یکی از فیلترهای بزرگ باشد. عنوان این مقاله به این شرح است: «آیا هوش مصنوعی فیلتر بزرگی است که باعث کمیاب‌ شدن تمدن‌های پیشرفته در جهان می‌شود؟» مؤلف این مقاله مایکل گرت از دانشکده‌ی فیزیک و نجوم دانشگاه منچستر است.

هوش مصنوعی به عنوان یک فیلتر بزرگ می‌تواند مانع از دسترسی گونه‌های زیستی به فضاهای میان‌سیاره‌ای و میان‌ستاره‌ای شود.

برخی افراد بر این باورند که فیلتر بزرگ از تبدیل گونه‌های فناورانه مثل ما به گونه‌های چندسیاره‌ای جلوگیری می‌کند. این خبر بدی است، زیرا گونه‌هایی که تنها یک خانه دارند، در معرض خطر انقراض یا رکود قرار می‌گیرند. به باور گرت، گونه‌ها بدون سیاره‌ی پشتیبان در رقابت با زمان هستند. او می‌نویسد:

چنین فیلتری پیش از آنکه تمدن‌ها به ثبات و حضور چندسیاره‌ای برسند، ظاهر می‌شود و نشان می‌دهد طول عمر رایج یک تمدن پیشرفته کمتر از ۲۰۰ سال است.

اگر فرضیه‌ی فوق حقیقت داشته باشد، می‌توان ثابت کرد چرا تاکنون هیچ اثری از فناوری یا مدرک دیگری از هوش فرازمینی پیدا نکردیم؛ اما این فرضیه درباره‌ی مسیر فناوری انسان چه می‌گویند؟ اگر با یک محدودیت ۲۰۰ ساله روبه‌رو شویم و این محدودیت به خاطر ASI باشد، سرنوشتمان چه خواهد بود؟

گرت همچنین بر نیاز به ایجاد چارچوب‌های قانون‌مند برای توسعه‌ی هوش مصنوعی در زمین و پیشرفت جامعه‌ی چندسیاره‌ای برای مقابله با تهدید‌های موجود تأکید دارد.

بسیاری از دانشمندان و متفکران می‌گویند ما در آستانه‌ی تحولی عظیم قرار داریم. هوش مصنوعی در حال ایجاد تحول در چگونگی انجام کارها است؛ بخش زیادی از این تحول پشت صحنه رخ می‌دهد. به نظر می‌رسد هوش مصنوعی میلیون‌ها شغل را حذف کند و هنگامی که با رباتیک همراه شود، دیگر حد و مرزی نخواهد داشت. قطعا این تحولات نگرانی آشکاری خواهند بود.

با این‌حال، نگرانی‌های سیستماتیک‌تر و عمیق‌تری وجود دارند. چه کسی الگوریتم‌ها را می‌نویسد؟ آیا هوش مصنوعی تا حدی قادر به تشخیص خواهد بود؟ تقریبا با قطعیت می‌توان گفت که این امکان را خواهد داشت. آیا الگوریتم‌های رقابتی، جوامع دموکراتیک قدرتمند را رو به زوال می‌برند؟ آیا جوامع باز همچنان متوقف خواهند شد؟ آیا ASI برای ما تصمیم‌گیری خواهد کرد و در این صورت چه کسی پاسخگو خواهد بود؟

پرسش‌های فوق بدون هیچ پایان مشخصی در حال افزایش هستند. استیون هاوکینگ همیشه هشدار می‌داد درصورتی‌که هوش مصنوعی به‌صورت مستقل به تکامل برسد، می‌تواند نسل بشریت را نابود کند. او در سال ۲۰۱۷ در گفتگو با مجله‌ی وایرد گفت:

از این می‌ترسم که هوش مصنوعی به کلی جایگزین انسان شود. اگر افراد در حال حاضر می‌توانند ویروس‌های کامپیوتری را طراحی کنند، احتمالا در آینده شخصی خواهد توانست نوعی هوش مصنوعی را طراحی کند که خود را بهبود می‌دهد و تکثیر می‌کند. این نوع هوش شکل جدیدی از حیات خواهد بود که می‌تواند بر انسان‌ها برتری پیدا کند.

ترکیب هوش مصنوعی و رباتیک می‌تواند به تهدیدی برای انسان تبدیل شود.

هاوکینگ را شاید بتوان یکی از شاخص‌ترین چهره‌های هشدار درباره‌ی هوش مصنوعی دانست؛ اما او تنها نیست. رسانه‌ها پر از بحث‌ها و هشدارها و همچنین مقاله‌هایی درباره‌ی قابلیت‌های هوش مصنوعی هستند. مهم‌ترین هشدارها می‌گویند که ASI می‌تواند سرکش شود. برخی افراد این فرضیه را علمی تخیلی می‌دانند، اما گرت این‌طور فکر نمی‌کند. به نوشته‌ی او:

نگرانی‌ها درباره‌ی ابرهوش مصنوعی (ASI) و سرکش شدن آن در آینده یک مسئله‌ی مهم به شمار می‌روند. مبارزه با این احتمال طی سال‌های آینده به یک زمینه‌ی پژوهشی روبه‌رشد برای رهبران هوش مصنوعی تبدیل خواهد شد.

اگر هوش مصنوعی هیچ مزیتی نداشت، مسئله ساده‌تر می‌شد؛ اما این فناوری انواع مزیت‌ها از تصویربرداری و تشخیص پزشکی بهبودیافته تا سیستم‌های حمل و نقل ایمن‌تر را به دنبال دارد. ترفند دولت‌ها این است که امکان رشد مزایا را بدهند و در عین حال آسیب‌ها را کنترل کنند. به نوشته‌ی گرت، این مسئله به‌ویژه در حوزه‌های دفاعی و امنیت ملی اهمیت پیدا می‌کند که در آن‌ها رشد اخلاقی و مسئولیت‌پذیری اهمیت دارد.

مشکل اینجاست که ما و دولت‌هایمان آمادگی کافی را نداریم. هرگز چیزی مانند هوش مصنوعی وجود نداشته و صرف‌نظر از اینکه چگونه برای ایده‌پردازی و درک مسیر آن تلاش کنیم، به نتیجه‌ی قابل انتظار نمی‌رسیم. بنابراین اگر ما در چنین موقعیتی قرار داریم، احتمالا دیگر موجودات بیولوژیکی در دیگر نقاط جهان هم همین شرایط را دارند. ظهور هوش مصنوعی و ابرهوش مصنوعی می‌تواند مسئله‌ای کیهانی باشد و به همین دلیل آن را به کاندیدی مناسب برای فیلتر بزرگ تبدیل کند. خطری که ASI می‌تواند تحمیل کند، این است که شاید روزی دیگر نیازی به حیات بیولوژیکی سازنده‌اش نداشته باشد.

براساس توضیحات گرت، سیستم‌های ASI با رسیدن به تکینگی فناورانه می‌توانند از هوش بیولوژیکی سبقت بگیرند و با سرعتی به تکامل برسند که حتی از مکانیزم‌های ناظر خود پیش بیفتند و در نهایت به پیامدهای غیرمنتظره و غیرعمدی بینجامند، به‌طوری‌که بعید است با اخلاق و علایق بیولوژیکی سازگار باشند.

زندگی روی چند سیاره می‌تواند تهدید هوش مصنوعی را کمرنگ کند.

چگونه ASI می‌تواند خود را از زندگی بیولوژیکی مزاحمی که آن را اسیر کرده، رهایی پیدا کند؟ ممکن است ویروسی کشنده را مهندسی کند؛ یا از تولید و توزیع محصولات کشاورزی جلوگیری کند یا حتی به فروگداخت نیروگاه هسته‌ای بینجامد و جنگی را آغاز کند.

هنوز نمی‌توان به طور قطعی درباره‌ی احتمالات سخن گفت، زیرا قلمروی هوش مصنوعی نامشخص است. صدها سال پیش، نقشه‌نگارها هیولاهایی را در مناطق کشف‌نشده‌ی دنیا ترسیم می‌کردند و حالا این کاری است که ما انجام می‌دهیم. تحلیل گرت مبتنی بر این مسئله است که ASI و انسان‌ها فضای یکسانی را اشغال کنند؛ اما اگر بتوانیم به وضعیت چندسیاره‌ای برسیم، این چشم‌انداز تغییر خواهد کرد. گرت می‌نویسد:

برای مثال، گونه‌های بیولوژیکی چندسیاره‌ای می‌توانند از تجربیات مستقل سیاره‌های مختلف استفاده کنند و با افزایش تنوع استراتژی‌های بقا از شکست تک نقطه‌ای که تمدن تک سیاره‌ای تحمیل می‌کند، اجتناب کنند.

اگر بتوانیم خطر را روی سیاره‌های متعدد در اطراف چند ستاره توزیع کنیم، می‌توانیم از خود در برابر بدترین پیامدهای احتمالی ASI محافظت کنیم. این مدل توزیع‌یافته با ایجاد افزونگی، انعطاف تمدن بیولوژیکی را در برابر فاجعه‌های هوش مصنوعی افزایش می‌دهد. اگر یکی از سیاره‌ها یا پایگاه‌هایی که انسان آینده اشغال می‌کند، در بقا در مقابل تکینگی فناورانه‌ی ASI شکست بخورند، ممکن است بقیه جان سالم به در ببرند و از این شکست درس بگیرند.

وضعیت چندسیاره‌ای همچنین می‌تواند فراتر از نجات از دست ASI باشد. براساس سناریوهای فرضی گرت می‌توانیم تجربیات بیشتری را با هوش مصنوعی امتحان کنیم و در عین حال آن را محدود نگه‌داریم. هوش مصنوعی را روی یک سیارک ایزوله یا سیاره کوتوله در نظر بگیرید که به منابع لازم برای فرار دسترسی ندارد و به این صورت می‌توان آن را محدود کرد. به نوشته‌ی گرت:

این سناریو برای محیط‌های ایزوله صدق می‌کند که در آن‌ها آثار هوش مصنوعی پیشرفته را می‌توان بدون ریسک آنی نابودی سراسری بررسی کرد.

با این‌حال یک مسئله‌ی پیچیده در اینجا مطرح می‌شود. هوش مصنوعی با سرعتی فزاینده در حال پیشرفت است، در حالی که تلاش‌های انسان برای تبدیل‌شدن به گونه‌ی چندسیاره‌ای سرعت پائینی دارند. به نوشته‌ی گرت، ناسازگاری بین پیشرفت سریع هوش مصنوعی و توسعه‌ی آهسته‌ی فناوری فضایی بسیار واضح است.

تفاوت در اینجاست که هوش مصنوعی محاسباتی و اطلاعاتی است، اما سفرهای فضایی با موانع فیزیکی متعددی روبه‌رو هستند که هنوز روش غلبه بر آن‌ها را نمی‌دانیم. ماهیت بیولوژیکی انسان مانعی برای سفرهای فضایی است، اما هیچ کدام از این موانع هوش مصنوعی را محدود نمی‌کنند.

به نوشته‌ی گرت، با اینکه هوش مصنوعی از نظر تئوری قابلیت‌های خود را حتی بدون محدودیت‌های فیزیکی بهبود می‌دهد، سفرهای فضایی با محدودیت‌های انرژی، علم مواد و واقعیت‌های خشن محیط فضا روبه‌رو هستند.

در حال حاضر هوش مصنوعی تحت محدودیت‌هایی که انسان تعیین کرده عمل می‌کند؛ اما شاید همیشه این طور نباشد. هنوز نمی‌دانیم هوش مصنوعی چه زمانی ممکن است به ASI تبدیل شود؛ اما نمی‌توانیم این احتمال را نادیده بگیریم. این مسئله می‌تواند به دو نتیجه‌گیری درهم‌تنیده منجر شود.

اگر حق با گرت باشد، انسان باید بیشتر برای سفرهای فضایی تلاش کند. شاید به نظر دور از دسترس برسد، اما افراد آگاه می‌دانند که زمین برای همیشه سکونت‌پذیر نخواهد بود. اگر انسان تمدن خود را به داخل فضا گسترش ندهد، ممکن است به دست خود یا به دست طبیعت نابود شود. با این‌حال دستیابی به ماه و مریخ می‌تواند نوید‌بخش گام‌های آینده باشد.

دومین نتیجه‌گیری در ارتباط با قانون‌مند شدن و نظارت بر هوش مصنوعی است؛ وظیفه‌ای دشوار در جهانی که بیمارهای روانی می‌توانند کنترل کل ملت‌ها را به دست بگیرند و به جنگ‌افزوزی منجر شوند. به نوشته‌ی گرت، با اینکه ذینفعان صنایع، سیاست‌گذارها، کارشناسان مستقل و دولت‌هایشان درباره‌ی ضرورت قانون‌گذاری هشدار می‌دهند، ایجاد یک چارچوب قانونی که در سراسر جهان پذیرفته شود کار دشواری است.

در واقع اختلاف همیشگی بشریت، هدف نظارت بر هوش مصنوعی را غیرقابل کنترل می‌سازد. صرف‌نظر از اینکه با چه سرعتی راهبردها را توسعه دهیم، ابرهوش مصنوعی می‌تواند با سرعت بیشتری رشد کند. در واقع بدون قانون کاربردی، دلیلی بر این باور وجود دارد که هوش مصنوعی نه‌تنها تهدیدی برای تمدن‌ آینده بلکه تهدیدی برای کل تمدن‌های پیشرفته به شمار می‌رود.

تداوم حیات هوشمند و آگاهانه در جهان ممکن است به پیاده‌سازی مؤثر و به موقع ضوابط قانونی و تلاش‌های فناورانه وابسته باشد.

 

به قلم : سرکار خانم سارا ارجمند

منبع : زومیت

مقایسه محصولات

0 محصول

مقایسه محصول
مقایسه محصول
مقایسه محصول
مقایسه محصول