بقای گونهی بشر با موانع و خطرات مهمی روبرو است. چه قرار باشد در نهایت، نژاد انسان در اثر برخورد یک شهاب سنگ بزرگ نابود شود یا در اثر یک بلای طبیعی فراگیر و یا یک جنگ هستهای نابود کننده، در هر صورت چند خطر هستند که آینده ما انسانها را تهدید میکنند. وقوع برخی از این خطرات احتمال کمتری دارد و بعضی از آنها کاملاً اجتناب ناپذیر هستند.
هر چند فجایع سراسری و جهانی مثل موارد ذکر شده میتوانند برای گونه بشر نابود کننده باشند، اما اگر جنگ هستهای 99 درصد انسانها را نابود کند، ممکن است 1 درصد باقیمانده جان سالم به در ببرند و تا سالها بعد از این فاجعه به زندگی خودشان ادامه دهند و هیچ آسیب همیشگی و ماندگاری به نژاد انسان وارد نشود.
فجایعی هم هستند که امکان جان سالم به در بردن از آنها، بازسازی شرایط و تداوم حیات انسانها پس از آنها وجود ندارد.
به این اتفاقات فاجعه بار، خطرات یا تهدیدات وجودی گفته میشود – یعنی شرایطی که میتواند منجر به انقراض نسل بشر شده یا احتمال ادامه بقای انسان را به شدت کم کنند.
همین تهدیدات وجودی، موضوع اصلی یک پادکست 10 قسمتی به نام “پایان جهان با Josh Clark” هستند که قبلاً هم مجری پادکست “چیزهایی که باید حتما بدانید” بود (که اخیراً اولین پادکستی شد که توانست به رتبه 1 میلیارد دانلود برسد).
در این پادکست جدید، Clark راههای احتمالی برای به پایان رسیدن دنیا را بررسی میکند – از جمله تسلط یک هوش مصنوعی فوق العاده هوشمند بر دنیا.
Clark در دوره تحقیقاتش در رابطه با تهدیدات وجودی، با کارشناسان و متخصصین زیادی در عرصه هوش مصنوعی و تهدیدات وجودی مصاحبه کرده از جمله Nick Bostrom، فیلسوف سوئدی و بنیانگذار موسسه “Future of Humanity”، David Pearce فیلسوف و یکی از بنیانگذاران انجمن World Transhumanist و Sebastian Farquhar فیلسوف و از اساتید دانشگاه آکسفورد.
در این مطلب با وی در رابطه با پادکست جدیدش مصاحبه شده و این که چرا او و کارشناسان عرصه تهدیدات وجودی، تصور میکنند که پیشرفت انسان در عرصه هوش مصنوعی میتواند به سرنگونی بشریت منجر شود.
خطر وجودی چیست؟
شاید عدهای بگویند که همین حالا هم نسل بشر با خطرات مختلفی روبروست؛ یک نمونه بارز از این خطرات، تغییرات آب و هوایی است که اگر توجهی به آن نشود، به گفته Clark، “میتواند برای بشریت وحشتناک باشد و بشریت را به عصر حجر یا حتی قبل از آن برگرداند.”
اما به گفته Clark نمیتوان این خطر را یک تهدید وجودی دانست “ما توانستیم طی دهها هزار سال بشریت را به این نقطه برسانیم این بار شاید خیلی سریع تر از قبل بتوانیم این کار را انجام دهیم چون حالا دانشی را داریم که اولین باری که تمدن بشر ایجاد شد، این دانش را در اختیار نداشتیم.”
اما در مورد تهدید وجودی این طور نیست، به گفته Clark، در مورد تهدیدات وجودی امکان بازسازی وجود ندارد و بشریت برای همیشه محو میشود.
Nick Bostrom اولین فردی بود که این ایده را مطرح کرد که باید تهدیدات وجودی را جدی تلقی کنیم. وی در مقالهای که در ژورنال Evolution and Technology منتشر شد، تهدید وجودی را به این صورت تعریف کرد “خطری که پیامدهای نامطلوب آن میتواند باعث از بین رفتن حیات در زمین شود یا به صورت دائم و به میزان زیادی پتانسیلهای آن را کم کند.”
“این ایده که انسانها میتوانند به صورت تصادفی باعث محو شدن و نابودی خودشان شوند، جذاب [و محتمل] است.”
Josh Clark
Clark میگوید در این حالت “حتی اگر ما بتوانیم به بقای خودمان ادامه ندهیم، هرگز قادر نخواهیم بود مجدداً به همان میزان پیشرفت و توسعه که قبل از حادثه داشتیم، دست پیدا کنیم.”
شاید فکر کردن به اقدامات و کارهایی که باعث میشوند خودمان را به نابودی بکشیم، سخت و غیرقابل باور باشد، اما وقتی ما هم از دریچهی پادکست “پایان جهان” Clark به این موضوع نگاه کنیم، شاید این شرایط قابل باورتر شود.
وقتی از او سوال شد که چرا چنین موضوع ترسناک و دلهره آوری را دنبال میکند گفت “این ایده که بشر میتواند تصادفاً منجر به انقراض و نابودی خودش شود، بسیار جذاب است.”
و شاید جذاب ترین تهدید وجودی برای انسان، خطر ناشی از یک هوش مصنوعی فوق العاده هوشمند است که کنترل جهان را به دست میگیرد.
Anki Vector یک ربات اسباب بازی همراه است که برای یادگیری از هوش مصنوعی استفاده میکند. منبع: Anki
اصول و پایههای هوش مصنوعی
در سالهای اخیر پیشرفت تکنولوژی از جمله پیشرفت سفرهای فضایی، تولد اینترنت و جهش بزرگ در تکنولوژی کامپیوتر، زندگی انسانها را دستخوش تغییرات بزرگی کرده است. هر چه تکنولوژی پیشرفته تر میشود، یک تهدید وجودی جدید هم بزرگتر میشود: هوش مصنوعی فوق العاده هوشمند.
برای درک این موضوع که چگونه ممکن است هوش مصنوعی انسان را تهدید کند، اول باید نحوه عملکرد آن را درک کنیم. در اپیزود “هوش مصنوعی” این پادکست، Clark بحث را با ارائه مثالی از یک ماشین که برای مرتب کردن و جدا کردن توپهای قرمز و سبز ساخته شده، شروع کرد.
تکنولوژی که در چنین ماشین به ظاهر سادهای به کار رفته بسیار پیچیده تر از آنچه شما تصور میکنید، است.
در صورتی که این ماشین درست برنامه نویسی شده باشد، مهارت کاملی در دسته بندی توپهای قرمز و سبز پیدا میکند، درست مثل DeepBlue که در عرصه شطرنج مهارت دارد. اما هر چقدر که این ماشینها جذاب و توانمند به نظر برسند، باز هم فقط قادر به انجام یک کار هستند.
Clarke توضیح داد که “هدف اصلی ابداع هوش مصنوعی، این نبوده که انسان را در شطرنج شکست دهد بلکه هدف اصلی ایجاد ماشینی با هوش عمومی مثل انسان بوده است.”
او ادامه داد “ماشین بودن یعنی خوب بودن فقط در یک عرصه مثل شطرنج. اما ترکیب خوب بودن در بازی شطرنج، محاسبه مالیات، اسپانیایی صحبت کردن، دنبال کردن دستور پخت پای سیب و … این یعنی تقریباً شبیه انسان شدن.”
مسئلهای که اولین پیشگامان هوش مصنوعی با آن روبرو شدند نیز همین موضوع بود که چطور میتوان تجربیات انسان را به صورت کامل به یک ماشین آموخت؟ پاسخ این سوال، استفاده از شبکههای عصبی است.
اسباب بازی Aibo شرکت سونی به لطف استفاده از هوش مصنوعی مثل یک سگ واقعی آموزش میبیند. منبع: Sony
شبکه عصبی چیست؟
شبکه عصبی، یک روش یادگیری ماشینی است که با مدل سازی مغز انسان انجام میشود. در این روش از طریق یک الگوریتم، یک شبکه مصنوعی ساخته میشود که امکان یادگیری با استفاده از دادههای جدید را برای کامپیوتر فراهم میکند.
یک نمونه از کارهای متداولی که شبکههای عصبی با استفاده از یادگیری عمیق انجام میدهند، تشخیص اشیا است. در این حالت شبکه، با تعداد زیادی از اشیایی با نوعی خاص، مثل گربه یا علائم راهنمایی و رانندگی شکل میگیرد.
این شبکه با تحلیل الگوهای تکرار شونده در تصاویری که به آن داده میشود، یاد میگیرد که تصاویر جدید را طبقه بندی کند.
پیشرفتهای هوش مصنوعی
هوش مصنوعی در ابتدا ماشینهایی را تولید میکرد که فقط در یک کار مهارت داشتند اما پیشرفتهای اخیر شبکههای مصنوعی امکان توسعه این تکنولوژی را فراهم کرده اند.
به لطف منابع داده عظیم اینترنت مثل تصاویر گوگل و ویدیوهای یوتیوب، تا سال 2006 اینترنت تبدیل به یک نیروی بزرگ برای توسعه شبکههای مصنوعی شد.
همین فراهم شدن دسترسی به منابع دادهای عظیم، باعث شد عرصه شبکههای عصبی به پیشرفت چشمگیری برسد و ماشینهای مجهز به هوش مصنوعی امروزی دیگر برای یادگیری و آموزش نیاز به سرپرستی و نظارت انسانها نداشته باشند – خود آنها با به کار بستن دادههای جدید و تحلیل آنها میتوانند آموزش ببینند.
هر چند شبکههای عصبی باعث شده هوش مصنوعی نسبت به گذشته بسیار بهتر عمل کند اما خطر اینجاست که ما به صورت کامل از طرز کار آنها اطلاع نداریم. به گفته Clarke “ما نمی توانیم درون فرایند تفکر و یادگیری هوش مصنوعی را ببینیم.” و همین موضوع میتواند باعث ترس و اضطراب افرادی شود که از تکنولوژی هوش مصنوعی استفاده میکنند.
مقالهای که در سال 2017 توسط Technology Review منتشر شد، شبکه عصبی را شبیه یک “جعبه سیاه” توصیف کرد – یعنی دادهها وارد ماشین میشوند و ما خروجی را به صورت اقدامات ماشین میبینیم و درک کمی از فرایندی که در این بین اتفاق میافتد، داریم.
بعلاوه اگر استفاده از شبکههای عصبی باعث شود که خود هوش مصنوعی بتواند به راحتی پیشرفت کند و بدون نیاز به دریافت ورودی از انسان هوشمندتر شود، چطور میتوان جلوی آن را گرفت که از انسان هوشمندتر نشود؟
به گفته Clark “هوش مصنوعی میتواند خودبخود پیشرفت کند، میتواند کدنویسی را یاد بگیرد. بذرهای ایجاد یک هوش مصنوعی فوق العاده هوشمند همین حالا هم کاشته شده” و طبق توصیفات Nick Bostrom میتوان آن را یک تهدید وجودی برای بشریت دانست. وی در مقالهای که در رابطه با تهدید وجودی برای ژورنال Evolution and Technology نوشته میگوید “وقتی اولین موجود فوق العاده هوشمند را ساختیم دچار اشتباه شدهایم و همین باعث ایجاد اهدافی برای این موجود میشود که میتوانند به نابودی بشر ختم شوند؛ با این فرض که پیشرفت ذهنی فوق العاده زیاد این موجود، قدرت انجام این کار را به او بدهد.”
پنجمین نسخهی Nao ربات مجهز به هوش مصنوعی شرکت SoftBank Robotics تولید شده و بیش از 10 هزار عدد از آن در سطح جهان فروخته شده است.
منبع: SoftBank Robotics
یک هوش مصنوعی بسیار هوشمند چه تهدیداتی برای انسان ایجاد میکند؟
“فرض کنیم که یک ماشین فوق العاده هوشمند، ماشینی باشد که بتواند از تمام فعالیتهای ذهنی و فکری یک انسان (هر چقدر هوشمند) پیشی بگیرد. از آنجایی که طراحی این ماشین هم یکی از فعالیتهای ذهنی انسان بوده، یک ماشین فوق العاده هوشمند باید بتواند ماشینهای بهتری را طراحی کند که این موضوع میتواند در نهایت منجر به “انفجار هوشمندی” شود و هوش انسان بشدت از آن عقب خواهند ماند.
این یک نقل قول از I. J. Good یکی از ریاضیدانان بریتانیایی است که Clark هم در پادکست و در این گفتگو به آن به عنوان یکی از راههای چگونگی ایجاد یک هوش مصنوعی فوق العاده قوی اشاره کرد.
وی به عنوان مثال به ماشینی اشاره کرد که روزبروز هوشمندتر شده و قابلیت کدنویسی را دارد – چنین ماشینی قابلیت نوشتن نسخههایی بهتر از خودش را دارد طوریکه با توجه به بهتر شدن دائم این ماشین در انجام کارها، نرخ پیشرفت او به صورت انفجاری افزایش پیدا میکند.
Clark توضیح میدهد “در نهایت ممکن است هوش مصنوعی ایجاد شود که نسبت به انسان قابلیت بیشتری در کدنویسی و طراحی الگوریتم داشته باشد. در چنین نقطهای وارد مرحلهای به نام “انفجار هوشمندی” میشویم و اینجاست که انسان رو به نابودی خواهد رفت.”
خیرخواهی و نیک اندیشی یک خصلت انسانی است
اما چرا این موضوع یک تهدید وجودی محسوب میشود؟ Clark خواست “هوش مصنوعی را تصور کنیم که ما انسانها ساختیم و فراتر از کنترل ما هوشمند شده است.”
وی ادامه داد “اگر آنچه را که نظریه پردازان هوش مصنوعی به نام ‘friendliness’ (مساعدت و مهربانی) مینامند در هوش مصنوعی ادغام نکنیم، هیچ دلیلی وجود ندارد که این هوش مصنوعی به صلاح ما و طبق منافع ما عمل کند.”
در حال حاضر از هوش مصنوعی برای توصیه فیلم در Netflix، پر کردن فید شبکههای اجتماعی با مطالب مورد علاقه کاربران و ترجمه زبانهای انسانی از طریق اپلیکیشنهایی مثل Google Translate استفاده میشود.
فرض کنید گوگلترنسلیت به لطف قابلیتهای پیشرفت و بهبود خودکاری که از طریق شبکههای عصبی فراهم شده، فوق العاده هوشمند شود. به گفته Clark “هیچ خطر ذاتی در مترجمی که فوق العاده هوشمند شده باشد وجود ندارد چون این مترجم در کار خودش خیلی بهتر خواهد شد. خطر وقتی ایجاد میشود که این مترجم به این نتیجه برسد که برای پیشرفت و بهبود کاری که ما برایش در نظر گرفتیم، به چیزهای دیگری نیاز دارد.”
مثلاً ممکن است این هوش مصنوعی مترجم تصمیم بگیرد که برای پیشرفت خودش به فضای بیشتری از شبکه نیاز دارد یا این که برای ساخت سرورهای بیشتر باید جنگلها را نابود کند.
Clark توضیح میدهد برای تولید این پادکست، نگاهی به تحقیقات افرادی مثل Bostrom داشته که باور دارد در چنین شرایطی ما “وارد نبردی بر سر منابع با هوشمندترین موجودات جهان خواهیم شد – و احتمالاً در این نبرد شکست خواهیم خورد.” قبلاً هم چنین صحبتهایی را از زبان افراد دیگر مثل یکی از محققین مایکروسافت به نام Eric Horvitz و Stephen Hawking هم شنیده بودیم.
ملاقات یک دختر بچه با یک ربات در اوساکای ژاپن. منبع تصویر: Andy Kelly در Unsplash
در مقاله ژورنالی که قبلاً هم اشاره کردیم Bostrom یک سناریوی فرضی را شرح میدهد که طبق این سناریو ممکن است یک هوش مصنوعی فوق العاده هوشمند یک تهدید وجودی برای انسان ایجاد کند: “ما از هوش مصنوعی میخواهیم که یک مسئله ریاضی را حل کند و او هم با تبدیل تمام مواد منظومه شمسی به یک دستگاه محاسباتی غول پیکر – فرایندی که باعث کشته شدن کسی که این سوال را پرسیده، میشود – سعی میکند به این خواسته عمل کند.”
پس مسئله، ایجاد هوش مصنوعی نیست که ذاتاً شیطانی و بدخواه باشد – در دنیای یادگیری ماشینی چیزی به اسم خوب و بد و شیطانی وجود ندارد. مسئه اینجاست که ممکن است هوش مصنوعی دائماً به تلاش برای بهبود و پیشرفت در انجام کاری که برای آن ساخته شده، ادامه دهد تا حدی که برایش مهم نباشد که اقدامات او برای بهبود کارایی یا دقتش، میتوانند به ضرر انسانها باشند.
به گفته Clarke مشکل تهدید وجودی ناشی از “عدم موفقیت ما برای برنامه ریزی دوستی و خیرخواهی در هوش مصنوعیای است که در نهایت فوق العاده هوشمند میشود.”
“ممکن است یک هوش مصنوعی فوق العاده قوی بر دنیا مسلط شود و در نتیجه ما تبدیل به شامپانزههای قرن بیست و یکم شویم.”
Josh Clarke
راهکارهایی برای مشکل هوش مصنوعی
اما برای حل این مسئله چه کارهایی را میتوان انجام داد؟ به گفته Clark این یک چالش بزرگ است و اولین گام برای حل این چالش این است که “محققین بپذیرند که این، یک مشکل واقعی است” و توضیح داد که عده زیادی حس میکنند هوش مصنوعی در مسیری قرار دارد که برنامه ریزی برای مقابله با خطرات احتمالی آن در آینده کار بی ارزشی است.
بعد از آن باید تشخیص دهیم که چطور میتوانیم خیرخواهی را در هوش مصنوعی برنامه ریزی کنیم که انجام این کار برای محققین هوش مصنوعی هم در حال حاضر و هم در آینده دشواریهای زیادی به همراه خواهد داشت.
یکی از مشکلات و مسائلی که هنگام تدریس ارزشها و اخلاقیات به هوش مصنوعی ایجاد میشود، این است که ارزشها و اخلاقیات چه کسی را باید به هوش مصنوعی آموخت؟ چون مسلماً یک توافق نظر جمعی و سراسری درباره این موضوع وجود ندارد.
حتی اگر یک مجموعه اخلاقیات را برای آموزش به هوش مصنوعی انتخاب کنیم، مسئله بعدی این است که چطور میتوانیم مفهوم اخلاقی بودن را به یک ماشین توضیح دهیم؟
منبع تصویر: Franck V از Unsplash
چرا باید برای مقابله با تهدیدات وجودی برنامه ریزی کنیم؟
اما اگر هوش مصنوعی چنین خطر بزرگی را برای ما ایجاد میکند، چرا تحقیق و توسعه این تکنولوژی را متوقف نکنیم؟ به گفته I. J. Good هر چقدر این احتمال وجود دارد که هوش مصنوعی بشریت را به نابودی بکشاند این احتمال هم وجود دارد که تبدیل به بهترین اختراع بشر شود.
Clark میگوید ما در نقطهای از تاریخ قرار داریم که میتوانیم بزرگترین اختراع بشریت یعنی یک هوش مصنوعی فوق العاده قوی را ایجاد کنیم که بتواند تمام نیازهای بشر برای بقاء را برآورده کند.
“یکی از مسیرهای این جاده به سمت ایجاد تصادفی یک هوش مصنوعی فوق العاده قوی میرود که بر دنیا مسلط میشود و در نتیجه ما تبدیل به شامپانزههای قرن بیست و یکم میشویم.”
ما درباره مسیری که هوش مصنوعی در آینده طی خواهد کرد، اطلاع کافی نداریم اما Clark یک نکته را مشخص کرده: مسلماً باید تهدیدات وجودی را جدی بگیریم در غیر این صورت ممکن است بشریت پیش از آنکه به پتانسیل واقعی خودش دست پیدا کند، نابود شود.
منبع : Techradar
آخرین دیدگاهها