معرفی 10 مورد از مهمترین پیشرفتهای هوش مصنوعی
در حال حاضر “هوش مصنوعی” یکی از داغترین بحثها در حوزه تکنولوژی محسوب میشود؛ به این دلیل که پس از دههها تحقیق و توسعه در این حوزه، طی چند سال اخیر شاهد ظهور تکنیکهایی بودیم که پدیدههای علمی تخیلی را تبدیل به واقعیت کردند.
همین حالا هم نقش تکنیکهای هوش مصنوعی در بخشهای مختلف زندگی ما انسانها مشاهده میشود از جمله اینکه هوش مصنوعی نتایج جستجوهای ما را تعیین میکند، صدای ما را تبدیل به دستورالعملهایی میکند که برای کامپیوتر قابل فهم باشد و غیره. در چند سال آینده از هوش مصنوعی برای راندن خودروها، پاسخ دادن به سوالات مشتریان در بخش پشتیبانی و کارهای بیشمار دیگری استفاده خواهد شد.
اما چگونه به این نقطه رسیدیم؟ این تکنولوژی قدرتمند چگونه ایجاد شد؟ در این مطلب نقاط عطف مهم در روند پیشرفت هوش مصنوعی را مرور میکنیم.
شکل گیری ایدهای بزرگ
مسلماً مفهوم هوش مصنوعی یک باره ایجاد نشد بلکه موضوع یک بحث فلسفی عمیق بود که هنوز هم وجود دارد: آیا یک سیستم (یا ماشین) میتواند مثل انسان فکر کند؟ آیا یک سیستم میتواند انسان باشد؟ یکی از اولین افرادی که درباره این موضوع به تفکر و بحث پرداخت رنه دکارت بود که در سال 1637 در کتابی به اسم گفتار در روش (Discourse on the Method) به این موضوع پرداخته بود. نکته جالب این است که در زمانی که حتی تصور وجود سیستمی مثل Amstrad Em@iler هم ممکن نبود، دکارت به برخی از سوالات و چالشهای مهمی که تکنولوژی باید بر آنها غلبه کند، پرداخته بود:
“اگر ماشینهایی وجود داشتند که شباهت زیادی به بدن ما داشتند و کارهای ما را با حداکثر شباهت ممکن تقلید میکردند، باز هم دو روش خیلی قطعی وجود داشت که مشخص میکرد آنها انسان واقعی نیستند.”
او به توضیح دیدگاهش ادامه داده و گفته ماشینها هرگز نمیتوانند از کلمات استفاده کرده یا علائم را کنار هم قرار دهند تا افکار ما را برای دیگران بیان کنند و حتی اگر چنین ماشینی وجود داشت “متقاعد کننده نیست که چنین ماشینی بتواند ترتیبهای مختلف کلمات را تولید کند، طوریکه یک پاسخ کاملاً معنادار ایجاد کند؛ کاری که حتی کند ذهنترین انسانها هم قادر به انجام آن هستند.”
او بحث را ادامه داده و به یکی از چالشهای مهمی میرسد که امروزه با آن روبرو هستیم یعنی ایجاد یک هوش مصنوعی تعمیم یافته نه هوشی که تمرکز و حیطه کاری محدودی داشته باشد و اینکه محدودیتهای هوش مصنوعی نشان میدهد که یک ماشین قطعاً نمیتواند انسان باشد:
“حتی اگر بعضی ماشینها بتوانند یکسری کارها را به خوبی خود ما یا حتی بهتر از ما انجام دهند، در انجام سایر کارها موفق نخواهند بود و این نشان میدهد که چنین ماشینهایی از روی درک عمل نمیکنند بلکه صرفاً با توجه به وضعیت ارگانها و اندام بدنشان عمل میکنند.”
حالا به لطف کارها و تحقیقات دکارت، ما با چالشهای هوش مصنوعی آشنایی داریم.
بازی تقلید
دومین کار فلسفی برجسته در این حوزه، متعلق به آلن تورینگ یکی از پیشگامان علوم کامپیوتر است. او در سال 1950 موضوعی به اسم “تست تورینگ” و “بازی تقلید” را شرح داد؛ بازی تقلید آزمایشی بود که نشان میداد چه موقع میتوانیم یک ماشین را هوشمند تلقی کنیم.
آزمایش او کاملاً ساده بود: اگر یک داور نتواند ظاهر ماشین را از انسان تشخیص دهد (یعنی اینکه مثلاً فقط از طریق تعامل متنی با هر دوی آنها در ارتباط باشد) آیا ماشین میتواند او را فریب دهد تا نتواند تشخیص دهد کدامیک انسان هستند؟
حیرت انگیز است که در آن زمان، تورینگ پیش بینی قابل توجهی درباره آینده کامپیوترها انجام داده بود؛ او پیش بینی کرده بود که تا انتهای قرن بیستم این آزمایش با موفقیت انجام خواهد شد. وی گفت:
“به باور من تا 50 سال آینده میتوان کامپیوترهایی با ظرفیت ذخیره حدود [1گیگابایت] را طوری برنامه نویسی کرد که بازی تقلید را آنقدر خوب انجام دهند که یک داور معمولی پس از پنج دقیقه سوال کردن، شانسی بیشتر از 70 درصد برای تشخیص کامپیوتر از انسان نداشته باشد… من باور دارم که در انتهای این قرن استفاده از کلمات و تعلیم دانش طوری تغییر میکند که بتوان ماشینهایی با قدرت تفکر داشت.”
متاسفانه پیش بینی او کمی ناپخته بود چون هر چند امروزه به تدریج شاهد ظهور هوش مصنوعی پیشرفته هستیم، اما این تکنولوژی در سال 2000 بسیار ابتدایی و ساده بود. اما حداقل در زمینه ظرفیت هارد دیسک – که تا پایان آن قرن تقریباً حدود 10 گیگابایت بود – پیش بینی خوبی داشت.
اولین شبکه عصبی
شبکه عصبی نامی است که دانشمندان برای یکی از مفاهیم بنیادی و تاثیرگذار بر هوش مصنوعی مدرن یعنی بحث آزمون و خطا انتخاب کرده اند. در اصل، بهترین روش برای تعلیم دادن هوش مصنوعی این است که سیستم را ملزم به حدس زدن، دریافت بازخورد و حدس زدن دوباره کنیم – و با این کار احتمال رسیدن به پاسخ درست توسط سیستم را افزایش دهیم.
نکته قابل توجه این است که اولین شبکه عصبی در اصل در سال 1951 ساخته شد. این سیستم که SNARC – مخفف کلمات Stochastic Neural Analog Reinforcement Computer نام داشت – توسط ماروین مینسکی و دین ادموندز ساخته شده بود و جالب اینجاست که با ترانزیستور و میکروچیپ ساخته نشده بود بلکه با لامپ خلأ، موتور و کلاچ ساخته شده بود.
چالش این ماشین این بود که به یک موش برای حل یک هزارتو کمک کند. این سیستم، دستورالعملهای لازم برای حرکت در این هزارتو را صادر میکرد و تاثیر اقدامات انجام شده به آن برگردانده میشد – از لامپ خلأ برای ذخیره خروجیها استفاده شده بود. این، یعنی سیستم مورد نظر میتوانست یاد بگیرد و احتمالات را تغییر دهد و به این ترتیب احتمال رد شدن از هزارتو را افزایش دهد.
این در واقع یک نسخه بسیار بسیار ساده از همان فرایندی است که گوگل امروزه برای شناسایی اشیاء در تصاویر از آن استفاده میکند.
اولین اتومبیل خودران
وقتی درباره اتومبیل خودران صحبت میشود معمولاً به چیزهایی مثل پروژه Waymo شرکت گوگل فکر میکنیم اما جالب اینجاست که در سال 1995 شرکت مرسدس بنز موفق شد یک مدل اصلاح شده از کلاس S مرسدس را تقریباً به صورت خودکار و مستقل از شهر مونیخ به کپنهاگ هدایت کند.
طبق آنچه در سایت AutoEvolution نوشته شده، این سفر 1043 مایلی با استفاده از قدرت یک سوپرکامپیوتر انجام شده است – این خودرو حاوی 60 تراشه transputer بود که در آن زمان در حوزه پردازش موازی بسیار پیشرفته محسوب میشد و میتوانست حجم انبوهی از دادههای مربوط به رانندگی را با سرعت زیاد پردازش کند و این موضوع نقش مهمی در عکس العمل سریع و به موقع خودرو داشت.
این خودرو به سرعت 115 مایل بر ساعت رسید و تقریباً شبیه خودروهای مستقل امروزی بود چون میتوانست علائم جاده را بخواند و سبقت بگیرد.
حرکت به سمت علم آمار
هر چند مدت زیادی از شکل گیری مفهوم شبکههای عصبی میگذرد، اما در واقع در اواخر دهه 80 میلادی بود که محققین هوش مصنوعی از روش مبتنی بر قاعده به سمت روشهای مبتنی بر آمار – یا یادگیری ماشینی – حرکت کردند. این یعنی به جای تلاش برای ساخت سیستمهایی که با استنباط از قواعدی که انسان بر اساس آنها عمل میکنند، هوش انسانی را تقلید کنند، از روش آزمون و خطا و تنظیم احتمالات بر اساس بازخوردهای دریافتی استفاده شود که برای تعلیم دادن کامپیوترها بسیار مناسبتر است. این تغییر بسیار مهم بود چون پایه و اساس تمام کارهای بزرگی است که امروزه هوش مصنوعی قادر به انجام آنهاست.
Gil Press از فوربز ادعا میکند که این تغییر در سال 1988 شکل گرفت، زمانی که مرکز تحقیقات TJ Watson IBM مقالهای تحت عنوان “یک رویکرد آماری برای ترجمه زبان” منتشر کرد که در آن درباره استفاده از یادگیری ماشینی برای انجام کاری که امروزه گوگل ترنسلیت انجام میدهد، صحبت شده بود.
ظاهراً IBM به این سیستم، 2.2 میلیون جفت جملهی انگلیسی و فرانسوی تزریق کرده بود تا آن را آموزش دهد و تمام این جملهها از متون نوشته شده در پارلمان کانادا استخراج شده بودند که به هر دو زبان ثبت میشود – این کار تا حدودی به این که گوگل امروزه کل اینترنت را در اختیار خود دارد، شباهت دارد و شاید به همین علت امروزه عملکرد گوگل تا این اندازه خوب است.
شکست گری کاسپارف توسط Deep Blue
علیرغم حرکت به سمت مدلهای آماری، همچنان از مدلهای مبتنی بر قاعده هم استفاده میشود و در سال 1997 IBM مشهورترین مسابقه شطرنج را بین کامپیوتر Deep Blue و قهرمان شطرنج جهان گری کاسپارف برگزار کرد و نشان داد کامپیوترها تا چه اندازه میتوانند قدرتمند باشند.
البته این مسابقه دوم محسوب میشد و در سال 1996 کاسپاروف Deep Blue 4-2 را شکست داده بود. اما در سال 1997 کامپیوتر توانست از 6 مسابقه در 2 مسابقه پیروز شود و 3 مسابقه را با تساوی به پایان ببرد.
هوش Deep Blue تا حد زیادی غیرواقعی بود، خود IBM بر این باور است که این ماشین از هوش مصنوعی استفاده نمیکند بلکه از ترکیبی از روشهای پردازش جستجوی فراگیر – یعنی بررسی هزاران حرکت ممکن در هر ثانیه – استفاده میکند. IBM دادههای مربوط به هزاران بازی قبلی را به عنوان ورودی وارد این سیستم کرد؛ در واقع Deep Blue کار جدیدی یاد نمیگرفت بلکه همواره بررسی میکرد که استادان بزرگ شطرنج در چنین شرایطی چه عکس العملی از خود نشان داده اند و به گفته IBM این کامپیوتر در اصل “رفتار استادان بزرگ شطرنج در گذشته را تقلید میکند.”
در هر صورت چه این سیستم هوش مصنوعی محسوب شود یا نشود، نکته مسلم این است که این اقدام یکی از برجستهترین نقاط عطف حوزه هوش مصنوعی بود و توجه زیادی را به قدرت محاسباتی کامپیوترها و کل این رشته جلب کرد. پس از شکست کاسپارف، برگزاری مسابقه بین انسانها و کامپیوترها تبدیل به یک امر متداول و روشی محبوب برای ارزیابی هوش ماشینها شد – همانطور که در سال 2011 سیستم واتسون IBM دو نفر از بهترین شرکت کنندههای مسابقه تلویزیونی Jeopardy را شکست داد.
پردازش زبان طبیعی توسط Siri
پردازش زبان طبیعی همواره جزء یکی از مفاهیم مهم در حوزه هوش مصنوعی بوده و البته اگر قرار باشد دنیایی با رباتهایی شبیه انسان داشته باشیم جزء یکی از ویژگیهای حیاتی آنها محسوب میشود.
به همین دلیل Siri که با استفاده از متدهای آماری ذکر شده ساخته شده، تا این حد قوی و تاثیرگذار است. این سیستم که در اصل توسط موسسه SRI International ساخته شد و حتی یک اپلیکیشن مجزا در اپ استور iOS داشت، به سرعت توسط شرکت اپل خریداری شد و در iOS ادغام شد و امروز یکی از برجستهترین ثمرات یادگیری ماشینی محسوب میشود چون در کنار محصولات شرکت گوگل (Assistant)، مایکروسافت (Cortana) و آمازون (Alexa) شیوههای تعامل ما با دستگاهها و ابزارهای الکترونیکی را به گونهای متحول کردند که تا همین چند سال پیش غیرممکن به نظر میرسید.
امروزه چنین تکنولوژیهایی برای ما چندان قابل توجه نیستند اما فقط کافیست از افرادی که قبل از سال 2010 سعی به استفاده از اپلیکیشنهای تبدیل صدا به متن داشتند، پرس و جو کنیم تا اهمیت و ارزش این تحول را درک کنیم.
چالش ImageNet
شناسایی تصویر هم مثل شناسایی صدا از جمله چالشهای مهمی بوده که هوش مصنوعی سعی به مقابله با آن دارد. در سال 2015 محققان برای اولین بار به این نتیجه رسیدند که ماشینها – که در اینجا این ماشینها دو سیستم عامل از گوگل و مایکروسافت بودند – در زمینه شناسایی اشیاء در تصاویر در بیش از هزار دسته بندی مختلف، نسبت به انسانها قویتر عمل میکنند.
این سیستمها که بر اساس “یادگیری عمیق” ساخته شده بودند، توانستند چالش ImageNet – تستی شبیه تست تورینگ اما برای شناسایی تصاویر – را با موفقیت پشت سربگذارند و تبدیل به یکی از پایههای اساسی سیستمهای شناسایی تصویر شدند.
مسلماً کاربردهای شناسایی تصویر متعدد هستند اما یکی از کاربردهایی که گوگل در تبلیغات پلتفرم یادگیری ماشین خودش به اسم TensorFlow بارها به آن اشاره کرده، مرتب کردن سبزیجات است. با استفاده از بینایی کامپیوتر، کشاورز نیازی به استفاده از انسانها جهت تصمیم گیری درباره اینکه کدام سبزیجات آماده مصرف هستند، ندارد بلکه این ماشینها میتوانند با توجه به آموزشهایی که قبلاً دیده اند، بهترین تصمیم گیری را انجام دهند.
اقتصادیتر شدن هوش مصنوعی با تولید GPU
یکی از دلایل پیشرفت چشمگیری هوش مصنوعی در سالهای اخیر، مقرون به صرفهتر شدن هر چه بیشتر پردازش دادههای حجیم است.
طبق اطلاعات سایت Fortune در اواخر دهه 2000 میلادی محققین متوجه شدند واحدهای پردازش گرافیکی (GPU) که برای اجرای بازی و گرافیکهای سه بعدی ساخته شده بودند، در انجام محاسبات یادگیری عمیق نسبت به CPUهای قدیمی 20 تا 50 برابر قویتر هستند. وقتی مردم متوجه این واقعیت شدند حجم قدرت پردازش در دسترس بشدت افزایش پیدا کرد و پلتفرمهای هوش مصنوعی مبتنی بر ابری ساخته شدند که نسبت به مدلهای ساده قدیمی قدرت بسیار بیشتری دارند.
به چالش کشیدن رقبا توسط AlphaGo و AlphaGoZero
در ماه مارس سال 2016 نیز شاهد یکی دیگر از نقاط عطف هوش مصنوعی بودیم. در این زمان نرمافزار AlphaGo شرکت گوگل توانست لی سدول یکی از قویترین بازیکنان بازی تختهای Go را شکست دهد.
اما آنچه جالب توجه بود این بود که نه تنها Go از نظر ریاضی و محاسباتی نسبت به شطرنج پیچیدهتر است بلکه این سیستم با استفاده از ترکیبی از رقبای انسانی و هوش مصنوعی تعلیم داده شده بود. گوگل توانست با استفاده از 1920 CPU و 280 GPU در چهار مسابقه از پنج مسابقه پیروز شود.
اما خبر جالبتر مربوط به سال قبل و انتشار نسخه جدیدتر این نرمافزار به نام AlphaGo Zero است. در این نرمافزار بر خلاف AlphaGo و Deep Blue به جای استفاده از دادههای قبلی برای یادگیری بازی، خود این سیستم هزاران بازی را علیه خودش انجام داده بود. سه روز بعد از آموزش، این سیستم توانست AlphaGo را که موفق به شکست صد به صفر لی سدول شده بود، شکست دهد و به این ترتیب ماشینهایی ظهور کردند که خودشان را آموزش میدهند.