وبلاگ

خطر بازگشت به عصر حجر توسط هوش مصنوعی

خطر بازگشت به عصر حجر توسط هوش مصنوعی

Robot

بقای گونه‌ی بشر با موانع و خطرات مهمی روبرو است. چه قرار باشد در نهایت، نژاد انسان در اثر برخورد یک شهاب سنگ بزرگ نابود شود یا در اثر یک بلای طبیعی فراگیر و یا یک جنگ هسته‌ای نابود کننده، در هر صورت چند خطر هستند که آینده ما انسان‌ها را تهدید می‌کنند. وقوع برخی از این خطرات احتمال کمتری دارد و بعضی از آنها کاملاً اجتناب ناپذیر هستند.
هر چند فجایع سراسری و جهانی مثل موارد ذکر شده می‌توانند برای گونه بشر نابود کننده باشند، اما اگر جنگ هسته‌ای 99 درصد انسان‌ها را نابود کند، ممکن است 1 درصد باقیمانده جان سالم به در ببرند و تا سال‌ها بعد از این فاجعه به زندگی خودشان ادامه دهند و هیچ آسیب همیشگی و ماندگاری به نژاد انسان وارد نشود.
فجایعی هم هستند که امکان جان سالم به در بردن از آنها، بازسازی شرایط و تداوم حیات انسان‌ها پس از آنها وجود ندارد.
به این اتفاقات فاجعه بار، خطرات یا تهدیدات وجودی گفته می‌شود – یعنی شرایطی که می‌تواند منجر به انقراض نسل بشر شده یا احتمال ادامه بقای انسان را به شدت کم کنند.
همین تهدیدات وجودی، موضوع اصلی یک پادکست 10 قسمتی به نام “پایان جهان با Josh Clark” هستند که قبلاً هم مجری پادکست “چیزهایی که باید حتما بدانید” بود (که اخیراً اولین پادکستی شد که توانست به رتبه 1 میلیارد دانلود برسد).
در این پادکست جدید، Clark راه‌های احتمالی برای به پایان رسیدن دنیا را بررسی می‌کند – از جمله تسلط یک هوش مصنوعی فوق العاده هوشمند بر دنیا.
Clark در دوره تحقیقاتش در رابطه با تهدیدات وجودی، با کارشناسان و متخصصین زیادی در عرصه هوش مصنوعی و تهدیدات وجودی مصاحبه کرده از جمله Nick Bostrom، فیلسوف سوئدی و بنیانگذار موسسه “Future of Humanity”، David Pearce فیلسوف و یکی از بنیانگذاران انجمن World Transhumanist و Sebastian Farquhar فیلسوف و از اساتید دانشگاه آکسفورد.
در این مطلب با وی در رابطه با پادکست جدیدش مصاحبه شده و این که چرا او و کارشناسان عرصه تهدیدات وجودی، تصور می‌کنند که پیشرفت انسان در عرصه هوش مصنوعی می‌تواند به سرنگونی بشریت منجر شود.

خطر وجودی چیست؟

شاید عده‌ای بگویند که همین حالا هم نسل بشر با خطرات مختلفی روبروست؛ یک نمونه بارز از این خطرات، تغییرات آب و هوایی است که اگر توجهی به آن نشود، به گفته Clark، “می‌تواند برای بشریت وحشتناک باشد و بشریت را به عصر حجر یا حتی قبل از آن برگرداند.”
اما به گفته Clark نمی‌توان این خطر را یک تهدید وجودی دانست “ما توانستیم طی ده‌ها هزار سال بشریت را به این نقطه برسانیم این بار شاید خیلی سریع تر از قبل بتوانیم این کار را انجام دهیم چون حالا دانشی را داریم که اولین باری که تمدن بشر ایجاد شد، این دانش را در اختیار نداشتیم.”
اما در مورد تهدید وجودی این طور نیست، به گفته Clark، در مورد تهدیدات وجودی امکان بازسازی وجود ندارد و بشریت برای همیشه محو می‌شود.
Nick Bostrom اولین فردی بود که این ایده را مطرح کرد که باید تهدیدات وجودی را جدی تلقی کنیم. وی در مقاله‌ای که در ژورنال Evolution and Technology منتشر شد، تهدید وجودی را به این صورت تعریف کرد “خطری که پیامدهای نامطلوب آن می‌تواند باعث از بین رفتن حیات در زمین شود یا به صورت دائم و به میزان زیادی پتانسیل‌های آن را کم کند.”

“این ایده که انسان‌ها می‌توانند به صورت تصادفی باعث محو شدن و نابودی خودشان شوند، جذاب [و محتمل] است.”
Josh Clark

Clark می‌گوید در این حالت “حتی اگر ما بتوانیم به بقای خودمان ادامه ندهیم، هرگز قادر نخواهیم بود مجدداً به همان میزان پیشرفت و توسعه که قبل از حادثه داشتیم، دست پیدا کنیم.”
شاید فکر کردن به اقدامات و کارهایی که باعث می‌شوند خودمان را به نابودی بکشیم، سخت و غیرقابل باور باشد، اما وقتی ما هم از دریچه‌ی پادکست “پایان جهان” Clark به این موضوع نگاه کنیم، شاید این شرایط قابل باورتر شود.
وقتی از او سوال شد که چرا چنین موضوع ترسناک و دلهره آوری را دنبال می‌کند گفت “این ایده که بشر می‌تواند تصادفاً منجر به انقراض و نابودی خودش شود، بسیار جذاب است.”
و شاید جذاب ترین تهدید وجودی برای انسان، خطر ناشی از یک هوش مصنوعی فوق العاده هوشمند است که کنترل جهان را به دست می‌گیرد.

Anki Vector : toy robot
Anki Vector یک ربات اسباب بازی همراه است که برای یادگیری از هوش مصنوعی استفاده می‌کند. منبع: Anki

اصول و پایه‌های هوش مصنوعی

در سال‌های اخیر پیشرفت تکنولوژی از جمله پیشرفت سفرهای فضایی، تولد اینترنت و جهش بزرگ در تکنولوژی کامپیوتر، زندگی انسان‌ها را دستخوش تغییرات بزرگی کرده است. هر چه تکنولوژی پیشرفته تر می‌شود، یک تهدید وجودی جدید هم بزرگتر می‌شود: هوش مصنوعی فوق العاده هوشمند.
برای درک این موضوع که چگونه ممکن است هوش مصنوعی انسان را تهدید کند، اول باید نحوه عملکرد آن را درک کنیم. در اپیزود “هوش مصنوعی” این پادکست، Clark بحث را با ارائه مثالی از یک ماشین که برای مرتب کردن و جدا کردن توپ‌های قرمز و سبز ساخته شده، شروع کرد.
تکنولوژی که در چنین ماشین به ظاهر ساده‌ای به کار رفته بسیار پیچیده تر از آنچه شما تصور می‌کنید، است.
در صورتی که این ماشین درست برنامه نویسی شده باشد، مهارت کاملی در دسته بندی توپ‌های قرمز و سبز پیدا می‌کند، درست مثل DeepBlue که در عرصه شطرنج مهارت دارد. اما هر چقدر که این ماشین‌ها جذاب و توانمند به نظر برسند، باز هم فقط قادر به انجام یک کار هستند.
Clarke توضیح داد که “هدف اصلی ابداع هوش مصنوعی، این نبوده که انسان را در شطرنج شکست دهد بلکه هدف اصلی ایجاد ماشینی با هوش عمومی مثل انسان بوده است.”
او ادامه داد “ماشین بودن یعنی خوب بودن فقط در یک عرصه مثل شطرنج. اما ترکیب خوب بودن در بازی شطرنج، محاسبه مالیات، اسپانیایی صحبت کردن، دنبال کردن دستور پخت پای سیب و … این یعنی تقریباً شبیه انسان شدن.”
مسئله‌ای که اولین پیشگامان هوش مصنوعی با آن روبرو شدند نیز همین موضوع بود که چطور می‌توان تجربیات انسان را به صورت کامل به یک ماشین آموخت؟ پاسخ این سوال، استفاده از شبکه‌های عصبی است.

puppy robot
اسباب بازی Aibo شرکت سونی به لطف استفاده از هوش مصنوعی مثل یک سگ واقعی آموزش می‌بیند. منبع: Sony

شبکه عصبی چیست؟

شبکه عصبی، یک روش یادگیری ماشینی است که با مدل سازی مغز انسان انجام می‌شود. در این روش از طریق یک الگوریتم، یک شبکه مصنوعی ساخته می‌شود که امکان یادگیری با استفاده از داده‌های جدید را برای کامپیوتر فراهم می‌کند.
یک نمونه از کارهای متداولی که شبکه‌های عصبی با استفاده از یادگیری عمیق انجام می‌دهند، تشخیص اشیا است. در این حالت شبکه، با تعداد زیادی از اشیایی با نوعی خاص، مثل گربه یا علائم راهنمایی و رانندگی شکل می‌گیرد.
این شبکه با تحلیل الگوهای تکرار شونده در تصاویری که به آن داده می‌شود، یاد می‌گیرد که تصاویر جدید را طبقه بندی کند.

پیشرفت‌های هوش مصنوعی

هوش مصنوعی در ابتدا ماشین‌هایی را تولید می‌کرد که فقط در یک کار مهارت داشتند اما پیشرفت‌های اخیر شبکه‌های مصنوعی امکان توسعه این تکنولوژی را فراهم کرده اند.
به لطف منابع داده عظیم اینترنت مثل تصاویر گوگل و ویدیوهای یوتیوب، تا سال 2006 اینترنت تبدیل به یک نیروی بزرگ برای توسعه شبکه‌های مصنوعی شد.
همین فراهم شدن دسترسی به منابع داده‌ای عظیم، باعث شد عرصه شبکه‌های عصبی به پیشرفت چشمگیری برسد و ماشین‌های مجهز به هوش مصنوعی امروزی دیگر برای یادگیری و آموزش نیاز به سرپرستی و نظارت انسان‌ها نداشته باشند – خود آنها با به کار بستن داده‌های جدید و تحلیل آنها می‌توانند آموزش ببینند.
هر چند شبکه‌های عصبی باعث شده هوش مصنوعی نسبت به گذشته بسیار بهتر عمل کند اما خطر اینجاست که ما به صورت کامل از طرز کار آنها اطلاع نداریم. به گفته Clarke “ما نمی توانیم درون فرایند تفکر و یادگیری هوش مصنوعی را ببینیم.” و همین موضوع می‌تواند باعث ترس و اضطراب افرادی شود که از تکنولوژی هوش مصنوعی استفاده می‌کنند.
مقاله‌ای که در سال 2017 توسط Technology Review منتشر شد، شبکه عصبی را شبیه یک “جعبه سیاه” توصیف کرد – یعنی داده‌ها وارد ماشین می‌شوند و ما خروجی را به صورت اقدامات ماشین می‌بینیم و درک کمی از فرایندی که در این بین اتفاق می‌افتد، داریم.
بعلاوه اگر استفاده از شبکه‌های عصبی باعث شود که خود هوش مصنوعی بتواند به راحتی پیشرفت کند و بدون نیاز به دریافت ورودی از انسان هوشمندتر شود، چطور می‌توان جلوی آن را گرفت که از انسان هوشمندتر نشود؟
به گفته Clark “هوش مصنوعی می‌تواند خودبخود پیشرفت کند، می‌تواند کدنویسی را یاد بگیرد. بذرهای ایجاد یک هوش مصنوعی فوق العاده هوشمند همین حالا هم کاشته شده” و طبق توصیفات Nick Bostrom می‌توان آن را یک تهدید وجودی برای بشریت دانست. وی در مقاله‌ای که در رابطه با تهدید وجودی برای ژورنال Evolution and Technology نوشته می‌گوید “وقتی اولین موجود فوق العاده هوشمند را ساختیم دچار اشتباه شده‌ایم و همین باعث ایجاد اهدافی برای این موجود می‌شود که می‌توانند به نابودی بشر ختم شوند؛ با این فرض که پیشرفت ذهنی فوق العاده زیاد این موجود، قدرت انجام این کار را به او بدهد.”

نشخه 5 nao
پنجمین نسخه‌ی Nao ربات مجهز به هوش مصنوعی شرکت SoftBank Robotics تولید شده و بیش از 10 هزار عدد از آن در سطح جهان فروخته شده است.
منبع: SoftBank Robotics

یک هوش مصنوعی بسیار هوشمند چه تهدیداتی برای انسان ایجاد می‌کند؟

“فرض کنیم که یک ماشین فوق العاده هوشمند، ماشینی باشد که بتواند از تمام فعالیت‌های ذهنی و فکری یک انسان (هر چقدر هوشمند) پیشی بگیرد. از آنجایی که طراحی این ماشین هم یکی از فعالیت‌های ذهنی انسان بوده، یک ماشین فوق العاده هوشمند باید بتواند ماشین‌های بهتری را طراحی کند که این موضوع می‌تواند در نهایت منجر به “انفجار هوشمندی” شود و هوش انسان بشدت از آن عقب خواهند ماند.
این یک نقل قول از I. J. Good یکی از ریاضیدانان بریتانیایی است که Clark هم در پادکست و در این گفتگو به آن به عنوان یکی از راههای چگونگی ایجاد یک هوش مصنوعی فوق العاده قوی اشاره کرد.
وی به عنوان مثال به ماشینی اشاره کرد که روزبروز هوشمندتر شده و قابلیت کدنویسی را دارد – چنین ماشینی قابلیت نوشتن نسخه‌هایی بهتر از خودش را دارد طوریکه با توجه به بهتر شدن دائم این ماشین در انجام کارها، نرخ پیشرفت او به صورت انفجاری افزایش پیدا می‌کند.
Clark توضیح می‌دهد “در نهایت ممکن است هوش مصنوعی ایجاد شود که نسبت به انسان قابلیت بیشتری در کدنویسی و طراحی الگوریتم داشته باشد. در چنین نقطه‌ای وارد مرحله‌ای به نام “انفجار هوشمندی” می‌شویم و اینجاست که انسان رو به نابودی خواهد رفت.”

خیرخواهی و نیک اندیشی یک خصلت انسانی است

اما چرا این موضوع یک تهدید وجودی محسوب می‌شود؟ Clark خواست “هوش مصنوعی را تصور کنیم که ما انسان‌ها ساختیم و فراتر از کنترل ما هوشمند شده است.”
وی ادامه داد “اگر آنچه را که نظریه پردازان هوش مصنوعی به نام ‘friendliness’ (مساعدت و مهربانی) می‌نامند در هوش مصنوعی ادغام نکنیم، هیچ دلیلی وجود ندارد که این هوش مصنوعی به صلاح ما و طبق منافع ما عمل کند.”
در حال حاضر از هوش مصنوعی برای توصیه فیلم در Netflix، پر کردن فید شبکه‌های اجتماعی با مطالب مورد علاقه کاربران و ترجمه زبان‌های انسانی از طریق اپلیکیشن‌هایی مثل Google Translate استفاده می‌شود.
فرض کنید گوگل‌ترنسلیت به لطف قابلیت‌های پیشرفت و بهبود خودکاری که از طریق شبکه‌های عصبی فراهم شده، فوق العاده هوشمند شود. به گفته Clark “هیچ خطر ذاتی در مترجمی که فوق العاده هوشمند شده باشد وجود ندارد چون این مترجم در کار خودش خیلی بهتر خواهد شد. خطر وقتی ایجاد می‌شود که این مترجم به این نتیجه برسد که برای پیشرفت و بهبود کاری که ما برایش در نظر گرفتیم، به چیزهای دیگری نیاز دارد.”
مثلاً ممکن است این هوش مصنوعی مترجم تصمیم بگیرد که برای پیشرفت خودش به فضای بیشتری از شبکه نیاز دارد یا این که برای ساخت سرورهای بیشتر باید جنگل‌ها را نابود کند.
Clark توضیح می‌دهد برای تولید این پادکست، نگاهی به تحقیقات افرادی مثل Bostrom داشته که باور دارد در چنین شرایطی ما “وارد نبردی بر سر منابع با هوشمندترین موجودات جهان خواهیم شد – و احتمالاً در این نبرد شکست خواهیم خورد.” قبلاً هم چنین صحبت‌هایی را از زبان افراد دیگر مثل یکی از محققین مایکروسافت به نام Eric Horvitz و Stephen Hawking هم شنیده بودیم.

دیدار دختربچه و ربات
ملاقات یک دختر بچه با یک ربات در اوساکای ژاپن. منبع تصویر: Andy Kelly در Unsplash

در مقاله ژورنالی که قبلاً هم اشاره کردیم Bostrom یک سناریوی فرضی را شرح می‌دهد که طبق این سناریو ممکن است یک هوش مصنوعی فوق العاده هوشمند یک تهدید وجودی برای انسان ایجاد کند: “ما از هوش مصنوعی می‌خواهیم که یک مسئله ریاضی را حل کند و او هم با تبدیل تمام مواد منظومه شمسی به یک دستگاه محاسباتی غول پیکر – فرایندی که باعث کشته شدن کسی که این سوال را پرسیده، می‌شود – سعی می‌کند به این خواسته عمل کند.”
پس مسئله، ایجاد هوش مصنوعی نیست که ذاتاً شیطانی و بدخواه باشد – در دنیای یادگیری ماشینی چیزی به اسم خوب و بد و شیطانی وجود ندارد. مسئه اینجاست که ممکن است هوش مصنوعی دائماً به تلاش برای بهبود و پیشرفت در انجام کاری که برای آن ساخته شده، ادامه دهد تا حدی که برایش مهم نباشد که اقدامات او برای بهبود کارایی یا دقتش، می‌توانند به ضرر انسان‌ها باشند.
به گفته Clarke مشکل تهدید وجودی ناشی از “عدم موفقیت ما برای برنامه ریزی دوستی و خیرخواهی در هوش مصنوعی‌ای است که در نهایت فوق العاده هوشمند می‌شود.”

“ممکن است یک هوش مصنوعی فوق العاده قوی بر دنیا مسلط شود و در نتیجه ما تبدیل به شامپانزه‌های قرن بیست و یکم شویم.”
Josh Clarke

راهکارهایی برای مشکل هوش مصنوعی

اما برای حل این مسئله چه کارهایی را می‌توان انجام داد؟ به گفته Clark این یک چالش بزرگ است و اولین گام برای حل این چالش این است که “محققین بپذیرند که این، یک مشکل واقعی است” و توضیح داد که عده زیادی حس می‌کنند هوش مصنوعی در مسیری قرار دارد که برنامه ریزی برای مقابله با خطرات احتمالی آن در آینده کار بی ارزشی است.
بعد از آن باید تشخیص دهیم که چطور می‌توانیم خیرخواهی را در هوش مصنوعی برنامه ریزی کنیم که انجام این کار برای محققین هوش مصنوعی هم در حال حاضر و هم در آینده دشواری‌های زیادی به همراه خواهد داشت.
یکی از مشکلات و مسائلی که هنگام تدریس ارزش‌ها و اخلاقیات به هوش مصنوعی ایجاد می‌شود، این است که ارزش‌ها و اخلاقیات چه کسی را باید به هوش مصنوعی آموخت؟ چون مسلماً یک توافق نظر جمعی و سراسری درباره این موضوع وجود ندارد.
حتی اگر یک مجموعه اخلاقیات را برای آموزش به هوش مصنوعی انتخاب کنیم، مسئله بعدی این است که چطور می‌توانیم مفهوم اخلاقی بودن را به یک ماشین توضیح دهیم؟

Robot
منبع تصویر: Franck V از Unsplash

چرا باید برای مقابله با تهدیدات وجودی برنامه ریزی کنیم؟

اما اگر هوش مصنوعی چنین خطر بزرگی را برای ما ایجاد می‌کند، چرا تحقیق و توسعه این تکنولوژی را متوقف نکنیم؟ به گفته I. J. Good هر چقدر این احتمال وجود دارد که هوش مصنوعی بشریت را به نابودی بکشاند این احتمال هم وجود دارد که تبدیل به بهترین اختراع بشر شود.
Clark می‌گوید ما در نقطه‌ای از تاریخ قرار داریم که می‌توانیم بزرگترین اختراع بشریت یعنی یک هوش مصنوعی فوق العاده قوی را ایجاد کنیم که بتواند تمام نیازهای بشر برای بقاء را برآورده کند.
“یکی از مسیرهای این جاده به سمت ایجاد تصادفی یک هوش مصنوعی فوق العاده قوی می‌رود که بر دنیا مسلط می‌شود و در نتیجه ما تبدیل به شامپانزه‌های قرن بیست و یکم می‌شویم.”
ما درباره مسیری که هوش مصنوعی در آینده طی خواهد کرد، اطلاع کافی نداریم اما Clark یک نکته را مشخص کرده: مسلماً باید تهدیدات وجودی را جدی بگیریم در غیر این صورت ممکن است بشریت پیش از آنکه به پتانسیل واقعی خودش دست پیدا کند، نابود شود.

منبع : Techradar

وبلاگ

انتخاب راهکارهای امنیتی مناسب برای محیط‌های کار با داده‌های حجیم

انتخاب راهکارهای امنیتی مناسب برای محیط‌های کار با داده‌های حجیم

امروزه دیتا یعنی پول و ثروت؛ برای برخی سازمان‌ها دیتا تبدیل به ارزشمندترین کالا شده و این یعنی حالا قدرت در دست مصرف کنندگان و مشتریان است. کسب و کارها می‌توانند با جمع آوری دیتاست‌های عظیم و شناسایی الگوهای بازار، گرایشات روز و ارتباطات موجود در این داده‌ها رفتار و تعاملات انسان‌ها را تحلیل کرده و تصمیماتی بگیرند که تجربیات مشتریان را به بهترین شک ممکن اصلاح کند. بیگ دیتا یک کسب و کار عظیم است و تمام سازمان‌ها با هر ابعاد و اندازه‌ای در حال سرمایه گذاری روی علم داده و پلتفرم‌های تحلیلی هستند. هر زمان که نام داده به میان می‌آید باید بلافاصله به موضوع امنیت پرداخت بخصوص با توجه به اینکه حالا بیگ دیتا همه جا حضور دارد – در داخل سازمان‌ها، کلود، در جریان‌های داده‌ای که از حسگرها و دستگاه‌های مختلف استخراج می‌شوند و در هنگام انتقال آنها به اینترنت. اما معمولاً جنبه امنیتی این دیتاست‌ها نادیده گرفته می‌شود. طی پنج سال اخیر همزمان با رشد حجم داده‌هایی که سازمان‌ها درخواست و جمع آوری می‌کنند، میزان نشت داده نیز افزایش یافته است. یاهو، فیسبوک، دراپ‌باکس، اکوئیفاکس، توئیتر و گوگل تنها چند نمونه از کمپانی‌هایی هستند که برای جمع آوری داده‌های حجیم و همچنین نشت داده‌های مشتریانشان شناخته شده‌اند. حالا با توجه به انبوه اطلاعات شخصی حساسی که توسط کمپانی‌ها جمع آوری می‌شود، مجرمین سایبری بیش از قبل به دنبال دسترسی به این داده‌ها برای انجام اقدامات خرابکارانه هستند. در این مقاله انتخاب راهکارهای امنیتی مناسب برای محیط‌های کار با داده‌های حجیم را بررسی می کنیم.

برای محافظت از اطلاعات شخصی در این عرصه باید به امنیت داده محور روی آورد. امنیت داده محور سعی دارد به جای تمرکز بر مسیرهای حمله قدیمی که مربوط به زیرساخت‌های IT یا امنیت سیستم‌ها بود بر خود داده‌ها – تغییر دادن ماهیت دیتا برای محافظت از آن در برابر سوء استفاده و جاسوسی – متمرکز شود. با این حال انتخاب یک راهکار درست و مناسب از بین گزینه‌های داده محور موجود می‌تواند کار سختی باشد. شرکت‌های مختلف ادعا می‌کنند که می‌توانند راهکارهای داده محور مناسبی ارائه کنند اما در اغلب موارد این راهکارها به گونه‌ای نیستند که بتوان از آنها در محیط‌های تحلیل داده‌های حجیم استفاده کرد.
•ایجاد خط لوله‌های قابل اطمینان برای دیتا به کمک هوش مصنوعی و DataOps
•نفوذ بیگانگان به سرورها: امنیت داده‌ها و اقتصاد گیگ (Gig Economy)
•مقابله با جرایم سایبری به کمک فرهنگ امنیت
یک راهکار داده محور ایده آل برای تحمل بار کاری ناشی از نیازهای تحلیلی آینده باید چندین جنبه حیاتی و مهم را داشته باشد. این راهکارها برای محافظت موثر و کارآمد از داده‌های حجیم باید خصوصیات زیر را داشته باشند:

مقیاس پذیری
طبیعتاً امروزه داده‌های حجیم همواره در حال استفاده هستند و به همین دلیل حفظ امنیت آن یه امر ضروری است.
بنابراین راهکارهای داده محور باید بدون هر گونه تاثیری بر کارایی و عمکرد فعلی، قابلیت مقیاس پذیری برای هر نوع حجم کاری را داشته باشند صرف نظر از این که قرار است از این داده‌ها به صورت لحظه‌ای و بلادرنگ استفاده شود یا تاریخچه آنها مورد تحلیل قرار بگیرد.

عملکرد بی وقفه
با توجه به اینکه امروزه هوش مصنوعی و یادگیری ماشینی در خیلی از نرم افزارها مورد استفاده قرار می‌گیرند، کسب و کارها سعی دارند از این تکنولوژی‌ها در سیستم‌هایشان استفاده کنند تا با استفاده از نیروی انسانی کمتر، داده‌های بیشتری را پردازش کنند.
همچنین از آنجا که سرعت برای کسب و کارها اهمیت زیادی دارد، امنیت هم باید سرعتی همگام با سرعت رشد و تحول کسب و کارها داشته باشد. تنها راه رسیدن به این هدف استفاده از راهکارهای امنیتی داده محوری است که بتواند به خوبی از قابلیت‌های هوشمند خود برای استریم‌های دیتا و توزیع بار کاری استفاده کند.

انتخاب راهکارهای امنیتی مناسب برای محیط‌های کار با داده‌های حجیم

دسترس پذیری و قابلیت سازگاری
ویژگی‌هایی مثل دسترس پذیری و قابلیت سازگاری همواره مورد نیاز هستند و امنیت نباید عاملی برای حذف این ویژگی‌ها باشد. اگر به هر دلیلی مشکلی ایجاد شد، تکنولوژی امنیتی باید با قابلیت‌هایی که در زمینه تحمل خطا دارد، این تضمین را ایجاد کند که مشکلات به صورت خودکار و بدون اختلال در عملکرد کلی سیستم حل خواهند شد.
راهکارهای داده محور برای ایجاد حداکثر میزان ارزش و محافظت باید به هر جایی که احتمالاً دیتایی در آنجا هست، دسترسی داشته باشند.

انعطاف پذیری
بسیاری از سازمان‌ها برای پیاده سازی سیستم‌ها، استانداردها و پلتفرم‌هایی به هم پیوسته جهت اجرای پروژه‌های بیگ دیتا از فریم ورک‌های بیگ دیتا مثل Spark، MapReduce و Hadoop استفاده می‌کنند.
اما این محیط‌های اپن سورس روی سیستم‌های سنتی و قدیمی‌تر کار می‌کنند و با توجه به این که دائماً شاهد ظهور تکنولوژی‌های جدید هستیم، راهکار داده محور باید سطح انعطاف پذیری لازم را داشته باشد تا این اطمینان ایجاد شود که این راهکار قدیمی و از رده خارج نشده است.

انتخاب راهکارهای امنیتی مناسب برای محیط‌های کار با داده‌های حجیم

پوشش تمام محیط‌ها
با ظهور تحول دیجیتال، محیط‌های رایانش ابری برای تمام کسب و کارها جذابیت بیشتری پیدا کرده اند. یکی از ویژگی‌های لازم برای راهکار امنیتی مورد استفاده سازمان‌ها، پشتیبانی از محیط فعلی و یا محیط مورد استفاده‌ی سازمان در آینده برای تحلیل داده‌های حجیم است؛ چه این محیط داخلی باشد، چه روی بستر ابر باشد و یا هر دو (ابر ترکیبی) – و یا حتی محیط چند ابری.
وقتی بحث پیاده سازی راهکار امنیتی برای پلتفرم‌ها و ابزارهای تحلیل داده‌های حجیم در میان باشد، راهکار مورد استفاده باید انعطاف پذیری لازم برای ادغام با اپلیکیشن‌های بومی و مبتنی بر API را داشته باشد تا به این ترتیب نیازی به اتلاف زمان و منابع جهت تغییر اپلیکیشن‌هایی که از قبل نصب شده‌اند، وجود نداشته باشد.

توکنیزاسیون (Tokenization)
در نهایت، بهترین راه محافظت از داده‌های حساس و تحلیل آنها استفاده از توکنیزاسیون یا به عبارتی جایگزینی المان‌های داده‌ای حساس با معادل‌هایی غیر حساس (که به نام توکن شناخته می‌شوند) است. با توکنیزه کردن داده‌های حساس، ابزارهای تحلیلی می‌توانند بدون ایجاد خطری برای داده‌های شخصی و محرمانه اطلاعات مورد نیاز را از دل آنها استخراج کنند. این رویکرد منجر به از بین رفتن یکی از مشکلات اصلی راهکارهای امنیتی کلاسیک می‌شود که قادر به محافظت از داده‌های حساس نیستند. سازمان‌ها باید مکانیزم‌های امنیتی را پیاده‌سازی کنند که همراه با داده‌ها بین دستگاه‌ها، لوکیشن‌ها و مدل‌های میزبانی مختلف حرکت کنند. توکنیزه کردن یکی از قابلیت‌های کلیدی برای ایجاد معماری با مدل امنیتی Zero-Trust در یک سازمان است.
در سال‌های پیش رو که حجم داده‌های جمع آوری شده و نیاز به محافظت از آنها افزایش می‌یابد راهکارهای امنیتی داده محوری که شرایط ذکر شده را داشته باشند، بهتر می‌توانند نیازهای کمپانی‌ها را برآورده کنند.

وبلاگ

آشنایی با 5 مورد از اصطلاحات مهم هوش مصنوعی

آشنایی با 5 مورد از اصطلاحات مهم هوش مصنوعی

آشنایی با 5 مورد از اصطلاحات مهم هوش مصنوعی

درک معنی اصطلاحات مهم در حوزه هوش مصنوعی که هر فردی باید با آنها آشنا باشد
امروزه هوش مصنوعی با سرعت بسیار زیادی به زندگی دیجیتال ما رخنه کرده و شاهد تاثیرات و نقش‌های مختلف آن در زندگی دیجیتال خودمان هستیم؛ از جمله مطالبی که در شبکه‌های اجتماعی برای ما انتخاب می‌شوند، تشخیص چهره افراد و یا حیوانات در تصاویر و حتی پیشگیری از وقوع تصادف در جاده‌ها. اگر شما هم تمایل به کسب اطلاعات بیشتر درباره هوش مصنوعی دارید، باید کار را با درک اصطلاحات پایه این حوزه شروع کنید.
به همین دلیل ما واژه نامه هوش مصنوعی را گردآوری کردیم و در آن پنج مورد از مهم‌ترین کلمات و عبارت این حوزه را به شما معرفی می‌کنیم تا درک بهتری از این حوزه تکنولوژی پیدا کنید.
اما باید توجه داشت که لزوماً همه درباره تعریف دقیق این کلمات توافق ندارند بنابراین ممکن است در وبسایت‌های مختلف شاهد کاربردهای متفاوتی از این کلمات باشید. سعی ما این بوده که تا حد امکان از تعاریف متداول‌تر این کلمات استفاده کنیم اما با توجه به رشد سریع و نو بودن این حوزه باز هم امکان مشاهده اختلاف درباره تعریف این مفاهیم وجود دارد.

هوش مصنوعی

•بررسی طرح‌های بلندپروازانه مایکروسافت در حوزه هوش مصنوعی

1. الگوریتم‌ها
الگوریتم‌ها مجموعه‌ای از قواعد هستند که برنامه‌های کامپیوتری قادر به دنبال کردن و پیروی از آنها هستند؛ بنابراین اگر بهترین دوست شما عکسی در فیسبوک منتشر کند، طبق این قواعد این عکس باید بالای بخش News Feed اکانت فیسبوک شما قرار بگیرد. یا مثلاً اگر قرار است روی گوگل مپ از محل A به محل B حرکت کنید، یک الگوریتم می‌تواند به شما برای پیدا کردن سریع‌ترین مسیر کمک کند.
معمولاً این قوانین که کامپیوترها آنها را دنبال می‌کنند، توسط انسان‌ها مشخص می‌شوند – بنابراین در مثال ما مهندسین فیسبوک باید مشخص کنند چه مطالبی مهم‌تر هستند و یا مهندسین گوگل باید تعیین کنند چه مسیرهایی سریع‌ترین مسیرها هستند. اما هوش مصنوعی سعی دارد با استفاده از یادگیری ماشینی این الگوریتم‌ها را تغییر داده و جابجا کند تا نرم افزارها بتوانند خودشان این قواعد و قوانین را سازماندهی کنند. مثل اینکه گوگل مپدر صورت دریافت داده‌هایی مبنی بر مسدود شدن یک جاده، الگوریتم انتخاب سریع‌ترین مسیر را تغییر دهد.
اما گاهی اوقات مثلاً در حوزه شناسایی تصویر ممکن است اشتباهاتی رخ دهد و با وجود استفاده از همان قواعد الگوریتمی قبلی، نتایج به دست آمده اشتباه باشد. مثلاً ممکن است شما در جستجوی گربه باشید اما تصویر سگی را مشاهده کنید که به گربه شباهت دارد. در مجموع، الگوریتم‌ها بلاک‌های سازنده اصلی یادگیری ماشینی هستند.

map

2. هوش مصنوعی
اما تعریف خود هوش مصنوعی چیست؟ هر چند پاسخ‌های مختلفی برای این سوال وجود دارد اما به صورت کلی هوش مصنوعی به هر نوع هوشی گفته می‌شود که به صورت مصنوعی ایجاد شود.
مثلاً از آنجا که تلاش شده Siri شبیه یک انسان واقعی به شما پاسخ دهد، پس هوش مصنوعی است یا با توجه به اینکه Google Photos اطلاع دارد که شکل و ظاهر گربه به چه صورت است، پس در آن هم هوش مصنوعی وجود دارد. یا مثلاً آنتونی دنیلز در نقش C-3PO در فیلم جنگ ستارگان – ربات متفکر و سخنگویی که در اصل توسط انسان کنترل می‌شد – نقش یک هوش مصنوعی را دارد.
تعریف هوش مصنوعی بسیار وسیع و گسترده است و به همین علت همیشه ابهاماتی در رابطه با این مفهوم وجود داشته است. هوش مصنوعی رویکردها و انواع متفاوتی دارد بنابراین باید این تفاوت‌ها را درک کنید چون وقتی گفته می‌شود، وسیله یا سیستمی مجهز به هوش مصنوعی است، طیف وسیعی از تکنولوژی‌های مختلف می‌توانند در آن به کار رفته باشند.

ربات

3. یادگیری عمیق
یادگیری عمیق یکی از انواع یا زیرمجموعه‌های یادگیری ماشینی است و به همین دلیل بسیاری از اوقات این دو اصطلاح با هم ترکیب می‌شوند و در خیلی مواقع برای توصیف یک هوش مصنوعی می‌توان از هر دوی این اصطلاحات استفاده کرد. یادگیری عمیق هم نوعی یادگیری ماشینی است اما با توجه به لایه‌ها و ظرافت‌های بیشتری که دارد، طوری طراحی شده که هوشمندتر باشد و شبیه‌تر به مغز انسان کار کند.
دو پیشرفت تکنولوژیکی همواره منجر به تقویت یادگیری عمیق شده اند که این دو پیشرفت عبارتند از: جمع آوری داده‌های بیشتر و قوی‌تر شدن سخت افزارها. به همین دلیل هر چند ریشه‌های اصلی این مفهوم به دهه‌ها قبل برمی گردد، اما به تازگی شاهد متداول شدن آن هستیم.
خیلی از اوقات در یادگیری ماشینی از شبکه‌های عصبی برای اضافه کردن لایه‌های هوشمندی استفاده می‌شود. مثلاً یادگیری عمیق و یادگیری ماشینی هر دو می‌توانند با اسکن میلیون‌ها عکس گربه، یک گربه را در یک عکس تشخیص دهند – اما تفاوت این دو از این جهت است که برای سیستمی که با یادگیری ماشینی کار می‌کند باید ویژگی‌های گربه را مشخص کرد اما یادگیری عمیق می‌تواند خودش با بررسی داده‌های خام (در صورت کافی بودن این داده‌ها) تشخیص دهد که شکل گربه به چه صورت است.

گوگل

4. یادگیری ماشینی
اما همانطور که اشاره شد، یادگیری ماشینی به گونه‌ای است که با بررسی کامل نمونه‌ها، قادر به تشخیص ویژگی‌ها و یادگیری آنها است. یکی از کاربردهای شناخته شده یادگیری ماشینی، بحث شناسایی تصویر است. اگر به چنین سیستمی تعداد کافی عکس گربه ارائه کنید، در نهایت وقتی یک عکس گربه متفاوت به آن بدهید بدون کمک اپراتور انسانی می‌تواند گربه را در عکس تشخیص دهد. با پیشرفت هوش مصنوعی و فراتر رفتن آن از برنامه نویسی‌های ساده و ابتدایی، آموزش آن با استفاده از داده‌ها و بحث یادگیری ماشینی شکل گرفت.
یک مثال خوب دیگر از یادگیری ماشینی برنامه AlphaGo از گوگل است که توسط انسان آموزش دیده اما خود آن بر اساس این آموزش‌ها قادر به تصمیم گیری است. یکی دیگر از نکاتی که AlphaGo به خوبی آن را مشخص می‌کند این است که خیلی از انواع هوش مصنوعی کاربرد خاصی دارند و تک منظوره هستند؛ مثلاً این سیستم در انجام بازی Go مهارت فوق العاده‌ای دارد اما برای حرکت دادن یک ماشین خودکار کاملاً بلا استفاده است.

بازی

5. شبکه‌های عصبی
شبکه‌های عصبی که ارتباط تنگاتنگی با یادگیری عمیق دارد، سعی دارد فرایندهای مغز انسان را با توجه به اطلاعاتی که تا به امروز درباره عملکرد آن داریم، شبیه سازی کند. باز هم باید اشاره کرد که توسعه و پیشرفت شبکه‌های عصبی تنها در چند سال اخیر و با استفاده از پردازشگرهای پیشرفته میسر شده است.
این یعنی وجود لایه‌های مختلفی در شبکه عصبی که در آن به جای بررسی یک عکس و تصمیم گیری درباره اینکه آیا گربه‌ای در آن هست یا خیر، ویژگی‌های مختلف گربه و عکس در نظر گرفته می‌شود و به هر کدام یک درجه اهمیت تعلق می‌گیرد. نتیجه نهایی ایجاد یک موتور تشخیص گربه است که دقت بسیار بالاتری دارد (و به همین علت در سالهای اخیر حوزه شناسایی تصاویر پیشرفت زیادی پیدا کرده است).
اگر این مفهوم برای شما قابل درک نیست نباید نگران باشید چون بحث شبکه‌های عصبی از جمله مفاهیمی نیست که بتوانید آن را با یک توضیح مختصر در حد چند پاراگراف درک کنید. در مجموع، می‌توان آن را یکی دیگر از ابزارهای یادگیری ماشینی برشمرد که برای شبیه سازی برخی از ظرافت‌های هوش انسانی ساخته شده است.

وبلاگ

معرفی 10 مورد از مهم‌ترین پیشرفت‌های هوش مصنوعی

معرفی 10 مورد از مهم‌ترین پیشرفت‌های هوش مصنوعی

در حال حاضر “هوش مصنوعی” یکی از داغ‌ترین بحث‌ها در حوزه تکنولوژی محسوب می‌شود؛ به این دلیل که پس از دهه‌ها تحقیق و توسعه در این حوزه، طی چند سال اخیر شاهد ظهور تکنیک‌هایی بودیم که پدیده‌های علمی تخیلی را تبدیل به واقعیت کردند.
همین حالا هم نقش تکنیک‌های هوش مصنوعی در بخش‌های مختلف زندگی ما انسان‌ها مشاهده می‌شود از جمله اینکه هوش مصنوعی نتایج جستجوهای ما را تعیین می‌کند، صدای ما را تبدیل به دستورالعمل‌هایی می‌کند که برای کامپیوتر قابل فهم باشد و غیره. در چند سال آینده از هوش مصنوعی برای راندن خودروها، پاسخ دادن به سوالات مشتریان در بخش پشتیبانی و کارهای بیشمار دیگری استفاده خواهد شد.
اما چگونه به این نقطه رسیدیم؟ این تکنولوژی قدرتمند چگونه ایجاد شد؟ در این مطلب نقاط عطف مهم در روند پیشرفت هوش مصنوعی را مرور می‌کنیم.

شکل گیری ایده‌ای بزرگ
مسلماً مفهوم هوش مصنوعی یک باره ایجاد نشد بلکه موضوع یک بحث فلسفی عمیق بود که هنوز هم وجود دارد: آیا یک سیستم (یا ماشین) می‌تواند مثل انسان فکر کند؟ آیا یک سیستم می‌تواند انسان باشد؟ یکی از اولین افرادی که درباره این موضوع به تفکر و بحث پرداخت رنه دکارت بود که در سال 1637 در کتابی به اسم گفتار در روش (Discourse on the Method) به این موضوع پرداخته بود. نکته جالب این است که در زمانی که حتی تصور وجود سیستمی مثل Amstrad Em@iler هم ممکن نبود، دکارت به برخی از سوالات و چالش‌های مهمی که تکنولوژی باید بر آنها غلبه کند، پرداخته بود:
“اگر ماشین‌هایی وجود داشتند که شباهت زیادی به بدن ما داشتند و کارهای ما را با حداکثر شباهت ممکن تقلید می‌کردند، باز هم دو روش خیلی قطعی وجود داشت که مشخص می‌کرد آنها انسان واقعی نیستند.”

معرفی 10 مورد از مهم‌ترین پیشرفت‌های هوش مصنوعی
او به توضیح دیدگاهش ادامه داده و گفته ماشین‌ها هرگز نمی‌توانند از کلمات استفاده کرده یا علائم را کنار هم قرار دهند تا افکار ما را برای دیگران بیان کنند و حتی اگر چنین ماشینی وجود داشت “متقاعد کننده نیست که چنین ماشینی بتواند ترتیب‌های مختلف کلمات را تولید کند، طوریکه یک پاسخ کاملاً معنادار ایجاد کند؛ کاری که حتی کند ذهن‌ترین انسان‌ها هم قادر به انجام آن هستند.”
او بحث را ادامه داده و به یکی از چالش‌های مهمی می‌رسد که امروزه با آن روبرو هستیم یعنی ایجاد یک هوش مصنوعی تعمیم یافته نه هوشی که تمرکز و حیطه کاری محدودی داشته باشد و اینکه محدودیت‌های هوش مصنوعی نشان می‌دهد که یک ماشین قطعاً نمی‌تواند انسان باشد:
“حتی اگر بعضی ماشین‌ها بتوانند یکسری کارها را به خوبی خود ما یا حتی بهتر از ما انجام دهند، در انجام سایر کارها موفق نخواهند بود و این نشان می‌دهد که چنین ماشین‌هایی از روی درک عمل نمی‌کنند بلکه صرفاً با توجه به وضعیت ارگان‌ها و اندام بدنشان عمل می‌کنند.”
حالا به لطف کارها و تحقیقات دکارت، ما با چالش‌های هوش مصنوعی آشنایی داریم.

بازی تقلید
دومین کار فلسفی برجسته در این حوزه، متعلق به آلن تورینگ یکی از پیشگامان علوم کامپیوتر است. او در سال 1950 موضوعی به اسم “تست تورینگ” و “بازی تقلید” را شرح داد؛ بازی تقلید آزمایشی بود که نشان می‌داد چه موقع می‌توانیم یک ماشین را هوشمند تلقی کنیم.
آزمایش او کاملاً ساده بود: اگر یک داور نتواند ظاهر ماشین را از انسان تشخیص دهد (یعنی اینکه مثلاً فقط از طریق تعامل متنی با هر دوی آنها در ارتباط باشد) آیا ماشین می‌تواند او را فریب دهد تا نتواند تشخیص دهد کدامیک انسان هستند؟

معرفی 10 مورد از مهم‌ترین پیشرفت‌های هوش مصنوعی
حیرت انگیز است که در آن زمان، تورینگ پیش بینی قابل توجهی درباره آینده کامپیوترها انجام داده بود؛ او پیش بینی کرده بود که تا انتهای قرن بیستم این آزمایش با موفقیت انجام خواهد شد. وی گفت:
“به باور من تا 50 سال آینده می‌توان کامپیوترهایی با ظرفیت ذخیره حدود [1گیگابایت] را طوری برنامه نویسی کرد که بازی تقلید را آنقدر خوب انجام دهند که یک داور معمولی پس از پنج دقیقه سوال کردن، شانسی بیشتر از 70 درصد برای تشخیص کامپیوتر از انسان نداشته باشد… من باور دارم که در انتهای این قرن استفاده از کلمات و تعلیم دانش طوری تغییر می‌کند که بتوان ماشین‌هایی با قدرت تفکر داشت.”
متاسفانه پیش بینی او کمی ناپخته بود چون هر چند امروزه به تدریج شاهد ظهور هوش مصنوعی پیشرفته هستیم، اما این تکنولوژی در سال 2000 بسیار ابتدایی و ساده بود. اما حداقل در زمینه ظرفیت هارد دیسک – که تا پایان آن قرن تقریباً حدود 10 گیگابایت بود – پیش بینی خوبی داشت.

اولین شبکه عصبی
شبکه عصبی نامی است که دانشمندان برای یکی از مفاهیم بنیادی و تاثیرگذار بر هوش مصنوعی مدرن یعنی بحث آزمون و خطا انتخاب کرده اند. در اصل، بهترین روش برای تعلیم دادن هوش مصنوعی این است که سیستم را ملزم به حدس زدن، دریافت بازخورد و حدس زدن دوباره کنیم – و با این کار احتمال رسیدن به پاسخ درست توسط سیستم را افزایش دهیم.

معرفی 10 مورد از مهم‌ترین پیشرفت‌های هوش مصنوعی
نکته قابل توجه این است که اولین شبکه عصبی در اصل در سال 1951 ساخته شد. این سیستم که SNARC – مخفف کلمات Stochastic Neural Analog Reinforcement Computer نام داشت – توسط ماروین مینسکی و دین ادموندز ساخته شده بود و جالب اینجاست که با ترانزیستور و میکروچیپ ساخته نشده بود بلکه با لامپ خلأ، موتور و کلاچ ساخته شده بود.
چالش این ماشین این بود که به یک موش برای حل یک هزارتو کمک کند. این سیستم، دستورالعمل‌های لازم برای حرکت در این هزارتو را صادر می‌کرد و تاثیر اقدامات انجام شده به آن برگردانده می‌شد – از لامپ خلأ برای ذخیره خروجی‌ها استفاده شده بود. این، یعنی سیستم مورد نظر می‌توانست یاد بگیرد و احتمالات را تغییر دهد و به این ترتیب احتمال رد شدن از هزارتو را افزایش دهد.
این در واقع یک نسخه بسیار بسیار ساده از همان فرایندی است که گوگل امروزه برای شناسایی اشیاء در تصاویر از آن استفاده می‌کند.

اولین اتومبیل خودران
وقتی درباره اتومبیل خودران صحبت می‌شود معمولاً به چیزهایی مثل پروژه Waymo شرکت گوگل فکر می‌کنیم اما جالب اینجاست که در سال 1995 شرکت مرسدس بنز موفق شد یک مدل اصلاح شده از کلاس S مرسدس را تقریباً به صورت خودکار و مستقل از شهر مونیخ به کپنهاگ هدایت کند.

معرفی 10 مورد از مهم‌ترین پیشرفت‌های هوش مصنوعی
طبق آنچه در سایت AutoEvolution نوشته شده، این سفر 1043 مایلی با استفاده از قدرت یک سوپرکامپیوتر انجام شده است – این خودرو حاوی 60 تراشه transputer بود که در آن زمان در حوزه پردازش موازی بسیار پیشرفته محسوب می‌شد و می‌توانست حجم انبوهی از داده‌های مربوط به رانندگی را با سرعت زیاد پردازش کند و این موضوع نقش مهمی در عکس العمل سریع و به موقع خودرو داشت.
این خودرو به سرعت 115 مایل بر ساعت رسید و تقریباً شبیه خودروهای مستقل امروزی بود چون می‌توانست علائم جاده را بخواند و سبقت بگیرد.

حرکت به سمت علم آمار
هر چند مدت زیادی از شکل گیری مفهوم شبکه‌های عصبی می‌گذرد، اما در واقع در اواخر دهه 80 میلادی بود که محققین هوش مصنوعی از روش مبتنی بر قاعده به سمت روش‌های مبتنی بر آمار – یا یادگیری ماشینی – حرکت کردند. این یعنی به جای تلاش برای ساخت سیستم‌هایی که با استنباط از قواعدی که انسان بر اساس آنها عمل می‌کنند، هوش انسانی را تقلید کنند، از روش آزمون و خطا و تنظیم احتمالات بر اساس بازخوردهای دریافتی استفاده شود که برای تعلیم دادن کامپیوترها بسیار مناسب‌تر است. این تغییر بسیار مهم بود چون پایه و اساس تمام کارهای بزرگی است که امروزه هوش مصنوعی قادر به انجام آنهاست.
Gil Press از فوربز ادعا می‌کند که این تغییر در سال 1988 شکل گرفت، زمانی که مرکز تحقیقات TJ Watson IBM مقاله‌ای تحت عنوان “یک رویکرد آماری برای ترجمه زبان” منتشر کرد که در آن درباره استفاده از یادگیری ماشینی برای انجام کاری که امروزه گوگل ترنسلیت انجام می‌دهد، صحبت شده بود.
ظاهراً IBM به این سیستم، 2.2 میلیون جفت جمله‌ی انگلیسی و فرانسوی تزریق کرده بود تا آن را آموزش دهد و تمام این جمله‌ها از متون نوشته شده در پارلمان کانادا استخراج شده بودند که به هر دو زبان ثبت می‌شود – این کار تا حدودی به این که گوگل امروزه کل اینترنت را در اختیار خود دارد، شباهت دارد و شاید به همین علت امروزه عملکرد گوگل تا این اندازه خوب است.

شکست گری کاسپارف توسط Deep Blue
علیرغم حرکت به سمت مدل‌های آماری، همچنان از مدل‌های مبتنی بر قاعده هم استفاده می‌شود و در سال 1997 IBM مشهورترین مسابقه شطرنج را بین کامپیوتر Deep Blue و قهرمان شطرنج جهان گری کاسپارف برگزار کرد و نشان داد کامپیوترها تا چه اندازه می‌توانند قدرتمند باشند.
البته این مسابقه دوم محسوب می‌شد و در سال 1996 کاسپاروف Deep Blue 4-2 را شکست داده بود. اما در سال 1997 کامپیوتر توانست از 6 مسابقه در 2 مسابقه پیروز شود و 3 مسابقه را با تساوی به پایان ببرد.
هوش Deep Blue تا حد زیادی غیرواقعی بود، خود IBM بر این باور است که این ماشین از هوش مصنوعی استفاده نمی‌کند بلکه از ترکیبی از روش‌های پردازش جستجوی فراگیر – یعنی بررسی هزاران حرکت ممکن در هر ثانیه – استفاده می‌کند. IBM داده‌های مربوط به هزاران بازی قبلی را به عنوان ورودی وارد این سیستم کرد؛ در واقع Deep Blue کار جدیدی یاد نمی‌گرفت بلکه همواره بررسی می‌کرد که استادان بزرگ شطرنج در چنین شرایطی چه عکس العملی از خود نشان داده اند و به گفته IBM این کامپیوتر در اصل “رفتار استادان بزرگ شطرنج در گذشته را تقلید می‌کند.”
در هر صورت چه این سیستم هوش مصنوعی محسوب شود یا نشود، نکته مسلم این است که این اقدام یکی از برجسته‌ترین نقاط عطف حوزه هوش مصنوعی بود و توجه زیادی را به قدرت محاسباتی کامپیوترها و کل این رشته جلب کرد. پس از شکست کاسپارف، برگزاری مسابقه بین انسان‌ها و کامپیوترها تبدیل به یک امر متداول و روشی محبوب برای ارزیابی هوش ماشین‌ها شد – همانطور که در سال 2011 سیستم واتسون IBM دو نفر از بهترین شرکت کننده‌های مسابقه تلویزیونی Jeopardy را شکست داد.

پردازش زبان طبیعی توسط Siri
پردازش زبان طبیعی همواره جزء یکی از مفاهیم مهم در حوزه هوش مصنوعی بوده و البته اگر قرار باشد دنیایی با ربات‌هایی شبیه انسان داشته باشیم جزء یکی از ویژگی‌های حیاتی آنها محسوب می‌شود.

معرفی 10 مورد از مهم‌ترین پیشرفت‌های هوش مصنوعی
به همین دلیل Siri که با استفاده از متدهای آماری ذکر شده ساخته شده، تا این حد قوی و تاثیرگذار است. این سیستم که در اصل توسط موسسه SRI International ساخته شد و حتی یک اپلیکیشن مجزا در اپ استور iOS داشت، به سرعت توسط شرکت اپل خریداری شد و در iOS ادغام شد و امروز یکی از برجسته‌ترین ثمرات یادگیری ماشینی محسوب می‌شود چون در کنار محصولات شرکت گوگل (Assistant)، مایکروسافت (Cortana) و آمازون (Alexa) شیوه‌های تعامل ما با دستگاه‌ها و ابزارهای الکترونیکی را به گونه‌ای متحول کردند که تا همین چند سال پیش غیرممکن به نظر می‌رسید.
امروزه چنین تکنولوژی‌هایی برای ما چندان قابل توجه نیستند اما فقط کافیست از افرادی که قبل از سال 2010 سعی به استفاده از اپلیکیشن‌های تبدیل صدا به متن داشتند، پرس و جو کنیم تا اهمیت و ارزش این تحول را درک کنیم.

چالش ImageNet
شناسایی تصویر هم مثل شناسایی صدا از جمله چالش‌های مهمی بوده که هوش مصنوعی سعی به مقابله با آن دارد. در سال 2015 محققان برای اولین بار به این نتیجه رسیدند که ماشین‌ها – که در اینجا این ماشین‌ها دو سیستم عامل از گوگل و مایکروسافت بودند – در زمینه شناسایی اشیاء در تصاویر در بیش از هزار دسته بندی مختلف، نسبت به انسان‌ها قوی‌تر عمل می‌کنند.
این سیستم‌ها که بر اساس “یادگیری عمیق” ساخته شده بودند، توانستند چالش ImageNet – تستی شبیه تست تورینگ اما برای شناسایی تصاویر – را با موفقیت پشت سربگذارند و تبدیل به یکی از پایه‌های اساسی سیستم‌های شناسایی تصویر شدند.
مسلماً کاربردهای شناسایی تصویر متعدد هستند اما یکی از کاربردهایی که گوگل در تبلیغات پلتفرم یادگیری ماشین خودش به اسم TensorFlow بارها به آن اشاره کرده، مرتب کردن سبزیجات است. با استفاده از بینایی کامپیوتر، کشاورز نیازی به استفاده از انسان‌ها جهت تصمیم گیری درباره اینکه کدام سبزیجات آماده مصرف هستند، ندارد بلکه این ماشین‌ها می‌توانند با توجه به آموزش‌هایی که قبلاً دیده اند، بهترین تصمیم گیری را انجام دهند.

اقتصادی‌تر شدن هوش مصنوعی با تولید GPU
یکی از دلایل پیشرفت چشمگیری هوش مصنوعی در سال‌های اخیر، مقرون به صرفه‌تر شدن هر چه بیشتر پردازش داده‌های حجیم است.

معرفی 10 مورد از مهم‌ترین پیشرفت‌های هوش مصنوعی
طبق اطلاعات سایت Fortune در اواخر دهه 2000 میلادی محققین متوجه شدند واحدهای پردازش گرافیکی (GPU) که برای اجرای بازی و گرافیک‌های سه بعدی ساخته شده بودند، در انجام محاسبات یادگیری عمیق نسبت به CPUهای قدیمی 20 تا 50 برابر قوی‌تر هستند. وقتی مردم متوجه این واقعیت شدند حجم قدرت پردازش در دسترس بشدت افزایش پیدا کرد و پلتفرم‌های هوش مصنوعی مبتنی بر ابری ساخته شدند که نسبت به مدل‌های ساده قدیمی قدرت بسیار بیشتری دارند.

به چالش کشیدن رقبا توسط AlphaGo و AlphaGoZero
در ماه مارس سال 2016 نیز شاهد یکی دیگر از نقاط عطف هوش مصنوعی بودیم. در این زمان نرم‌افزار AlphaGo شرکت گوگل توانست لی سدول یکی از قوی‌ترین بازیکنان بازی تخته‌ای Go را شکست دهد.

معرفی 10 مورد از مهم‌ترین پیشرفت‌های هوش مصنوعی
اما آنچه جالب توجه بود این بود که نه تنها Go از نظر ریاضی و محاسباتی نسبت به شطرنج پیچیده‌تر است بلکه این سیستم با استفاده از ترکیبی از رقبای انسانی و هوش مصنوعی تعلیم داده شده بود. گوگل توانست با استفاده از 1920 CPU و 280 GPU در چهار مسابقه از پنج مسابقه پیروز شود.
اما خبر جالب‌تر مربوط به سال قبل و انتشار نسخه جدیدتر این نرم‌افزار به نام AlphaGo Zero است. در این نرم‌افزار بر خلاف AlphaGo و Deep Blue به جای استفاده از داده‌های قبلی برای یادگیری بازی، خود این سیستم هزاران بازی را علیه خودش انجام داده بود. سه روز بعد از آموزش، این سیستم توانست AlphaGo را که موفق به شکست صد به صفر لی سدول شده بود، شکست دهد و به این ترتیب ماشین‌هایی ظهور کردند که خودشان را آموزش می‌دهند.

گجت ها

معرفی مسواک هوشمند جدید مجهز به تکنولوژی هوش مصنوعی

معرفی مسواک هوشمند جدید مجهز به تکنولوژی هوش مصنوعی

امروزه تکنولوژی هوش مصنوعی حتی به محصولاتی مثل مسواک هم نفوذ کرده است. کمپانی به اسم Kolibree در نمایشگاه CES 2017 از اولین مسواک هوشمند مجهز به تکنولوژی هوش مصنوعی پرده برداری کرد. این مسواک هوشمند که Ara نام دارد با مسواک‌های سنتی کاملاً متفاوت است. Thomas Serval مدیرعامل و موسس کمپانی Kolibree در توصیف تکنولوژی این محصول می‌گوید:
“در این مسواک الگوریتم‌های یادگیری عمیق جدیدی روی یک پردازشگر کم مصرف تعبیه شده اند… داده‌های جمع آوری شده توسط حسگرها به پردازشگر منتقل می‌شوند و به این ترتیب سیستم قادر به شناسایی عادات شما است و هرچه بیشتر از آن استفاده کنید، دقت آن بیشتر خواهد شد.”

معرفی مسواک هوشمند جدید مجهز به تکنولوژی هوش مصنوعی
Ara می‌تواند مشخص کند که شما دقیقاً چه قسمت‌هایی از دندان‌هایتان را مسواک زده اید و اطلاعاتی همچون تعداد دفعات مسواک زدن، مدت زمان و لوکیشن آن را هم در مود آنلاین و هم مود آفلاین ذخیره می‌کند.
این اطلاعات از طریق بلوتوث کم مصرف در یک اپلیکیشن موبایلی ثبت می‌شود اما برای ثبت آنها نیازی نیست که هر بار مسواک می‌زنید موبایلتان را روشن کنید.
طبق اعلام شرکت Kolibree قرار است از Ara برای انجام یک تحقیق بزرگ در امریکا و اروپا استفاده شود تا مشخص شود هوش مصنوعی چه تاثیری بر رفتارهای روزمره ما و بهداشت دهان و دندان دارد. مسلماً در صورتی که نتایج این مطالعه مثبت بودن تاثیر هوش مصنوعی بر رفتار کاربران را ثابت کند، به زودی شاهد عرضه محصولات بیشتری با قابلیت‌های هوش مصنوعی خواهیم بود.
قرار است این مسواک فوق هوشمند از 1 مارس با قیمت 129 دلار وارد بازار شود اما از 28 فوریه پیش فروش آن با قیمت 79 دلار در سایت Kolibree آغاز می‌شود.