هوش مصنوعی نيز همچون بسياری ديگر از شاخههای علم، دورههای پرفراز و نشيبی را پشت سر گذاشتهاست و امروز با وجود دستاوردهای چشمگيرش در يک سو، موانع کوچک و بزرگی را نيز در سوی ديگر، پيش رو دارد. هدف دانشمندان هوش مصنوعی اين است که ساز و کار سيستمهای هوشمند را تا جایی که میشود به شيوه استدلال و استنباط ذهن انسان شبيهتر کنند. آنچه در ادامه میآيد، نگاهی است به گوشهای بسيار کوچک از تلاشهایی که در سالهای گذشته به انجام رسيده و گاهی نيز راه به آزمون و خطا بردهاست.
پدرو دومينگوس دانشمند علوم کامپيوتر در دانشگاه واشنگتن واقع در شهر سياتل، در دوراهی انتخاب میان يک پزشک يا يک سيستم هوش مصنوعی، به نفع دومی رأی میدهد و میگويد: «من به ماشين بيش از پزشک اعتماد دارم.» باتوجه به اينکه هوش مصنوعی اغلب بازخوردهای بدی دريافت میکند و خيلیها هنوز به آن اعتماد ندارند و آنرا ناديده میانگارند، به ندرت اتفاق میافتد که کسی مثل دومينگوس چنين صريح از آن پشتيبانی کند.
در دهه 1960 ميلادی، به نظر میرسيد که سيستمهای هوش مصنوعی آشکارا قصد دارند خصوصيات کليدی ذهن انسان را تقليد و شبيهسازی کنند. دانشمندان تلاش کردند با استفاده از منطق رياضی به بازنمایی دانش انسان درخصوص جهان واقعی و استدلال درباره آن بپردازند اما اين شيوه، خيلی زود به مانعی بر سر راه هوش مصنوعی تبديل شد. در حالی که منطق میتوانست مثل ذهن انسان نقشی پدیدآورنده و توليدکننده داشته باشد، اما به جهت سرشت خود در مواجهه با موقعيتهای غيرقطعی کارایی نداشت.
هوش مصنوعی پس از گذراندن يک دوره سرد و زمستانی ناشی از موانع موجود بر سر راه، اکنون دوباره در حال شکوفایی است و دومينگوس تنها فردی نيست که با چنين اميد و اعتمادی از آن سخن میگويد. پژوهشگران اميدوارند که اين هوش مصنوعی تازه بتواند از پس کارهایی مانند تشخيص بيماری نوزادان، تبدیل گفتار به متن و حتی به اصطلاح بو کشيدن و شناسایی انفجارهای اتمی غيرعلنی و مخفی برآيد و اين نشان میدهد که حساب ويژهای روی اين شاخه علمی باز شدهاست؛ زیرا از آن انتظار میرود که بتواند در آينده قدرت استدلال انسان را حتی در شرايط درهم و آشفته نيز شبيهسازی کند. يکی از موارد تأثيرگذار در دوره احيای هوش مصنوعی، روشی است که به آن برنامهنويسی يا برنامهسازی احتمالگرا (Probabilistic Programming) گفته میشود و شالودههای منطقی هوش مصنوعی سنتی را با قدرت آمار و احتمال درهم میآميزد. استوارت راسل از پيشتازان هوش مصنوعی مدرن در دانشگاه برکلی کاليفرنيا آنرا اتحاد بين دو تئوری قدرتمند میداند که با هدف درک جهان و استدلال درباره آن پديد آمدهاند. اين ترکيب قدرتمند سرانجام دارد هوای مهآلود و زمستانی حاکم بر عرصه هوش مصنوعی را کنار میزند. از اين رو است که جاش تننباوم دانشمند علوم شناختی انستيتوی فناوری ماساچوست (MIT) میگويد: «بیشک بهار هوش مصنوعی از راه رسيده است.»
عبارت «هوش مصنوعی» در سال 1956 توسط جان مککارتی از دانشگاه MIT ابداع شد. او در آن زمان از بهکارگيری منطق برای ساخت کامپيوترهای استدلالگر حمايت میکرد. اين شيوه به دنبال استفاده از منطق مرتبه اول (first-order logic) به بلوغ رسيد. در منطق مرتبه اول دانش موجود درباره دنيای واقعی با استفاده از نشانهها و نمادهای رياضی مدلسازی میشود. اين شيوه برای دنيای اشيا و رابطه بين اشيا طراحی شدهبود و میتوانست درباره دنيا استدلال کند و به نتايج کاربردی هم دست يابد. به عنوان مثال، اگر شخص X به بيماری بسيار عفونی Y مبتلا است و شخص X با شخص Z ارتباط نزديکی دارد، میتوان با استفاده از اين منطق نتيجه گرفت که شخص Z هم به بيماری Y مبتلا است.
البته بزرگترين برگ برنده منطق مرتبه اول، اين بود که با بهکارگيری آن میشد اجزای منطقی بسيار کوچک را کنار هم چيد و به مدلهایی با پيچيدگیهای فزاينده دست يافت. به عنوان مثال، سناريوی فوق را میشود به راحتی به مدل بزرگتری از جمله اپيدمیها يا بيماریهای مسری مرگبار، تعميم داد و درباره ميزان پيشرفت بيماری نتيجهگيری کرد. قدرت منطق در پديد آوردن مفاهيم کلان از مفاهيم خرد حتی باعث شد عدهای نظریهای دهند مبنی بر این که شايد در ذهن انسان نيز فرآيند مشابهی صورت میپذيرد.
اين خبر خوبی بود. اما نوح گودمن، دانشمند علوم شناختی دانشگاه استنفورد کاليفرنيا میگويد: «اين موضوع جنبه ناراحتکنندهای هم داشت: اين که منطق آنطور که انتظار میرفت، خواستهها را برآورده نکرد» زیرا استفاده از منطق برای بازنمایی دانش و استدلال درباره آن، مستلزم اين بود که اطلاعات ما درباره کم و کيف جهان واقعی دقيق باشد، يعنی نبايد هيچ جایی برای ابهام باقی میماند. يک مسئله يا بايد بهطور کامل درست میبود يا بهطور کامل نادرست. هيچ جایی اجازه نداشتيم از مفهوم «شايد» استفاده کنيم و اين در حالی بود که دنيای ما و بسياری از قوانين کلی آن پر است از اين شايدها، عدم قطعيتها، شايعهها و استثناها. در نتيجه، سيستمهای هوش مصنوعی که براساس منطق مرتبه اول طراحی شدهبودند، به راحتی در رویارویی با اين موارد ناکارآمدی خود را نشان دادند. فرض کنيد میخواهيد بدانيد آيا شخص Z در مثال فوق به بيماری Y دچار شدهاست يا نه. قانون اين کار بايد روشن و بدون ابهام باشد: اگر شخص Z با شخص X در ارتباط بوده، پس آنگاه شخص Z به بيماری Y مبتلا است. اما مشکل زمانی به وجود میآيد که بگوييم شايد شخص Z به هر علتی مبتلا نشدهباشد و اينجا است که منطق مرتبه اول نمیتواند چنين سناريویی را که در آن احتمالات هم وارد بازی شدهاست، هضم کند.
يک مشکل جدی ديگر هم وجود داشت: اين منطق قابليت استدلال معکوس يا ارجاعی نداشت. برای نمونه، اگر میدانستيد که شخص Z به بيماری Y دچار شده، اين منطق نمیتوانست با قطعيت نتيجه بگيرد که شخص Z اين بيماری را از شخص X گرفتهاست. اين مشکلی است که در سيستمهای تشخيص پزشکی حساسيت زيادی دارد و بسيار جلبتوجه میکند. قوانين منطقی میتوانند بيماریها را به نشانهها پيوند بدهند اما يک پزشک بايد بتواند در جهت معکوس هم حرکت کند و اگر نشانه خاصی را مشاهده کرد، بداند که اين نشانه مربوط به کدام بيماری است. تننباوم میگويد: «لازمه اين کار وارونه کردن مسیر فرمولهای منطقی است و استدلال کل به جزء (deductive reasoning) برای اين کار مناسب نيست.»
به دنبال چنين مشکلاتی هوش مصنوعی تا اواسط دهه 1980 راه به جایی نبرد. با اين حال، به باور گودمن اشخاصی که روی اين موضوع کار میکردند تسليم نشدند و تلاشها هرچند غيرآشکار ادامه يافت. نخستین مراحل شکوفایی هوش مصنوعی با به ميدان آمدن دانش شبکههای عصبی (Neural networks) در اواخر دهه 1980 آغاز شد. این ایده بهواسطه سادگی اساس و شالودهاش بسیار درخشان بود. پيشرفتها در دانش عصبی باعث شد مدلهای سادهای متشکل از سلولهای عصبی پيشنهاد شوند. اين موضوع در کنار پيشرفتهایی که در عرصه الگوريتمها صورت گرفت، به پژوهشگران اجازه داد تا شبکههای عصبی مصنوعی يا به اختصار ANNهارا معرفی کنند. اين شبکهها میتوانستند مثل يک مغز واقعی مطالب گوناگونی را ياد بگيرند.
اين پيشرفت، دانشمندان علوم کامپيوتر را تشويق کرد تا به فکر ايجاد شبکههای عصبی مصنوعی شامل ميلياردها يا تريليونها سلول بيافتند. اما به زودی مشخص شد که مدلهای عصبی ارائهشده تا آنزمان بسيار سادهانگارانه بودهاند و محققان حتی نمیتوانستند تعيين کنند کدام مشخصات سلول عصبی در شبکه اهميت بيشتری دارد، چه رسد به آن که بخواهند آنها را مدلسازی کنند. با اين همه، شبکههای عصبی بخشی از راه را برای تولد يک هوش مصنوعی جديد هموار کردند. بعضی از پژوهشگرانی که روی شبکههای عصبی مصنوعی کار میکردند، سرانجام دريافتند که اين شبکهها دنيا را در قالب آمار و احتمالات بازنمایی میکنند. آنها به جای بحث درباره سيناپسها و اسپايکها (از اجزای يک سلول عصبی)، بر تعيين پارامتر و متغيرهای تصادفی تمرکز کردند. تننباوم میگويد: «اکنون به نظر میرسيد به جای يک مغز بزرگ، با يک مدل بزرگ مبتنی بر احتمالات روبهرو هستيم.»
سپس در سال 1988 جوديا پرل از دانشگاه کاليفرنيا، در لس آنجلس، کتاب معروفی نوشت که «استدلال احتمالگرا در سيستمهای هوشمند» نام داشت و در آن رويکردی کاملاً جديد به هوش مصنوعی با ذکر جزئيات بازگو شدهبود. در پس اين رويکرد جديد، قضيه توماس بيز (Thomas Bayes)، روحانی و رياضیدان انگليسی قرن 18 ميلادی خانه کردهبود. قضيه بيز (Bayesian theorem)، احتمال شرطی وقوع رويداد مفروض P در حالي که Q روی دادهاست را به احتمال شرطی Q در حالي که P در دست است، ربط میدهد. به اين ترتيب، میشد بين علت و معلول، رفت و برگشت داشت. تننباوم میگويد: «اگر بتوانيد دانش خود درباره سوژههای مختلف را به اين شيوه بيان کنيد، آن گاه رياضيات به شيوه استنباط بيزی (Bayesian inference) به شما میگويد که چطور معلولها را مشاهده کنيد و با بازگشت به عقب، علتهای احتمالی ديگر را نيز بررسی کنيد.» کليد اين مسئله، يک شبکه بيزی يا Bayesian network است که در واقع مدلی متشکل از متغيرهای تصادفی مختلف با توزيعهای احتمال گوناگون است که خود به متغير ديگری وابسته است. با ايجاد يک تغيير کوچک در هر متغير، توزيع احتمال متغيرهای ديگر نيز تغيير میکند. اگر مقدار يک يا چند متغير در دست باشد، میشود با استفاده از شبکه بيز، توزيع احتمال ديگر متغيرها يا به عبارتی مقدار تقريبی آنها را پيدا کرد. اکنون میشود به مثال قبل برگشت و اين متغيرها را با علائم بيماری، خود بيماریها و نتايج آزمايشها متناظر کرد. اگر نتيجه آزمايش (به عنوان مثال وجود يک ويروس عفونی) و نشانههای بيماری (به عنوان مثال، تب يا سرفه) مشخص باشد، میتوان گفت احتمال اين که علت اين معلولها بيماری آنفولانزا باشد، بيشتر است و در مقابل، احتمال اين که بيماری مذکور ذاتالريه باشد بسيار کم است.
در اواسط دهه 1990 ميلادی، پژوهشگرانی مانند استوارت راسل، توسعه الگوريتمها برای استفاده در شبکههای بيز را شروع کردند. اين الگوريتمها میتوانستند از دادههای موجود استفاده کرده و مطالب جديدی را ياد بگيرند. اين شيوه شباهت زيادی به شيوه يادگيری انسان داشت زیرا انسان نيز با استفاده از دانستههای فعلی خود مطالب جديد را ياد میگيرد. از اينرو، اين الگوريتمهای جديد میتوانستند با در دست داشتن دادههای اندک، به فهم مطالب بسيار پيچيدهتر و مدلهای بسيار دقيقتر نائل آيند. در مقايسه با شبکههای مصنوعی عصبی اين قدم بزرگی به شمار میآمد زیرا در شبکههای عصبی مصنوعی امکان استفاده از دانش پيشين وجود نداشت و برای حل هر مسئلهای همه چيز بايد از صفر شروع میشد.