هوش مصنوعی نيز همچون بسياری ديگر از شاخههای علم، دورههای پرفراز و نشيبی را پشت سر گذاشتهاست و امروز با وجود دستاوردهای چشمگيرش در يک سو، موانع کوچک و بزرگی را نيز در سوی ديگر، پيش رو دارد. هدف دانشمندان هوش مصنوعی اين است که سازوکار سيستمهای هوشمند را تا جایی که میشود به شيوه استدلال و استنباط ذهن انسان شبيهتر کنند. آنچه در ادامه میآيد، نگاهی است به گوشهای بسيار کوچک از تلاشهایی که در سالهای گذشته به انجام رسيده و گاهی نيز راه به آزمون و خطا بردهاست.
شکار!
اجزای مختلف مورد نیاز برای ایجاد هوش مصنوعی قابل استفاده در دنیای واقعی، کمکم داشتند در جای خود قرار میگرفتند. پارامترهای يک شبکه بيز همان توزيعهای احتمال هستند و هرچه دانش شخص درباره جهان بيشتر باشد، اين توزيعهای احتمال بيشتر به کار میآيند. اين در حالی است که در اين سيستم، برخلاف سيستمهایی که براساس منطق مرتبه اول طراحی شدهبودند، اگر دانش در يک حيطه ناقص باشد، چيزی از بين نمیرود. البته منطق نيز کنار گذاشته نمیشود چون شبکههای بيزی به تنهایی کافی نيستند و علتش اين است که شبکههای بيزی اجازه نمیدهند با استفاده از اجزای ساده، مجموعههای پيچيده دلخواهتان را بسط دهيد. در عوض سنتز يا ترکيب برنامهسازی منطقی با شبکههای بيزی، راه را برای برنامهسازی احتمالگرا باز میکند.
در خط مقدم این هوش مصنوعی جدید مجموعهای از زبانهای برنامهنویسی وجود دارند که از هر دوی این عناصر استفاده میکنند. البته تمام آنها هنوز در مراحل تحقیقاتی به سر میبرند. بهعنوان مثال، میتوان از زبان چرچ نام برد که توسط گودمن، تننباوم و همکارانشان توسعه داده شده و نام آن از آلونزو چرچ گرفتهشده است؛ کسی که مبدع نوعی از منطق برای استفاده در زبانهای برنامهنویسی بود. تيم دومينگوس از ترکيب منطق با شبکه بيز مارکوف (شبکهای شبيه شبکه بيز)، شبکه منطقی مارکوف يا Markov Logic Network را توسعه دادهاست. راسل و همکارانش اين شبکه را BLOG ناميدهاند که سرنام عبارت Bayesian Logic است. راسل قدرت آشکار چنين زبانهایی را در گردهمایی سازمان معاهده منع آزمايشهای هستهای سازمان ملل يا CTBTO (سرنام Comprehensive Test Ban Treaty Organization) در شهر وين اتريش به نمايش گذاشت. CTBTO از راسل دعوت کردهبود تا توضيح دهد تکنيکهای هوش مصنوعی جديد چطور میتوانند انفجارهای هستهای را شناسایی کنند.
"يکی از موارد تأثيرگذار در دوره احيای هوش مصنوعی، روشیاست که به آن برنامهنويسی يا برنامهسازی احتمالگرا گفتهمیشود و شالودههای منطقی هوش مصنوعی سنتی را باقدرت آمار و احتمال درهم میآميزد."
پس از اين که حضار تمام صبح را به توضيحات درباره مشکلات شناسایی لرزههای ناشی از انفجارهای هستهای در نقاط دور گوش فرا دادند، راسل دست به کار شد تا اين مشکل را با استفاده از برنامهسازی احتمالگرا مدلسازی کند. راسل میگوید: «طی مدتی که شرکتکنندگان ناهار میخوردند توانستم مدل کاملی از تمام اين چيزها را ايجاد کنم.» حجم اين برنامه نيم صفحه بود. دانش پيشين را میتوان در مدلهایی از اين دست تلفيق کرد و برای مثال احتمال وقوع زمينلرزه در سوماترای اندونزی را با احتمال روی دادن آن در بيرمنگام بريتانيا مقايسه کرد. به زعم سازمان CTBTO همه سيستمها فرض را بر اين میگيرند که احتمال وقوع انفجار در همه نقاط زمين يکسان است. دادههای واقعی نيز در دسترس هستند (سيگنالهای دريافتشده در ايستگاههای مانيتورينگ CTBTO).
کار سيستم هوش مصنوعی در اين ميان اين است که همه اين دادهها را بررسی کرده و محتملترين توضيح را برای هر مجموعه از سيگنالها ارائه دهد. چالش، درست همينجا است. زبانهایی مثل BLOG به موتورهای استنباطی عام مجهز هستند. وقتی با مدل شبيهسازی شده از چالشی در دنيای واقعی که شامل متغيرها و توزيعهای احتمالی مختلف است مواجه هستيم، موتور عام بايد احتمال يک انفجار در هر نقطه را با استفاده از دانش پيشين درباره رويدادهای مورد انتظار و دادههای حاصل از ثبت لرزههای جديد به دست آورد. اگر به مثال بيماری و نشانههای آن برگرديم، اين مدل بايد بتواند بيماری را تشخيص دهد. به بيان ديگر، الگوريتمهای آن بايد بسيار فراگير باشند.
با اين توضيح بايد گفت که رويکرد جاری بسيار ناکارآمد است. نتيجه اين که، اين الگوريتمها بايد در مواجهه با هر موقعيت و چالش جديد تغيير داده شده و به اصطلاح سفارشی شوند. اما راسل میگويد نمیشود که يک دانشجوی دکترا را تمام وقت استخدام کرد تا هر مشکل جديدی که پيش آمد، الگوريتم را تغيير دهد. او میافزايد: «مغز انسان که اين گونه کار نمیکند؛ مغز انسان به سرعت درگير مسئله میشود.» همين موضوع باعث شده راسل، تننباوم و ديگران سرگردان بمانند و به آينده هوش مصنوعی خيره شوند.
راسل میگويد: «دوست دارم به مردم خبرهای مسرتبخش بدهم اما نه طوری که فکر کنند داریم سر آنها را کلاه میگذاریم.» تننباوم نيز موافق است. او که حدود چهل سال سن دارد، میگويد شانس اين که مشکل استنباط کارآمد اين سيستمها در دوران عمر وی حل شده و به نتيجه برسد پنجاه-پنجاه است و اين در حالی است که کامپيوترها در حال سريعتر شدن و الگوريتمها در حال پيشرفتهتر شدن هستند. به گفته او، مشکلات مذکور سختتر از مشکلاتی هستند که در سفر به ماه و مريخ با آنها مواجه بوديم. البته اين به معنی کماهميت جلوه دادن روح حاکم بر جامعه هوش مصنوعی نيست. برای مثال، دافنه کولر (Daphne Koller) از دانشگاه استنفورد توانسته است با استفاده از همين برنامهسازی احتمالگرا بعضی از مسئلههای خاص را به خوبی حل کند. او به همراه يک پزشک متخصص نوزادان به نام آنا پن (Anna Penn) و همکارانش از همين دانشگاه، سيستمی موسوم به PhysiScore را توسعه دادهاند که پيشبينی میکند «آيا نوزادان زودرس مشکل سلامتی خواهند داشت يا نه»، که کار بسيار سختی است.
پزشکان نمیتوانند اين مسئله را با قطعيت پيشبينی کنند و از طرفی اين مسئلهای است که برای خانوادهها بسيار مهم است. PhysiScore شاخصهایی مانند دوران بارداری و وزن نوزاد هنگام تولد و نيز دادههای بلادرنگ گردآوری شده در ساعات پس از تولد مثل نرخ ضربان قلب، تنفس و ميزان خلوص اکسيژن را مد نظر قرار میدهد. کولر میگويد: «ما قادريم ظرف سه ساعت اوليه تولد بگوييم که کدام نوزادان به احتمال سالمتر خواهند بود و کدامها احتمال دارد ظرف دو هفته بعد دچار مشکلات حاد شوند.» پن میگويد: «متخصصان نوزادان از ديدن سيستم PhysiScore به وجد آمدهاند.» پن به عنوان يک پزشک از اين که سيستمهای هوش مصنوعی میتوانند همزمان با صدها (اگر نگوييم هزارها) متغير مرتبط با تصميمگيری دست و پنجه نرم کنند، لذت میبرد. چنين سيستمی حتی میتواند از همتايان انسانی خود نيز پيشی بگيرد. او میگويد، اين ابزارها سيگنالهایی را که پزشکان و پرستاران حتی نمیتوانند مشاهده کنند، معنی و تفسير میکند. به همين علت است که دومينگوس تا اين اندازه به سيستمهای تشخيص پزشکی خودکار اعتماد دارد.
يکی از معروفترين اين سيستمها QMR-DT (سرنامQuick Medical Reference Decision Theoretic) نام دارد که يک شبکه بيز است و میتواند 600 بيماری عمده و چهار هزار نشانه مربوط به اين بيماریها را مدلسازی کند. هدف اين سامانه بررسی نشانهها و تعيين احتمال وقوع يک بيماری خاص است. پژوهشگران الگوريتمهای استدلالی سيستم QMR-DT را به خوبی سازماندهی کردهاند و به آن ياد دادهاند که چطور از سوابق اطلاعاتی بيماران بهره ببرد. دومينگوس میگويد، انسانها موقع قضاوتهايشان از جمله در تشخيص بيماری خيلی متزلزل هستند. تنها دليلی که باعث شده اين سيستمها بهطور گسترده مورد استفاده قرار نگيرند اين است که پزشکان نمیخواهند از يکی از جنبههای عمده حرفهشان (تشخيص بيماری) کنارهگيری کنند و عرصه را به اين سيستمها وابگذارند.
تکنيکهایی از اين دست در هوش مصنوعی، موفقيتهای ديگری هم کسب کردهاند. يکی از قابلتوجهترين اين موارد تشخيص گفتار است. سيستم تشخيص گفتار که در آغاز راه خود خطاهای خندهداری مرتکب میشد امروز بهطرز خيرهکنندهای به يک سيستم دقيق تبديل شدهاست. پزشکان اکنون میتوانند سوابق بيماران را به اين سيستم ديکته کنند تا نرمافزار تشخيص گفتار آنها را به اسناد الکترونيکی تبديل کند و به اين ترتيب نياز به نوشتار خطی کاهش پيدا میکند. ترجمه زبان نيز حيطه ديگری است که دارد موفقيت سيستمهای تشخيص گفتار را تکرار میکند.
ماشينهایی که میآموزند
با اين همه، هنوز عرصههایی هستند که چالشهای عمدهای را پيش رو دارند. به عنوان مثال، برای يک روبات خيلی سخت است تشخيص دهد که آنچه از طريق دوربینش مشاهده میکند، چيست. برای برطرفکردن اين مشکل راهی طولانی در پيش است و بايد روباتهایی ساخته شوند که بتوانند خودشان را ناوبری کنند. علاوه بر توسعه الگوريتمهای استنباطی منعطف و سريع، پژوهشگران بايد قابليت سيستمهای هوش مصنوعی را در يادگيری نيز ارتقا دهند. چه اين ارتقا با کمک دادههای جاری صورت پذيرد و چه با استفاده از حسگرها و در تعامل با دنيای واقعی. امروزه يادگيری ماشينی بیشتر با استفاده از الگوريتمهای سفارشی و خاص به همراه مجموعههای حاوی دادههای به دقت گردآوری شده انجام میشود تا به خوبی به سيستم بياموزد که چه کار خاصی را بايد انجام دهد.
کولر میگويد: «ما طالب سيستمهای چندکاره هستيم تا بتوان از آنها در دنيای واقعی بهره برد و آنها نيز بتوانند از انواع مختلف ورودیهایی که از محيط دريافت میکنند چيزهای جديدی بياموزند.» هدف نهایی هوش مصنوعی همچون گذشته ساختن ماشينهایی است که هوش انسانی را تقليد کنند البته به گونهای که برای ما انسانها نيز قابل فهم باشد. تننباوم میگوید: «رسیدن به این هدف ممکن است درست همانند یافتن حیات در بیرون از منظومه شمسی دور از دسترس و حتی به همان اندازه خطرناک باشد.» او میافزاید: «ایجاد هوش مصنوعی انسانگونه،که اصطلاحی فراگیرتر و گستردهتر است، هنوز در توان ما نیست. ما بسیار خوشحال خواهیم شد اگر بتوانیم یک سیستم بینایی به وجود آوریم که بتواند به صحنهای نگاه کرده و بگوید چه اتفاقی در حال رخ دادن است؛ درست به همان شکلی که انسانها این کار را میکنند.»
ماشینهای هوشمند در راستای معیارهای انسانی؟
1943
وارن مککولچ (Warren McCulloch) و والتر پيتس (Walter Pitts) در دانشگاه شيکاگو شبکههای عصبی که قادر به يادگيری هستند را معرفی میکنند.
1950
آلن تورينگ (Alan Turing) رياضیدان بريتانيایی آزمايش محکگونهای اختراع میکند تا ميزان هوش کامپيوتر را بسنجد.
1956
دانشمند امريکایی جان مککارتی (John McCarthy) عبارت هوش مصنوعی را ابداع میکند.
1764
قضيه توماس بيز در گزارش خلاصه رسالات فلسفی انجمن سلطنتی لندن منتشر میشود.
1966
يــوزف وایزنباوم (Joseph Weizenbaum) نخستين ماشين مقلد مکالمههای انسانی را اختراع میکند. اين چتبات ELIZA نام داشت.
1984
دوگ لنات (Doug Lenat) ساخت سيستم هوش مصنوعی Cyc را شروع میکند. هدف اين سيستم استدلال به شيوه انسانی است.
1988
جوديا پرل (Judea Pearl) از دانشگاه لسآنجلس کاليفرنيا کتاب بنيادی Probabilistic Reasoning in Intelligent Systems يا «استدلال احتمالگرا در سيستمهای هوشمند» را مینويسد.
1997
مايکروسافت دستيار انيميشنی و نگونبخت خود به نام Clippit را که براساس سيستم استنباطی بيز طراحی شده معرفی میکند.
1999
ناسا بهطور موقت کنترل فضاپيمای Deep Space 1 را به يک برنامه هوش مصنوعی میسپارد.
2009
دانشمند روباتی (Robot Scientist) در دانشگاه آبریستویث (Aberyst wyth) بریتانیا روی مخمرها تحقیق میکند و نخستین کشف یک برنامه هوش مصنوعی را به کمک انسان رقم میزند.
2010
گروهی از دانشگاه استنفورد جزئيات سيستم هوش مصنوعی PhysiScore را منتشر میکند. اين سيستم میتواند سلامتی نوزادان زودرس را در روزهای بعد پيشبينی کند.
2045
به گفته ری کرتزوایل (Ray Kurzweil) ، پديده تكيني فناورانه (Technological Singularity) رقم میخورد، به اين معنی که هوش کامپيوتری بهطرز چشمگيری بر مجموع ظرفيت هوش انسانها پيشی میگيرد.