پنجشنبه ۱۵ آذر ۱۴۰۳
يکشنبه ۱۴ دی ۱۳۹۳ 4865 0 5

نگرانی از آینده هوش مصنوعی از مدت‌ها پیش آغاز و با ساخت فیلم‌ها و مستندهای علمی و مقالات مختلف فراگیر شده است.

هوش مصنوعی ترس ندارد!

ماهنامه شبکه / پارسا ستوده‌نیا 
 
اشاره:
نگرانی از آینده هوش مصنوعی از مدت‌ها پیش آغاز و با ساخت فیلم‌ها و مستندهای علمی و مقالات مختلف فراگیر شده است. این اواخر نیز با اظهار نگرانی افراد مطرح در سطح جهانی پررنگ‌تر شده است. با وجود این‌که ابراز مخالفت با چنین افرادی کار ساده‌ای نیست و باید بااحتیاط در این زمینه اظهار نظر کرد، اما مطالعه تاریخ و به‌طور خاص‌تر تاریخ معاصر علوم کامپیوتر نشان داده است که افرادی در سطوح بالای علمی و مدیریتی، در برهه‌ای از زمان اظهار نظرهایی اشتباه کرده‌اند که پس از گذشت چند سال به عباراتی عجیب و گاهی خنده‌دار بدل شده‌اند. به‌عنوان نمونه، عبارت معروف بیل گیتس در سال 1981 را به‌خاطر بیاورید که هم‌زمان با معرفی IBM PC گفته بود که 640 کیلوبایت RAM برای هر فرد کافی خواهد بود و به بیش از آن نیازی نخواهد شد. با وجود این‌که پشتیبانی سیستم‌های 64 بیتی امروز از 128 گیگابایت RAM، این اظهار ‌نظر را از شخصی در سطح بیل گیتس عجیب و بعید جلوه می‌دهد، در آن زمان چنین صحبتی کاملاً پذیرفتنی بود. نکته این‌جا است که حتی انسان‌های بزرگ نیز به دلیل ذات انسان بودن آن‌ها نمی‌توانند تمام شرایط آینده را پیش‌بینی و تأثیر آن‌ها را در نظر خاص خود اعمال کنند و هرکس تنها به وسعت ذهن خود از آینده سخن می‌گوید. هرچند این وسعت ذهن برای بسیاری افراد نسبت به دیگران بیش‌تر است، اما در هر حال محدود است.

برای روشن‌تر شدن مسئله، یک مثال فرضی را مطرح می‌کنم. فرض کنید بارش باران در قاره اروپا در چند سال اخیر هر سال 5 درصد نسبت به سال قبل رشد داشته باشد. با این آمار پیش‌رفته نمی‌توان به‌راحتی پیش‌بینی کرد که مثلاً 50 سال بعد کل این قاره در اثر بارش باران در آب غرق می‌شود! آیا اصلاً کره زمین آن میزان آب دارد که بخار بخشی از آن بتواند در قالب باران یک قاره را در آب غرق کند؟! بنابراین، روند پیش‌روی یک رویداد که در مقطعی از زمان از نظم خاصی پیروی می‌کند، نمی‌تواند تا مدت زمان نامحدودی ادامه پیدا کند. شاید به نظر برسد که چنین مثالی در دنیای واقعی مصداقی ندارد. در ادامه، قصد دارم مصداق واقعی از این مثال را مطرح کنم.

بنابر یک نظریه مبتنی‌بر مشاهده تاریخ سخت‌افزار کامپیوتر، نخستین بار در سال 1965 قانونی تحت عنوان «قانون مور» مطرح شد که در بسیاری از مقاله‌ها و نشریه‌ها نیز به آن استناد شده است. طبق این قانون، تعداد ترانزیستورها در واحد سطح مدارات مجتمع، در هر دو سال تقریباً دو برابر می‌شود. این نظریه که توسط گوردون مور، یکی از بنیان‌گذاران شرکت اینتل مطرح شده است، طی این سال‌ها معیار خوبی برای محاسبات و پیش‌بینی‌های آینده بوده است. اما اکنون با اظهار نظر خود اینتلی‌ها و صاحب‌نظران دیگر، چنین به‌نظر می‌رسد که ممکن است به انتهای اعتبار این قانون نزدیک ‌شویم. این قانون نیز حد و شرایطی داشته است. اگر قرار بود این قانون تا بی‌نهایت ادامه پیدا کند، باید تصور کنیم روزگاری اندازه ترانزیستورها از ابعاد الکترون‌ها نیز کوچک‌تر شود که امکان‌پذیر نیست. پروفسور استیون هاوکینگ، فیزیک‌دان سرشناس بریتانیایی می‌گوید: «اگر بشر وسیله‌ای بسازد یا نرم‌افزاری بنویسد که واقعاً هوشمند باشد، معلوم نیست چه اتفاقی بیفتد.» نگران است آن روز آغازی بر پایان کار آدمیزاد باشد. الون ماسک، رئیس شرکت تسلا نیز گفته است: «هوش مصنوعی افسارگسیخته بزرگ‌ترین تهدید برای بشر است.» او نگران است عاقبت همه‌ ما، له شدن زیر پاشنه موجوداتی حساب‌گر و بی‌عاطفه با هوش مصنوعی باشد. پروفسور نیک بوستروم، استاد دانشگاه آکسفورد هم گفته است: «احتمالاً در عرض یک قرن، موجوداتی با هوش مصنوعی دنیای‌ ما را به آخر برسانند.» ری کورزوایل، مدیر فنی گوگل نیز از پیش‌رفت هوش مصنوعی ابراز نگرانی کرده است.

پیش‌رفت هوش مصنوعی نیز می‌تواند همانند پیش‌رفت بسیاری از چیزها مثل دینامیت اختراع آلفرد نوبل و در پی آن ساخت سلاح‌های انفجاری مختلف، موجب چالش‌هایی در دنیا و ایجاد نا‌امنی‌ها و مسمومیت‌های علمی و اجتماعی شود. اما از نظر من، هیچ هوشی هرگز قادر نخواهد بود بر مغز انسان چیره شود و بر آن برتری یابد. از نگاه من، مغز انسان این پتانسیل را دارد که بسیار سریع‌تر و دقیق‌تر از پیش‌رفته‌ترین کامپیوترهای ساخت بشر محاسبه و تحلیل کند. این‌که انسان امروزی پرخطا، کند و فراموش‌کار است، دلیل این نیست که پیش‌رفت‌های علوم زیستی و اعصاب و تکامل بیولوژیک انسان صبر می‌کند تا هوش ساخته شده توسط همین مغز بر خود چیره شود. حتی تحلیل و پردازش مغز پرخطای فعلی بشر نیز بسیار سریع‌تر از سریع‌ترین کامپیوترهای دنیا است، ضمن این‌که برای برخی از ساده‌ترین تحلیل‌های مغزی ما حتی هنوز الگوریتمی طراحی نشده است. در نگاهی ساده، آیا پیش‌رفته‌ترین الگوریتم‌های پردازش تصویر قادر به تشخیص یک پرتقال له شده روی زمین هستند؟ حتی اگر از رنگ نارنجی آن حدس بزند، آیا می‌تواند تشخیص دهد آن میوه له شده نارنجی، نارنگی نبوده است؟! چیزی که انسان در کسری از ثانیه تشخیص می‌دهد و از فرط سادگی حتی به این سرعت تشخیص خود توجه هم نمی‌کند. در نگاهی پیچیده‌تر، آیا کامپیوتر مفهوم الگوریتم‌هایی تحت عنوان دروغ، وانمود، صبر مدیریتی، رندی و زیرکی، تصمیم احساسی، ترجیح عقلی، انتقام، علاقه و بسیاری از موارد خاص انسان یا مشترک بین انسان و حیوان را می‌داند و برای مدل‌سازی کامل این‌ها روشی تعریف شده است؟

در مقابل تمام نگرانی‌ها از چیره شدن هوش مصنوعی به هوش انسان، می‌خواهم نظریه‌ای را بدون اثبات مطرح کنم. زمانی که راه‌های ورود یک‌باره داده‌های انبوه به مغز انسان کشف شود و علوم ثبت و بازیابی اطلاعات در مغز به تکامل برسد، انسان به‌مرور توانایی هر آن‌چه را یک کامپیوتر انجام می‌دهد، با سرعت و دقت بالاتری کسب می‌کند و با قدرت تحلیل و ساختار یادگیری مغز و مدد شعور و احساس، به تمام علوم دنیا چیره خواهد شد.
کلمات کلیدی

آی هوش: گنجینه دانستنی ها و معماهای هوش و ریاضی

نظراتی که درج می شود، صرفا نظرات شخصی افراد است و لزوماً منعکس کننده دیدگاه های آی هوش نمی باشد.
آی هوش: مرجع مفاهیم هوش و ریاضی و انواع تست هوش، معمای ریاضی و معمای شطرنج
 
در زمینه‌ی انتشار نظرات مخاطبان، رعایت برخی موارد ضروری است:
 
-- لطفاً نظرات خود را با حروف فارسی تایپ کنید.
-- آی هوش مجاز به ویرایش ادبی نظرات مخاطبان است.
-- آی هوش از انتشار نظراتی که در آنها رعایت ادب نشده باشد معذور است.
-- نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.
 
 
 
 

نظر شما

پرطرفدارترین مطالب امروز

طنز ریاضی: لطیفه های ریاضی!
زندگینامه ریاضیدانان: جان فوربز نش
قواعد بخش پذیری بر اعداد  1 تا 20
گوشه هایی از زندگی «جان نش»، ریاضیدانی با یک ذهن زیبا
طنز ریاضی: جلوه ریاضی در آشپزی!
کارتون/ طنز ریاضی: با کمی دریافت کمک!
خلاقانه: خلاقیت های پیچ و مهره ای! (شماره 2)
بازیهای آسان برای تقویت هوش نوزادان ۱۲ تا ۱۵ ماهه
سیستم عدد نویسی رومی