همیشه گفته ایم که به سادگی می توان رویاهای بشر را در فیلم های تخیلی که می سازد دید، فیلم هایی نظیر ماتریکس یا حتی سری ترمیناتور جزو اولین فیلم های این سبک بودند که تا حدی سعی بر به نمایش کشیدن موجودات تخیلی و هوشمندی که به مبارزه با بشر می پردازند، داشتند. بیشتر فیلم هایی که در این راستا ساخته می شوند سعی دارند تا این تصور را در ذهن مخاطب ایجاد کنند که در آینده کامپیوترها به هوشی دست پیدا می کنند که بسیار برتر از هوش انسان هاست و تلاش می کنند تا نسل انسان ها را منقرض کرده و بشر را از روی کره زمین محو کنند. این دسته از سناریوها باعث شده است که بسیاری از افراد به آینده هوش مصنوعی دید منفی پیدا کرده و تا حدی با بیم و وحشت نسبت به آن برخورد کنند. بسیاری از صاحب نظران مانند نیک باستروم، ری کورزوایل و رابین هنسون اعتقاد دارند که خطر کامپیوترهایی که به باهوشی انسان باشند در بیشتر موارد با بزرگنمایی مواجه شده است و این که به نسل انسان حمله شود و ابزارهای دیجیتالی مبتنی بر هوش مصنوعی به انسان ها آسیب بزنند بسیار دور از انتظار است. باید گفت که در عالم واقع، توسعه ماشینی با هوش فرا انسانی بسیار آهسته و به تدریج صورت می گیرد و اگر بر فرض ما به چنین کامپیوترها یا روبات هایی دست پیدا کنیم در بدترین شرایط احتمالی این ابزارها همان قدری که ما به آن ها نیاز داریم، آن ها هم به ما احتیاج خواهند داشت. شاید نباید خیلی هم این موضوع را جدی بگیریم که در آینده با ارتشی از روبات های هوشمند مواجه می شویم که تمام تلاش خود را برای از بین بردن ما می کنند و ما توسط ساخته خودمان آسیب می بینیم. اما از طرف دیگر باید به این هم فکر کنیم که اگر به نسل های گذشته می گفتند که ابزارهایی مانند هواپیما، خودرو یا کشتی های مجهز امروزی وجود دارد احتمالا به عقل کسی که این صحبت ها یا ایده ها را مطرح می کرد شک کرده و وجود این ابزارها را ناممکن می دانستند. مسلما بدبینی نسبت به این ماجرا خوب نیست زیرا باعث می شود که ما از پیشرفت های ممکن باز مانده و به سمتی حرکت کنیم که ترس از این اتفاق ما را از داشته هایی که در حال حاضر به نظرمان ناممکن است، محروم کند.
همه چیز به این سادگی نیست
به نظر می رسد کارشناسانی نظیر نیک باستروم، ری کورزوایل و دیگر افراد حرفه ای در زمینه هوش ابر انسانی اعتقاد محکمی دارند که این نوع از هوش اگر به شکل صحیحی به کار گرفته شود، قادر است کلیه مسائلی که تا به حال توسط بشر غیر قابل حل بوده را به خوبی حل کند. این دسته از افراد مشکل اصلی را در حل این مشکلات یا مسائل توسط هوش مصنوعی نمی بینند اما می گویند هوش مصنوعی در صورتی که توسعه پیدا کند می تواند به یک خطر بسیار جدی برای افراد تبدیل شود. باید گفت همه چیز به این سادگی که در ذهن ما شکل گرفته نیست و اگر فرض کنیم که ماشینی قصد دارد تا به هوش ابر انسانی دست پیدا کند مسلما بسیار شرایط سختی را پیش رو خواهد داشت. یک برنامه کامپیوتری هیچ گاه در زمان رشد و توسعه اش تجربه حضور در یک خانواده انسانی را نخواهد داشت و احساساتی نظیر گرسنگی، سرما، گرما و ... را درک نخواهد کرد. با توجه به این موضوع باید گفت که بسیاری از ابر کامپیوترها ساختار و مواردی که باعث می شود تا انسان ها به شکلی طبیعی با هم در ارتباط باشند را نخواهند داشت. باید ماشین های هوشمند به مرحله ای دست پیدا کنند که بتوانند به صورت هوشمند به کسب مهارت و تخصص بپردازند و بدون شک باید گفت که خودکارسازی رویه ای مانند کسب تجربه مانند چیزی که انسان ها با آن مواجه هستند، برای ماشین ها به هیچ وجه کار آسانی نخواهد بود و حتی هستند متخصصانی که اعتقاد دارند این کار در طول زمان هم انجام نخواهد شد و به سادگی می توان گفت که ناشدنی است. این فرضیه باعث می شود که تئوری جایگزین شدن هوش فرا انسانی با هوش انسانی غیر ممکن عملا ناممکن شود و تنها به انجام کارهایی در حد کارهای ساده و ابتدایی انسان ها توسط روبات ها و کامپیوترها دل خوش باشیم.
ماشین ها به ما وابسته هستند
در فیلم ها معمولا شرایط این گونه به تصویر کشیده شده است که هوش مصنوعی در حالی که در خدمت ارتش بوده است به یک باره به خودآگاهی دست پیدا کرده و به این ترتیب راهی برای استفاده تجهیزات ارتشی علیه انسان ها باز خواهد شد. در سناریوی این دسته از فیلم ها نیاز و وابستگی ماشین ها به انسان به طور کلی نادیده گرفته می شود و همین ماجرا باعث می شود تا روند حاکمیت ماشین های هوشمند بر انسان ها بسیار سرعت بگیرد. در حال حاضر باید گفت که انسان ها هر روز در تلاش هستند تا روبات های بیشتری را تولید کرده و کارهای روزمره خود را به دست ابزارهای دیجیتالی بسپارند اما در واقع باید گفت که ما حتی هنوز نتوانستهایم اندکی به آن چه که هدف عمومی دانشمندان در این زمینه بوده نزدیک شویم و هنوز فاصله بسیار زیادی مانده است تا این تصور در ذهن متخصصان ایجاد شود که وابستگی ماشین های هوشمند از انسان ها روزی در همین نزدیکی ها به اتمام برسد. ساخت روبات هایی که بتوانند توانایی تعمیر و رفع نیازهای کلیه ماشین های هوشمند ساخته شده توسط انسان ها را داشته باشند، کاری است که در شرایط کنونی بسیار پیچیده و دشوار به نظر می رسد و با زبانی ساده تر باید گفت که پیچیدگی چنین روبات هایی به قدری زیاد خواهد بود که انسان هم در طراحی و تولید آن ها ناتوان به نظر می رسد. ما در ابتدای راه باید به جایی برسیم که روبات هایی طراحی شوند تا توانایی نگهداری و سرویس روبات های پیچیده را داشته باشند. در حال حاضر حلقه تکامل انسانی این ماجرا را برای انسان ها حل کرده است و سلول های صدمه دیده ما در بسیاری از موارد به آسانی قابل بازیابی یا جایگزینی هستند و روند کار آن ها به صورت خودکار انجام می شود ولی آیا این مورد برای روبات ها یا ماشین های هوشمند هم وجود دارد؟ اگر قرار بر این باشد که ماشین های هوشمند به مرحله تکامل دست پیدا کنند، مسلما این انسان ها هستند که باعث پیشرفت و توسعه آن ها در این زمینه می شوند. در نهایت باید گفت که ماشین ها برای این که بقا داشته و مشکلاتی در زمینه نگهداری، تعمیرات، تامین قطعات یا مواد اولیه نداشته باشند، به انسان ها نیاز دارند و اگر تصمیم به از بین بردن نسل انسان ها بگیرند به این معنی خواهد بود که در ابتدای راهشان تصمیم به خودکشی دسته جمعی گرفته اند. تا به این جای مطلب صحبت از این کردیم که هوش انسانی یک موضوع فرا انسانی خواهد بود و به همین خاطر بسیاری از افراد آن را یک پدیده خطرناک برای بقای نسل انسان ها می دانند. بعضی از افراد هم بر این باور هستند که تکامل کامپیوترها مساوی با نابودی انسان ها از روی کره زمین است اما طبق صحبت هایی که تا همین جا کردیم این موضوع به سادگی قابل نقض است و حداقل در دیدگاهی بدبینانه باید گفت که شاید قرن ها زمان لازم باشد تا به همچنین مرحله ای دست پیدا کنیم.
شبیه سازی مغز انسان بسیار سخت است
بعضی از مردم بر این تصور هستند که پیشرفت علم به قدری شتاب گرفته است که به زودی می توان به یک هوش مصنوعی بسیار پیشرفته دست پیدا کرد که از روی الگوهای مغز انسان پیاده سازی شده است. این حرف ممکن است که در ظاهر بسیار ساده به نظر آید اما در عمل کاری است که ممکن است دست نیافتنی به نظر برسد. کامپیوترها بدون شک می توانند رفتارهای دیجیتالی دیگر ابزارهای دیجیتال را به سادگی تقلید کنند اما شبیه سازی مغز انسان به همین سادگی ها هم نیست. نرونهای مغزی یک ساختار عصبی بسیار پیچیده است و ساختار عصبی ما آنالوگ بوده و رفتار آن زمین تا آسمان با آن چه در ساختار مدارهای دیجیتالی رخ می دهد متفاوت بوده و به هیچ عنوان قابل پیش بینی یا مدل سازی بدون خطا نیست. تا به حال سیستم های شبیه سازی شده زیادی مورد بررسی قرار گرفته است که هر کدام دارای میزان قابل توجهی خطا بوده اند. اگر چه توانایی ابزارهای دیجیتالی که انسان در طول سال های اخیر طراحی کرده و ساخته است با سرعتی باور نکردنی رشد داشته و ما در حال حاضر به ابر کامپیوترهای بسیار پیشرفته و قدرتمند دسترسی پیدا کرده ایم اما شبیه سازی یک مدل مغزی کاری به همین سادگی نیست و هیچ کسی انتظار ندارد که دانشمندان ما به چنین سطحی از توانایی علمی در آینده ای نزدیک دست پیدا کنند.
هر کسی یک چیزی می گوید
بارها شنیده ایم که افراد صاحب نام در این زمینه هر کدام یک حرف متفاوت زده و یک توافق کلی به هیچ عنوان وجود نداشته تا خیال مردم آسوده شود. به عنوان نمونه یک مرد معتبر در جهان فناوری اطلاعات مانند بیل گیتس به تازگی ابراز کرده است که این امکان وجود دارد تا هوش مصنوعی بشر را به نابودی بکشاند و چرا هیچ کسی این جریان را جدی نمی گیرد؟ دانشمندانی نظیر استفان هاوکینگ که توسط همه شناخته شده هستند هم در این زمینه کارهایی را انجام داده اند به عنوان نمونه هاوکینگ کمپینی را به راه انداخته که هوش مصنوعی فرا انسانی یک تهدید جدی برای آینده بشر است و بیل گیتس هم به تازگی به عضویت این گروه در آمده است و دائما پیگیر است که چرا هیچ کسی این ماجرا را جدی نمی گیرد؟ این موارد در حالی است که آقای اریک هورویتز که رئیس فعلی مرکز مطالعات مایکروسافت است نظری متفاوت با بیل گیتس دارد و معتقد است هوش مصنوعی دچار بزرگنمایی شده است و این تهدید به هیچ عنوان حتی نزدیک به چیزی که بیل گیتس می گوید هم نیست. از طرفی بیل گیتس می گوید که من در گروهی عضو شده ام که در آن تمامی افراد نگران سوپر هوش مصنوعی هستند. این کمپین اعتقاد دارد که اختراع هوش مصنوعی به تنهایی برای بشر بسیار مفید بوده و توانسته تا کارهای بسیاری را برای انسان ها انجام دهد اما جریان در مورد سوپر هوش مصنوعی این گونه نخواهد بود. در این گروه همه دانشمندان و متخصصان در رابطه با هوش مصنوعی مثبت فکر می کنند و معتقدند اگر هوش مصنوعی به درستی مدیریت شود مفید خواهد بود اما سوپر هوش مصنوعی باعث ایجاد نگرانی می شود و هنوز بسیاری از مردم اهمیت این جریان را درک نکرده اند.
مایکروسافت حرف های بیل گیتس را نقض می کند
همان گونه که گفتیم، اریک هارویتز که در حال حاضر مدیریت مرکز تحقیقات مایکروسافت را به عهده دارد اعلام کرده که بیل گیتس بیخودی نگران است و اگر سیستم های هوش مصنوعی در آینده به هوشیاری دست پیدا کنند هم تهدید چندانی برای زندگی انسان ها نخواهد بود. دکتر هارویتز اعلام کرده که در حال حاضر بیشتر از یک چهارم توجه و منابع واحد تحقیقات شرکت مایکروسافت متمرکز بر فعالیت های مرتبط با هوش مصنوعی است و ممکن است که در چشم انداز بلند مدت نگرانی های کمی وجود داشته باشد از جمله این که ما کنترل انواع خاصی از هوش را از دست بدهیم ولی باز هم باید گفت که این اتفاق بسیار بعید به نظر می رسد. هارویتز به صورت مستقیم مدیریت تیمی از دانشمندان و مهندسان را در شاخه تحقیقاتی مایکروسافت هدایت میکند که جمعیت آن ها بیشتر از هزار نفر است. نتیجه کار این گروه روی هوش مصنوعی در چند ماه اخیر منجر به تولید " کورتانا" شده است. حتما در رابطه با این محصول تا به حال شنیده اید. کورتانا در حقیقت دستیار مجازی است که با صدا قابل کنترل بوده و روی تلفن های هوشمند مبتنی بر پلتفورم ویندوز اجرا می شود. این برنامه بعد از ارائه رسمی ویندوز 10 روی کامپیوترها هم اجرا خواهد شد. هارویتز بارها اعلام کرده است که به کورتانا ایمان دارد و مطمئن است محصولاتی نظیر کورتانا و رقبایش به نیروی محرکی برای توسعه هوش مصنوعی فرا انسانی تبدیل خواهند شد. همچنین او معتقد است که در سال های آینده تمامی شرکت های جهان فناوری در زمینه ارائه محصولاتی قدرتمند در زمینه هوش مصنوعی با یکدیگر به رقابت شدیدی خواهند پرداخت.
آینده دستگاه ها از دیدگاه مایکروسافت
مدیر تیم تحقیقاتی مایکروسافت اعتقاد دارد که در آینده دستگاه هایی تولید خواهند شد که توانایی اندیشیدن، گوش کردن، حرف زدن و جمع کردن اطلاعات از تجربه های کاربران را داشته باشند. این دسته از ابزارها حرف اول را در جهان فناوری خواهند زد. در حال حاضر نمونه هایی مانند سیری، کورتانا و گوگل ناور وجود دارد و این ابزارها بر سر به دست آوردن عنوان بهترین دستیار هوشمند در رقابت هستند. بی شک این دسته از رقابت ها می تواند به توسعه فناوری های مبتنی بر سوپر هوش مصنوعی کمک کرده و سرمایه گذاری در این زمینه را داغ تر کند. البته باید گفت در حالی که هیئت رئیسه مایکروسافت فکر می کند هوش مصنوعی مشکلی را برای بشر ایجاد نمی کند، استیون هاوکینگ که نظریه پرداز و فیزیکدان بسیار مشهوری است، بارها هشدار داده که ماشین های هوشیار زمانی که به طراحی دوباره خودشان دست بزنند با سرعت باور نکردنی توسعه پیدا خواهند کرد. او اعتقاد دارد که بشر به دلیل محدودیت های بیولوژیکی که دارد سرعتش بسیار پایین تر از ماشین های هوشمند خواهد بود و توانایی رقابت با ماشین ها را نداشته و در این زمینه عقب خواهد ماند. علاوه بر او ایلان ماسک که مدیر اجرایی شرکت خودرو سازی تسلا و همچنین مدیر عامل شرکت موشک سازی اسپیس ایکس است، هوش مصنوعی را بزرگ ترین تهدید برای موجودیت بشر می داند. در یک کنفرانس که اکتبر در جمع دانشجویان برگزار شد، او اعلام کرد که ما با توسعه سوپر هوش مصنوعی کاری خواهیم کرد که شیطان احضار شود. دقیقا مانند کاری که در تمامی افسانه های قدیمی انجام شده است و مردی که اطمینان دارد با نشان پنج ضلعی و آب مقدس توانایی کنترل شیطان را دارد، هیچ وقت از عهده این کار بر نمی آید. یکی دیگر از دانشمندان و متخصصان شناخته شده با نام سر کلایو سینگلر که مخترع کامپیوترهای اسپکتروم است هم پا را از این حد فراتر گذاشته و گفته است که مثل روز برایش روشن است که بزرگ ترین ابزار نابودی بشر از روی زمین، هوش مصنوعی خواهد بود و چنین آینده ای با توجه به روندی که در حال حاضر توسط بشر در پیش گرفته شده، کاملا اجتناب ناپذیر است.
جایگاه حریم شخصی کجا خواهد بود؟
آقای هارویتز در ادامه صحبت هایش به نکته هایی اشاره می کند که معلوم می شود خودش هم آن گونه که می گوید زیاد به آینده هوش مصنوعی خوش بین نیست. او اعتراف می کند که یک نگرانی بزرگ دارد و حس می کند این خطر وجود دارد که سیستمهای هوش مصنوعی به حریم شخصی افراد حمله کنند و این اتفاق زمانی احتمال رخ دادنش بالاتر می رود که ماشین های سوپر هوشمند بتوانند با همدیگر از طریق بافت اطلاعات گسترده ای که از فعالیت های انسانی به دست می آورند به یک نتیجه گیری دست پیدا کنند که بسیار هوشمندانه تر از نتیجه گیری باشد که انسان های معمولی می توانند داشته باشند. البته شاید هم بتوان با کمک خود هوش مصنوعی برای این مشکل هم یک راه حل مناسب پیدا کرد. در حال حاضر ما با سیستم هایی کار می کنیم که توانایی سنجش با دقت بسیار بالا را دارند و این دقت بالا باعث ارائه خدماتی با کیفیت برتر به کاربران خواهد شد زیرا در این صورت ما می دانیم که کاربران به چه اطلاعاتی نیاز دارند و بلافاصله در زمانی که احساس نیاز می کنند این اطلاعات را در اختیارشان قرار می دهیم. البته این نکته مثبت ماجراست، ممکن است که این روند منجر به نقض حریم شخصی کاربران شده و محدودیت هایی را برای آن ها در این زمینه به وجود آورد. دکتر هارویتز در ادامه صحبت هایی که داشته به این نکته هم اشاره کرده که در شرایط کنونی بسیاری از شرکت ها در حال انجام تحقیقات روی این پروژه ها هستند و مطمئن باشید که به صورت غیر مستقیم بارها ارائه این خدمات روی شما تست شده است. علاوه بر کارشناسان مایکروسافت، آقای استراس که نویسنده داستان های علمی و تخیلی است هم در این رابطه نظرات جالبی می دهد از نظر او هیچ کس در این جهان به دلیل حفظ حریم خصوصی، ماشین هوشمندی که خودش بتواند هدفش را تعیین کند، نمی خواهد. به این دلیل که ممکن است یک ماشین این چنینی به جای این که کاری را که ما فکر می کنیم خوب است انجام دهد، مانند دیگر انسان ها با یک ظرف چیپس و یک کنترل تلویزیون روی یک کاناپه ولو شود. آقای استراس اعتقاد دارد که سوپر هوش مصنوعی چه امروز و چه در آینده می تواند با توجه به نوع به کارگیری آن خطرناک ظاهر شود زیرا معلوم نیست که چه آدمی و با چه خصوصیات رفتاری آن را هدایت کند. از نظر او بزرگ ترین خطر هوش مصنوعی برای ما از ناحیه ای به وجود خواهد آمد که ماشین ها به خودآگاهی دست پیدا کرده و خودشان اهدافشان را تعیین کنند. او اضافه می کند که هواپیماهای بدون سرنشین هم در حال حاضر به خودی خود انسان ها را نمی کشند و تا زمانی که انسان ها به آن ها فرمان ندهند تا به یک نقطه خاص رفته و موشکی را شلیک کنند، کاملا بی آزار هستند. در این شرایط باید قبل از هر چیز به قصد و نیت آدم ها در به کارگیری هوش مصنوعی نگاه ویژه ای داشته باشیم زیرا هنوز ما نپذیرفته ایم که این امکان وجود دارد تا هوش مصنوعی جایگزین ما شود و حتی بسیار تندتر، دقیق تر و وسیع تر از ما فکر کند اما نه ضرورتا خیر خواهانه تر!