استیفن هاوکینگ معتقد است بیشتر مشکلات ما از حماقت است و ما در حال ارتکاب به یک اشتباه بسیار بزرگ دیگر هستیم. در یک کنفرانس در دانشگاه کمبریج استیفن هاوکینگ صریحا اعلام کرد، ساخت هوش مصنوعی می تواند همزمان بهترین و بد ترین اتفاقی باشد که برای بشریت رخ داده است.
این کنفرانس به مناسبت برپایی مرکز جدیدی در ارتباط با آینده هوش مصنوعی می باشد. جایی که بهترین مغز های متفکر در علوم به دنبال پاسخ به آینده ربات ها و هوش مصنوعی هستند که به عقیده هاوکینگ باید بیشتر به آن توجه شود. در این کنفرانس هاوکینگ گفت “ما بیشتر زمان خود را صرف مطالعه این موارد کرده ایم که کار روی این موضوعات، بیشترین میزان حماقت است”.
“اما به رغم اینکه بیشتر زمان خود را صرف بررسی خطا های گذشته کرده ایم، به نظر می رسد این اشتباه را بار ها و بار ها تکرار می کنیم. تغییر خوشایندی است که در عوض، مردم به آینده هوش توجه دارند”. این اولین باری نیست که هاوکینگ نگران مساله هوش مصنوعی است. سال گذشته، هاوکینگ، با پیوستن به پروژه ایلان ماسک همراه صد ها مختصص دیگر، نامه ای سرگشاده به دولت نوشتند و خواستار توقف ساخت سلاح های خودمختار شدند که ممکن است یک روز علیه انسان استفاده شود.
هاوکینگ، پیشتر اظهار کرده بود که توسعه کامل هوش مصنوعی می تواند به اتمام نوع بشر برسد. در کنفرانس روز چهارشنبه وی دوباره تصدیق کرد که همچنان نگران ساخت سلاح های خود مختار قدرتمند است که با هوش مصنوعی همراه می شود.
“اما اگر ما مداوما به این مسائل فکر کنیم و آن ها را پیگیری کنیم تکنولوژی هم تمام تلاش خود رابه کار خواهد بست. نمی توانیم پیش بینی کنیم چه اتفاقاتی خواهد افتاد زمانی که ذهن های ما تحت تاثیر هوش مصنوعی قرار گیرد. شاید با ابزار های این تکنولوژی انقلابی بتوان از آسیب هایی که صنعتی سازی به طبیعت وارد کرده است، جلوگیری کنیم. مطمئنا روزی فقر و بیماری های متعدد ریشه کن خواهد شد”.
مرکز لِوِرهیولم در دانشگاه کمبریج که هاوکینگ یکی از اساتید آن می باشد، بالغ بر ۱۲ میلیون دلار آمیریکا (۱۰ میلیون پوند) کمک مالی دریافت کرده است تا پروژه آینده بالقوه هوش مصنوعی را به سرانجام برساند. درحالی که از این پروژه به عنوان یک ریسک یاد شده است.
این مرکز با کمک مرکز “ریسک های وجودی” دانشگاه کمبریج، کورس هایی را با موضوع “مطالعات نابود کننده” پیشنهاد داده است تا مشکلات بالقوه ای را که هوش مصنوعی ممکن است در آینده برای انسان ها به وجود بیاورد، بررسی کند.
در حالی که آن مرکز (ریسک های وجودی)، بر تغییرات آب و هوایی و شروع جنگ ها مطالعه می کند، این مرکز جدید (لورهیولم)، به طور خاص مسائلی را بررسی می کند که در ارتباط با هوش ماشینی و یادگیری و تفکرات آن ها مانند انسان است.
به گفته هاو پرایس رئیس مرکز لورهیولم “هوش ماشینی یکی از موضوعات قرن حاضر، و چالش هایی است که جهانیان را مطمئن سازد، این تکنولوژی ها تنها در زمینه های مثبت استفاده خواهد شد. در حال حاضر ما تنها انشعابات آن را زیر نظر داریم تا مثبت و یا منفی بودن آن را بررسی کنیم”.
گوگل در حال حاضر هوش مصنوعی را که از حافظه خود کمک می گیرد، توسعه داده است. ایلان ماسک نگران این موضوع است که انسان ها تبدیل به حیوانات خانگی هوش مصنوعی شوند. کامپیوتر ها هم رقیب ۴ ساله تست های آی کیو هستند. بنابراین قطعا ارزش این را دارد که هر چه زود تر به نکات مثبت و منفی هوش مصنوعی توجه شود.
طبق گفته های هاوکینگ این موضوع ممکن است به اتمام مدنیت و آینده نوع بشر برسد.