7 فناوری نوظهور که آینده را تغییر خواهند داد
اشاره:
ماشینها اکنون با حجم عظیم توان پردازشی که دراختیار دارند، میتوانند اشیا را تشخیص داده و زبانهای مختلف را بیدرنگ به یکدیگر ترجمه کنند. هوش مصنوعی سرانجام در حال هوشمند شدن است!
در ماه جولای گذشته یعنی زمانی که ری کرتزوایل (Ray Kurtzweil) با لری پیج مدیرعامل گوگل دیدار میکرد در جستوجوی یک شغل تازه نبود. کرتزوایل، مخترعی مشهور و مورد احترام که به یک آیندهنگر در حوزه هوش ماشینی تبدیل شده است، قصد داشت درباره کتاب آیندهاش با نام «چگونه یک مغز بسازیم» صحبت کند. او به پیج که پیشنویسی از کتاب را خوانده بود، گفت که میخواهد شرکتی تأسیس کند تا بتواند ایدههایش در زمینه ساخت یک کامپیوتر واقعاً هوشمند را به پیش ببرد. کامپیوتری که بتواند زبان (طبیعی) را بفهمد و بتواند به تنهایی استنتاج کرده و تصمیم بگیرد.
به سرعت مشخص شد که چنین تلاشی حداقل به توان پردازشی و دادههایی حداقل در حد و اندازههای گوگل احتیاج خواهد داشت. پیج به کرتزوایل گفت: «میتوانم سعی کنم امکان دسترسی به قسمتی از آنها را برایت فراهم کنم. اما انجام این کار برای یک شرکت دیگر بسیار دشوار خواهد بود.» به این ترتیب، پیج پیشنهاد کرد که کرتزوایل، کسی که هیچگاه در جایی به جز شرکتهای خودش کار نکرده است، به جای تأسیس شرکتی جدید به گوگل بپیوندد. او برای تصمیمگیری به زمان زیادی احتیاج نداشت. کرتزوایل از ژانویه 2013 کار در گوگل را با سمت مدیر مهندسی آغاز کرد. خود او در اینباره میگوید: «این حد اعلای چیزی حدود ۵۰ سال تمرکز من بر هوش مصنوعی است.»
کرتزوایل البته تنها جذب منابع محاسباتی گوگل نشده بود. پیشرفت شگفتانگیز شرکت در زمینه هوش مصنوعی، به خصوص در حوزهای که یادگیری عمیق (Deep Learning) نامیده شده بود، نیز در این تصمیمگیری نقش داشت. نرمافزارهای یادگیری عمیق تلاش میکنند که فعالیتهای لایههای مختلف نورونها در نئوکورتکس را شبیهسازی کنند. نئوکورتکس که هشتاد درصد مغز را تشکیل میدهد، همانجایی است که تفکر در آن اتفاق میافتد. این نرمافزارها یاد میگیرند (یادگیری به معنای واقعی کلمه) که الگوها را در نمونههای دیجیتال صدا، تصویر و سایر انواع دادهها تشخیص دهند.
ایده اولیه، یعنی این که نرمافزار میتواند در شبکههای عصبی مجازی عملکرد آرایه بزرگ نورونها را شبیهسازی کند، دههها قدمت دارد و به همان اندازه که موجب ظهور فناوریهای نوین شده، مایه سرخوردگی فعالان این حوزه نیز بوده است. اما بهواسطه پیشرفتهای حاصل شده در فرمولهای ریاضی و کامپیوترهایی که روز به روز قدرتمندتر میشوند، لایههایی از نورونهای مصنوعی که دانشمندان علوم کامپیوتر میتوانند مدل کنند به بیشترین تعداد خود رسیده است.
با این عمق بیشتر، آنها به پیشرفتهای قابلتوجهی در زمینه تشخیص تصاویر و گفتار رسیدهاند. ژوئن گذشته، یک سیستم یادگیری عمیق گوگل که 10 میلیون تصویر را از ویدیوهای مختلف یوتیوب پردازش کرده بود، توانست با دقتی دو برابر هر سیستم تشخیص تصویر دیگری که پیش از آن وجود داشته است اشیایی نظیر گربهها را تشخیص دهد. گوگل از این فناوری برای کاهش میزان خطاهای موجود در نرمافزار تشخیص گفتار آخرین نسخههای آندروئید نیز استفاده کرده است. در ماه اکتبر ریک رشید مدیر ارشد تحقیقات مایکروسافت، تمام حضار کنفرانسی در چین را با نرمافزاری شگفتزده کرد که میتوانست صحبتهای او را به زبان انگلیسی و با ۷ درصد خطا به متن تبدیل کند، آنها را به چینی ترجمه کند و سپس با صدای خود او اما به زبان ماندارین (چینی) تلفظ و پخش کند. درست در همان ماه گروهی متشکل از سه دانشجوی فارغالتحصیل و دو نفر از اساتید برنده مسابقهای شدند که توسط Merck (یکی از مشهورترین شرکتهای داروسازی) برگزار میشد. هدف این مسابقه یافتن و مشخص کردن مولکولهایی بود که میتوانستند منجر به تولید داروهای جدید شوند. آنها نیز از یادگیری عمیق استفاده کرده بودند تا بتوانند تنها بر مولکولهایی تمرکز کنند که ممکن بود با هدف مورد نظر آنها پیوند برقرار کند.
گوگل بهصورت خاص تبدیل به آهنربایی برای جذب استعدادهای درخشان در زمینههای هوش مصنوعی و یادگیری عمیق شده است. در ماه مارس گوگل استارتآپی را خرید که جئوفری هینتون (یکی از اساتید علوم کامپیوتر دانشگاه تورنتو) یکی از بنیانگذارانش بود. هینتون هم یکی از اعضای گروهی بود که جایزه Merck را برده بودند. هینتون که زمان کاریاش را میان دانشگاه و گوگل تقسیم خواهد کرد، میگوید برنامهاش این است که «این ایدهها را از این حوزه فراتر برده و از آنها در حل مسائل واقعی» نظیر تشخیص تصاویر، جستوجو و درک زبانهای طبیعی استفاده کند. تمام اینها باعث شده است که محققان هوشیار حوزه هوش مصنوعی امیدوار شوند که سرانجام ماشینهای هوشمند خواهند توانست از صفحات داستانهای علمی تخیلی بیرون آمده و رنگ واقعیت به خود بگیرند. به یقین هوش ماشینی تغییر و تحول در همه جنبههای زندگی، از ارتباطات و محاسبات گرفته تا داروسازی و تولید و حملونقل، را آغاز کرده است.تواناییها و قابلیتهای این حوزه به خوبی در واتسون آیبیام یعنی ماشینی که مسابقات جئوپاردی را برنده شد، قابل مشاهده است. این ماشین از برخی روشهای یادگیری عمیق استفاده میکند و اکنون در حال تعلیم دیدن است تا به پزشکان کمک کند تصمیمات بهتری بگیرند. مایکروسافت یادگیری عمیق را در جستوجوی صوتی بینگ و ویندوزفون پیادهسازی کرده است.
گسترش دامنه نفوذ یادگیری عمیق در حوزههایی فراتر تشخیص تصویر و گفتار، به نوآوریهای مفهومی و نرمافزاری بیشتر و البته پیشرفتهایی چشمگیرتر در زمینه توان محاسباتی نیاز دارد. به همین دلیل به احتمال زیاد ما تا سالها و حتی دههها نخواهیم توانست ماشینهایی را ببینیم که همه بر سر هوشمند و متفکر بودن آنها به توافق داشته باشند. اما در حال حاضر، به اعتقاد پیتر لی، رئیس تحقیقات مایکروسافت در امریکا «یادگیری عمیق دوباره شعله برخی چالشهای اساسی در حوزه هوش مصنوعی را برافروخته است.»
ساخت یک مغز
شیوههای متنوع زیادی برای برخورد با چالشهای مطرح شده با هم رقابت میکنند. یکی از آنها این بوده است که اطلاعات و قوانین دنیای واقعی را به خورد کامپیوترها بدهیم. چنین رویکردی مستلزم این است که برنامهنویسان با دشواریهای فراوان نرمافزارهایی بنویسند که با خصوصیات چیزهایی مثل صداها یا موارد مشابه آشنا باشد. این کار به زمان زیادی نیاز خواهد داشت و در نهایت هم سیستم در مواجهه با دادههای مبهم و دوپهلو قابل استفاده نخواهد بود. این سیستمها به کاربردهایی خاص و کنترلشده مانند منوهای یک تلفن که از شما میخواهند جستوجویتان را به صورت صوتی و با گفتن کلماتی خاص انجام دهید، محدود خواهند بود.
شبکههای عصبی که در دهه 1950 میلادی و درست اندکی پس از طلوع دوران تحقیقات هوش مصنوعی توسعه یافتند، در ابتدا بسیار امیدوارکننده بودند چراکه تلاش میکردند نحوه کار مغز را هرچند به صورتی بسیار ساده شده شبیهسازی کنند. یک برنامه نقشهای شامل مجموعهای از نورونهای مجازی تهیه کرده و پس از آن مقادیر عددی تصادفی را که به اصطلاح «وزن» نامیده میشوند، به اتصالات بین آنها نسبت میدهد. این وزنها تعیین میکنند که هر یک از نورونهای شبیهسازی شده چگونه به یک داده دیجیتایز شده واکنش نشان میدهد. این داده میتواند یک لبه یا طیفی از رنگ آبی در یک تصویر باشد یا سطحی خاص از انرژی در یکی از فرکانسهای یک واج از مجموعه واحدهای منفرد صوتی در سیلابهایی که به زبان آورده میشوند. پاسخی که نورون شبیهسازی شده به این دادهها میدهد، یک خروجی ریاضی بین صفر و یک خواهد بود.
پس از آن برنامهنویسان با خوراندن نسخههای دیجیتایز شده تصاویر حاوی یک شئ خاص یا موجهای صوتی یک واج مشخص، شبکههای عصبی را تعلیم خواهند داد تا آن شئ یا واج را شناسایی کند. اگر شبکه نتواند الگویی را به درستی تشخیص دهد، الگوریتمی وزنهای نسبت داده شده در مرحله نخست را تغییر خواهد داد. هدف نهایی این آموزش دادنها این بود که شبکه عصبی بتواند بدون اشتباه و خطا الگوهایی در موجهای صوتی که مثلاً ما به عنوان تلفظ D میشناسیم یا تصاویر یک سگ را تشخیص دهد. این روش درست همان شیوهای است که کودکان به کمک آن ماهیت یک سگ را میشناسند: توجه به جزئیات شکل سر، رفتارها و شباهت در بافت و شکل پوست و پارس کردن حیواناتی که دیگران به آن «سگ» میگویند.
البته، شبکههای عصبی نخستین تنها میتوانستند تعداد بسیار اندکی از نورونها را در هر لحظه شبیهسازی کنند، به همین دلیل الگوهایی با پیچیدگی بالا را درک کنند. این شبکهها در طول دهه ۷۰ به حاشیه رفته و کمرنگ شدند. در اواسط دهه هشتاد میلادی، هینتون و دیگران با استفاده از چیزی که مدلسازی «عمیق» مینامیدند، توانستند از تعداد زیادی لایههای نورونهای نرمافزاری استفاده بهتری کرده و دوباره آتش اشتیاق به شبکههای عصبی را شعلهور سازند. اما این شیوه هنوز هم احتیاج به حجم عظیمی از دخالت انسانی دارد. برنامهنویسان باید دادهها را پیش از خوراندن به شبکه عصبی برچسبگذاری کنند. همچنین تشخیص گفتارها یا تصاویر پیچیده به توان پردازشی زیادی نیاز داشت که در آن زمان در دسترس نبود.
هرچند در نهایت، در دهه گذشته (2000 تا 2010) میلادی هینتون و دیگر محققان نوآوریهای تأثیرگذاری را در مفاهیم بنیادین این رشته بهوجود آوردند. در سال 2006 هینتون راهی کارآمدتر برای تعلیم دادن تک لایههای نورونها ابداع کرد. لایه اول تنها خصوصیات ابتدایی مثلاً یک لبه در یک عکس یا کوچکترین جزء یک گفتار را درک خواهد کرد. این کار با یافتن ترکیبی از پیکسلهای دیجیتایز شده یا موجهای صوتی انجام میشود که تعداد وقوع آنها نسبت به حالت تصادفی و شانسی بیشتر است. زمانی که این لایه یک خصوصیت را به درستی تشخیص داد، این اطلاعات به لایه بعدی خورانده میشود که این لایه هم خود را تعلیم میدهد تا خصوصیات پیچیدهتری نظیر یک گوشه یا ترکیبی از اصوات گفتار را کشف کند. این فرآیند در لایههای بعدی نیز تکرار میشود تا سیستم در نهایت بتواند یک واژه یا شئ نظیر یک گربه را با موفقیت تشخیص دهد.
در ژوئن سال 2013، گوگل یکی از بزرگترین شبکههای عصبی دنیا را به نمایش گذاشت که بیش از یک میلیارد اتصال در خود داشت. گروهی که توسط اندرو انجی (Andrew Ng) استاد علوم کامپیوتر دانشگاه استنفورد و جف دین (Jeff Dean) از اعضای گوگل هدایت میشد، مجموعهای حاوی 10 میلیون تصویر تصادفی استخراج شده از ویدیوهای یوتیوب را به سیستم خوراندند. یکی از نورونهای شبیهسازی شده روی تصاویر گربهها قفل کرده بود و برخی دیگر از نورونها روی صورت انسانها، گلهای زرد و دیگر اشیا مشابه تمرکز کرده بودند. به لطف قدرت یادگیری عمیق، این سیستم توانست این اشیا متفاوت را بدون این که انسانها آنها را تعریف کرده یا برچسب بزنند، تشخیص دهد.
اما آنچه که برخی متخصصان هوش مصنوعی را تحتتأثیر قرار داد، میزان پیشرفت حاصل شده در تشخیص تصاویر بود. سیستم توانست در 16 درصد موارد اشیا و تمهای تصاویر یوتیوب را به درستی دستهبندی کند. این عدد شاید چندان عالی بهنظر نرسد اما بیش از 70 درصد نسبت به شیوههای پیشین پیشرفت کرده است! علاوهبر این دین اشاره میکند که ۲۲هزار دسته مختلف برای طبقهبندی اشیا وجود داشته است و تشخیص درست دستهبندی برخی از اشیا به درک تفاوتهای جزئی مثلاً میان دو گونه خاص از یک نوع ماهی احتیاج داشته است. چنین کاری حتی برای انسانها هم دشوار است. زمانی که از سیستم خواسته شد که تصاویر را در 1000 دسته عمومیتر طبقهبندی کند، دقت سیستم به بیش از 50 درصد افزایش یافت.
بزرگ داده
آموزش دادن تعداد زیاد لایههای نورونهای مجازی استفاده شده در این آزمایش توسط 16هزار پردازنده انجام شده است. این پردازندهها در قالب نوعی از زیرساختهای محاسباتی کار میکردند که گوگل برای استفاده در موتور جستوجو و دیگر سرویسهایش توسعه داده است. دیلیپ جورج (Dileep George) یکی از بنیانگذاران استارتآپ Vicarious که در زمینه یادگیری ماشین فعالیت میکند معتقد است که حداقل 80 درصد پیشرفتهایی که بهتازگی در حوزه هوش مصنوعی به دست آمده، مدیون در اختیار داشتن توان پردازشی بیشتر بوده است.
البته، دست یافتن به این موفقیتها به چیزی بیش از توان عظیم مراکز داده گوگل احتیاج داشته است. یادگیری عمیق همچنین به شدت مدیون شیوه توزیع محاسبات کامپیوتری میان تعداد زیادی از ماشینها است که باعث میشود محاسبات با سرعت بسیار بیشتری به انجام برسند. دین در آغاز دوران خدمت 14 سالهاش در گوگل به توسعه این فناوری کمک زیادی کرده است. این فناوری سرعت آموزش دادن شبکههای عصبی یادگیری عمیق را به شدت افزایش داده و در عین حال، این امکان را برای گوگل فراهم ساخته که شبکههای بزرگتری را به راه بیاندازد و دادههای بیشتری را به خورد آنها بدهد.
یادگیری عمیق پیش از این توانسته است جستوجوی صوتی را در تلفنهای هوشمند بهبود بخشد. تا سال قبل نرمافزار آندروئید گوگل از شیوهای استفاده میکرد که بسیاری از کلمات را به اشتباه تشخیص میداد. اما در زمان آماده شدن برای توزیع نسخه جدید آندروئید در جولای گذشته، دین و تیمش کمک کردند تا بخش جستوجوی صوتی با نمونهای مبتنیبر یادگیری عمیق جایگزین شود. بهواسطه وجود لایههای متعدد نورونها آموزش برای شناخت انواع مختلف اصوات به شیوهای دقیقتر امکانپذیر است و در نتیجه این سیستم میتواند اصوات را به خصوص در مناطق پر سروصدا نظیر ایستگاههای مترو با دقت بالاتری تشخیص دهد. با توجه به اینکه احتمال درک مطلبی که واقعاً به زبان آورده شده توسط سیستم بالاتر رفته است، نتیجه حاصل از جستوجوی آنها هم با احتمال بیشتری درست خواهد بود. به این ترتیب، میزان خطاها در این سیستم یک شبه بیش از 25 درصد کاهش یافت و نتایج آنقدر عالی بود که بسیاری از بررسیکنندگان اذعان دارند که سیستم جستوجوی صوتی آندروئید از رقیب مشهورترش در پلتفرم اپل یعنی سیری هوشمندتر است.
اما بهرغم تمام این پیشرفتها همه به این باور نرسیدهاند که یادگیری عمیق میتواند هوش مصنوعی را به نقطهای برساند که با هوش انسانی به رقابت برخیزد. برخی از منتقدان میگویند یادگیری عمیق و در کل هوش مصنوعی از بسیاری از جنبههای بیولوژیک مغز را کنار گذاشته و به جای آن از محاسبات با تلاش کور (Brute Force) استفاده میکنند.
یکی از این منتقدان جف هاوکینز است. آخرین شرکت او Numenta نام دارد و در حال توسعه یک سیستم یادگیری ماشینی است که از بیولوژی مغز الهام گرفته است اما از یادگیری عمیق استفاده نمیکند. سیستم نومنتا میتواند به پیشبینی الگوهای مصرف انرژی کمک کرده و تعیین کند که احتمال از کار افتادن یک ماشین مثلاً یک آسیاب بادی یا توربین چقدر است. هاوکینز در سال ۲۰۰۴ هم کتابی با نام «درباره هوش» (On Intelligence) نوشته و در آن به تشریح این موضوع پرداخته است که مغز چگونه کار میکند و چگونه میتواند در ساخت ماشینهای هوشمند به ما کمک کند. او میگوید سیستمهای یادگیری زمان در مواجهه با مفهوم زمان شکست خواهند خورد. او میگوید مغز دنبالههایی از دادههای حسی را پردازش میکند و یادگیری انسانی به توانایی ما در یادآوری توالی الگوها وابسته است. وقتی شما ویدیویی از یک گربه را تماشا میکنید که کارهای بامزهای انجام میدهد، این «حرکت» است که اهمیت دارد نه یک سری از تصاویر ثابت مانند چیزی که گوگل در آزمایشهایش از آن استفاده کرده بود. او میگوید: «رویکرد گوگل این است: حجم عظیم دادهها همه چیز را درست میکند.»
اما اگر این حجم عظیم داده همه چیز را هم درست نکند، منابع عظیم محاسباتی که شرکتی نظیر گوگل صرف این مسائل میکند، قابل چشمپوشی نیست. طرفداران یادگیری عمیق معتقد هستند که این منابع از نقشی تعیینکننده برخوردارند چراکه مغز هنوز هم از تمام شبکههای عصبی موجود در حال حاضر پیچیدهتر است. هینتون میگوید: «تنها برای کار کردن این ایدهها [در هر سطحی] به توان پردازشی بسیار بالایی نیاز دارید.»
آینده چه خواهد شد؟
هرچند گوگل هنوز برای استفاده از قابلیتهای یادگیری عمیق در کاربردهای آینده آماده نیست، اما آینده این مسیر وسوسهکننده به نظر میرسد. به عنوان مثال، تشخیص بهتر تصاویر میتواند به یوتیوب کمک کند. همچنین دین معتقد است که مدلهای یادگیری عمیق میتوانند از دادههای واژههای انگلیسی در جهت تسریع آموزش سیستم برای تشخیص زبانهای گفتاری دیگر استفاده کنند. همینطور سیستمهای پیچیدهتر تشخیص تصویر میتوانند به ماشینهای بدون راننده گوگل نیز کمک کنند. پس از آن، جستوجو و تبلیغات است که از این فناوری بهره خواهد برد. هر دوی این خدمات میتوانند به کمک فناوریهایی که سریعتر و دقیقتر تشخیص میدهند مردم به دنبال چه میگردند، پیشرفتهای چشمگیری داشته باشند.
این چیزی است که کرتزوایل 65 ساله را که همواره رؤیای ماشینهای هوشمند را در سر داشته است، تحریک میکند. او در دوران دبیرستان نرمافزاری نوشته بود که به کامپیوترها امکان میداد در سبکهای مختلف موسیقی کلاسیک به ساخت آهنگهای جدید بپردازند. او این برنامه را در سال ۱۹۶۵ در برنامه تلویزیونی I’ve Got a Secret به نمایش گذاشت. از آن زمان اختراعات او شامل «نخستین»های بسیاری بوده است: ماشین قرائت متنهای چاپی، نرمافزاری که میتواند متن چاپ شده را با هر فونتی که باشد اسکن کرده و تشخیص دهد، سینتیسایزرهای موسیقی که میتوانند صدای سازهای ارکستر را تقلید کنند و سیستم تشخیص گفتاری با دامنه لغات بسیار وسیع.
امروزه او رؤیای یک «دوست سایبرنتیک» را در سر دارد که مکالمات تلفنی شما را گوش کرده، ایمیلهایتان را میخواند و هر حرکت شما را زیر نظر دارد (البته، به شرطی که اجازه این کار را به او بدهید) و به این ترتیب، میتواند چیزهایی را که لازم است بدانید به شما بگوید، حتی پیش از اینکه شما از او بپرسید! البته این نخستین هدف او در گوگل نیست، اما هدف مشترک او و سرگئی برین به شمار میرود که در نخستین روزهای تأسیس شرکت گوگل گفته بود که میخواهد نمونهای از کامپیوتر HAL در فیلم 2001: یک ادیسه فضایی را بسازد با این تفاوت که کامپیوترش انسانها را نخواهد کشت.
کرتزوایل در حال حاضر، قصد دارد به کامپیوترها کمک کند که زبان طبیعی را فهمیده و حتی با آن صحبت کنند. او میگوید: «وظیفه من این است که درک کامپیوترها از زبانهای طبیعی را آنقدر بالا ببرم که بتوانند کارهای مفید انجام دهند. جستوجوی بهتری انجام دهند یا پاسخهای بهتری به پرسشها بدهند.» در اصل او امیدوار است که بتواند نسخهای انعطافپذیرتر از واتسون آیبیام را بسازد. کامپیوتری که خود کرتزوایل آن را بهواسطه توانایی تشخیص سوالات جئوپاردی به شدت تحسین میکند. برای نمونه، از واتسون پرسیده میشود: «یک سخنرانی طولانی و خستهکننده توسط یک کیک کرِمدار هوسانگیز» و واتسون در پاسخ به درستی میگوید: «خامه ناطق دیگر چیست؟»
البته، یادگیری عمیق تنها نقطه تمرکز کرتزوایل نیست. خود او گفته است که رویکرد او به درک گفتار براساس نظریههای مختلف درمورد نحوه عملکرد مغز بنا شده است. او میخواهد معنای واقعی کلمهها، عبارتها و جملهها را به همراه تمام ابهامهایی که بهطورمعمول کامپیوترها را گیر میاندازند، مدلسازی کند. او میگوید: «من ایدهای از روشی گرافیکی برای بازنمایش مفاهیم معناشناسانه زبان در ذهن دارم.»
خود این موضوع شیوهای تشریحیتر برای تبدیل نحو جملات به گرافها را طلب میکند. گوگل هماکنون هم از چنین شیوه تحلیلی برای بهبود گرامر ترجمههایش استفاده میکند. درک زبان طبیعی نیازمند این است که کامپیوترها هم برداشتی از آنچه ما انسانها بهعنوان اطلاعات عمومی میشناسیم، داشته باشند. برای تأمین این نیاز کرتزوایل به سراغ گراف دانش (Knowledge Graph) گوگل خواهد رفت. کاتالوگی که گوگل از 700 میلیون موضوع شامل انسانها و مکانها و بسیاری چیزهای دیگر با بیش از یک میلیارد ارتباط میان آنها ایجاد کرده است. این گراف در سال گذشته بهعنوان ابزاری معرفی شد که به کمک آن جستوجوکنندگان میتوانند در جواب پرسشهایشان بهجای دریافت لینکهای به صفحات حاوی پاسخ، بهطور مستقیم خود پاسخ را دریافت کنند.
در نهایت کرتزوایل قصد دارد از یادگیری عمیق در الگوریتمهایی استفاده کند که به کامپیوترها کمک میکند با «لبههای نرم (تفاوتهای جزئی میان موارد به ظاهر مشابه) و ابهامها» در زبانهای طبیعی کنار بیایند. طبیعی است که تمام این موارد باهم ترسناک به نظر برسند. کرتزوایل میگوید: «درک زبان طبیعی هدفی نیست که در جایی مشخص مثلاً در حوزه جستوجو تمام شود. این پروژهای نیست که فکر کنم زمانی تمامش خواهم کرد.»
اگرچه رؤیاهای کرتزوایل هنوز سالها با تبدیل شدن به واقعیت فاصله دارند، اما یادگیری عمیق ممکن است خود در آینده نزدیک باعث ایجاد کاربردهایی فراتر از تشخیص تصویر و گفتار شود. یکی از این کاربردها کشف داروهای جدید است. پیروزی شگفتآور گروه هینتون در رقابتهای Merck به وضوح نشان داد که یادگیری عمیق میتواند در حوزههایی که بسیاری توقعش را هم ندارند، باعث تأثیرگذاری شدیدی شود. و البته این تمام ماجرا نیست. پیتر لی از مایکروسافت میگوید تحقیقات اولیه نویدبخشی در زمینه استفاده احتمالی از یادگیری عمیق در حوزه بینایی ماشینی در جریان است. بینایی ماشینی مجموعهای از فناوریهاست که از تصاویر در کاربردهایی نظیر تحقیقات صنعتی یا کنترل روباتها استفاده میکند. همچنین او رؤیای حسگرهای شخصیای را در سر میپروراند که به کمک یک شبکه عصبی مبتنیبر یادگیری عمیق بتوانند مشکلات پزشکی را پیشبینی کنند. حسگرهای نصب شده در یک شهر میتوانند نیز میتوانند خوراک مورد نیاز برای سیستمهای یادگیری عمیق را فراهم کنند تا این سیستمها به نوبه خود بتوانند مثلاً وضعیت گرههای ترافیکی که ممکن است رخ دهند را پیشبینی کنند.
در حوزهای که فعالیتهایش مواردی ژرف نظیر مدلسازی مغز انسان را در بر میگیرد، طبیعی است که یک روش خاص نتواند به تمام چالشها پاسخ دهد. اما در حال حاضر، این روش (یادگیری عمیق) تعیینکننده مسیر آینده هوش مصنوعی است. دین میگوید: «یادگیری عمیق واقعاً مجاز و استعاره (متافور) قدرتمندی برای یادگیری درباره جهان است.»
جهش فنی:
شیوهای از هوش مصنوعی که میتواند برای استفاده در بسیاری از کاربردهای مختلف تعمیم یابد.
چرا مهم است:
اگر کامپیوترها بتوانند به صورتی قابلاطمینان الگوها را تشخیص داده و درباره دنیای واقعی استنتاج کنند، میتوانند با بهرهوری بسیار بیشتری به انسانها کمک کنند.
بازیگران عمده:
- گوگل
- مایکروسافت
- آیبیام
- جئوفری هینتون از دانشگاه تورنتو