دوشنبه ۲۸ آبان ۱۴۰۳
سه شنبه ۲۶ فروردین ۱۳۹۳ 8298 0 5

ماشین‌ها اکنون با حجم عظیم توان پردازشی که در‌اختیار دارند، می‌توانند اشیا را تشخیص داده و زبان‌های مختلف را بی‌درنگ به یکدیگر ترجمه کنند. هوش مصنوعی سرانجام در حال هوشمند شدن است!

یادگیری عمیق

7 فناوری نوظهور که آینده را تغییر خواهند داد
 
اشاره:
ماشین‌ها اکنون با حجم عظیم توان پردازشی که در‌اختیار دارند، می‌توانند اشیا را تشخیص داده و زبان‌های مختلف را بی‌درنگ به یکدیگر ترجمه کنند. هوش مصنوعی سرانجام در حال هوشمند شدن است!
 
در ماه جولای گذشته یعنی زمانی که ری‌ کرتزوایل (Ray Kurtzweil) با لری پیج مدیرعامل گوگل دیدار می‌کرد در جست‌وجوی یک شغل تازه نبود. کرتزوایل، مخترعی مشهور و مورد احترام که به یک آینده‌نگر در حوزه هوش ماشینی تبدیل شده است، قصد داشت درباره کتاب آینده‌اش با نام «چگونه یک مغز بسازیم» صحبت کند. او به پیج که پیش‌نویسی از کتاب را خوانده بود، گفت که می‌خواهد شرکتی تأسیس کند تا بتواند ایده‌هایش در زمینه ساخت یک کامپیوتر واقعاً هوشمند را به پیش ببرد. کامپیوتری که بتواند زبان (طبیعی) را بفهمد و بتواند به تنهایی استنتاج کرده و تصمیم بگیرد.

به سرعت مشخص شد که چنین تلاشی حداقل به توان پردازشی و داده‌هایی حداقل در حد و اندازه‌های گوگل احتیاج خواهد داشت. پیج به کرتزوایل گفت: «می‌توانم سعی کنم امکان دسترسی به قسمتی از آن‌ها را برایت فراهم کنم. اما انجام این کار برای یک شرکت دیگر بسیار دشوار خواهد بود.» به این ترتیب، پیج پیشنهاد کرد که کرتزوایل، کسی که هیچ‌گاه در جایی به جز شرکت‌های خودش کار نکرده است، به جای تأسیس شرکتی جدید به گوگل بپیوندد. او برای تصمیم‌گیری به زمان زیادی احتیاج نداشت. کرتزوایل از ژانویه 2013 کار در گوگل را با سمت مدیر مهندسی آغاز کرد. خود او در این‌باره می‌گوید: «این حد اعلای چیزی حدود ۵۰ سال تمرکز من بر هوش مصنوعی است.»

کرتزوایل البته تنها جذب منابع محاسباتی گوگل نشده بود. پیشرفت شگفت‌انگیز شرکت در زمینه هوش مصنوعی، به خصوص در حوزه‌ای که یادگیری عمیق (Deep Learning) نامیده شده بود، نیز در این تصمیم‌گیری نقش داشت. نرم‌افزارهای یادگیری عمیق تلاش می‌کنند که فعالیت‌های لایه‌های مختلف نورون‌ها در نئوکورتکس را شبیه‌سازی کنند. نئوکورتکس که هشتاد درصد مغز را تشکیل می‌دهد، همان‌جایی است که تفکر در آن اتفاق می‌افتد. این نرم‌افزارها یاد می‌گیرند (یادگیری به معنای واقعی کلمه) که الگوها را در نمونه‌های دیجیتال صدا، تصویر و سایر انواع داده‌ها تشخیص دهند.

ایده اولیه، یعنی این که نرم‌افزار می‌تواند در شبکه‌های عصبی مجازی عملکرد آرایه بزرگ نورون‌ها را شبیه‌سازی کند، دهه‌ها قدمت دارد و به همان اندازه که موجب ظهور فناوری‌های نوین شده، مایه سرخوردگی فعالان این حوزه نیز بوده است. اما به‌واسطه پیشرفت‌های حاصل شده در فرمول‌های ریاضی و کامپیوترهایی که روز به روز قدرتمندتر می‌شوند، لایه‌هایی از نورون‌های مصنوعی که دانشمندان علوم کامپیوتر می‌توانند مدل کنند به بیشترین تعداد خود رسیده است.

با این عمق بیش‌تر، آن‌ها به پیشرفت‌های قابل‌توجهی در زمینه تشخیص تصاویر و گفتار رسیده‌اند. ژوئن گذشته، یک سیستم یادگیری عمیق گوگل که 10 میلیون تصویر را از ویدیوهای مختلف یوتیوب پردازش کرده بود، توانست با دقتی دو برابر هر سیستم تشخیص تصویر دیگری که پیش از آن وجود داشته است اشیایی نظیر گربه‌ها را تشخیص دهد. گوگل از این فناوری برای کاهش میزان خطاهای موجود در نرم‌افزار تشخیص گفتار آخرین نسخه‌های آندروئید نیز استفاده کرده است. در ماه اکتبر ریک رشید مدیر ارشد تحقیقات مایکروسافت، تمام حضار کنفرانسی در چین را با نرم‌افزاری شگفت‌زده کرد که می‌توانست صحبت‌های او را به زبان انگلیسی و با ۷ درصد خطا به متن تبدیل کند، آن‌ها را به چینی ترجمه کند و سپس با صدای خود او اما به زبان ماندارین (چینی) تلفظ و پخش کند. درست در همان ماه گروهی متشکل از سه دانشجوی فارغ‌التحصیل و دو نفر از اساتید برنده مسابقه‌ای شدند که توسط Merck (یکی از مشهورترین شرکت‌های داروسازی) برگزار می‌شد. هدف این مسابقه یافتن و مشخص کردن مولکول‌هایی بود که می‌توانستند منجر به تولید داروهای جدید شوند. آن‌ها نیز از یادگیری عمیق استفاده کرده بودند تا بتوانند تنها بر مولکول‌هایی تمرکز کنند که ممکن بود با هدف مورد نظر آن‌ها پیوند برقرار کند.

گوگل به‌صورت خاص تبدیل به آهنربایی برای جذب استعدادهای درخشان در زمینه‌های هوش مصنوعی و یادگیری عمیق شده است. در ماه مارس گوگل استارت‌آپی را خرید که جئوفری هینتون (یکی از اساتید علوم کامپیوتر دانشگاه تورنتو)‌ یکی از بنیان‌گذارانش بود. هینتون هم یکی از اعضای گروهی بود که جایزه Merck را برده بودند. هینتون که زمان کاری‌اش را میان دانشگاه و گوگل تقسیم خواهد کرد، می‌گوید برنامه‌اش این است که «این ایده‌ها را از این حوزه فراتر برده و از آن‌ها در حل مسائل واقعی» نظیر تشخیص تصاویر، جست‌وجو و درک زبان‌های طبیعی استفاده کند. تمام این‌ها باعث شده است که محققان هوشیار حوزه هوش مصنوعی امیدوار شوند که سرانجام ماشین‌های هوشمند خواهند توانست از صفحات داستان‌های علمی تخیلی بیرون آمده و رنگ واقعیت به خود بگیرند. به یقین هوش ماشینی تغییر و تحول در همه جنبه‌های زندگی، از ارتباطات و محاسبات گرفته تا داروسازی و تولید و حمل‌ونقل، را آغاز کرده است.توانایی‌ها و قابلیت‌های این حوزه به خوبی در واتسون آی‌بی‌ام یعنی ماشینی که مسابقات جئوپاردی را برنده شد، قابل مشاهده است. این ماشین از برخی روش‌های یادگیری عمیق استفاده می‌کند و اکنون در حال تعلیم دیدن است تا به پزشکان کمک کند تصمیمات بهتری بگیرند. مایکروسافت یادگیری عمیق را در جست‌وجوی صوتی بینگ و ویندوزفون پیاده‌سازی کرده است.

گسترش دامنه نفوذ یادگیری عمیق در حوزه‌هایی فراتر تشخیص تصویر و گفتار، به نوآوری‌های مفهومی و نرم‌افزاری بیش‌تر و البته پیشرفت‌هایی چشم‌گیرتر در زمینه توان محاسباتی نیاز دارد. به همین دلیل به احتمال زیاد ما تا سال‌ها و حتی دهه‌ها نخواهیم توانست ماشین‌هایی را ببینیم که همه بر سر هوشمند و متفکر بودن آن‌ها به توافق داشته باشند. اما در حال حاضر، به اعتقاد پیتر لی، رئیس تحقیقات مایکروسافت در امریکا «یادگیری عمیق دوباره شعله برخی چالش‌های اساسی در حوزه هوش مصنوعی را برافروخته است.»
 
ساخت یک مغز
شیوه‌های متنوع زیادی برای برخورد با چالش‌های مطرح شده با هم رقابت می‌کنند. یکی از آن‌ها این بوده است که اطلاعات و قوانین دنیای واقعی را به خورد کامپیوترها بدهیم. چنین رویکردی مستلزم این است که برنامه‌نویسان با دشواری‌های فراوان نرم‌افزارهایی بنویسند که با خصوصیات چیزهایی مثل صداها یا موارد مشابه آشنا باشد. این کار به زمان زیادی نیاز خواهد داشت و در نهایت هم سیستم در مواجهه با داده‌های مبهم و دوپهلو قابل استفاده نخواهد بود. این سیستم‌ها به کاربردهایی خاص و کنترل‌شده مانند منوهای یک تلفن که از شما می‌خواهند جست‌وجوی‌تان را به صورت صوتی و با گفتن کلماتی خاص انجام دهید، محدود خواهند بود.

شبکه‌های عصبی که در دهه 1950 میلادی و درست اندکی پس از طلوع دوران تحقیقات هوش مصنوعی توسعه یافتند، در ابتدا بسیار امیدوارکننده بودند چرا‌که تلاش می‌کردند نحوه کار مغز را هرچند به صورتی بسیار ساده شده شبیه‌سازی کنند. یک برنامه نقشه‌ای شامل مجموعه‌ای از نورون‌های مجازی تهیه کرده و پس از آن مقادیر عددی تصادفی را که به اصطلاح «وزن» نامیده می‌شوند، به اتصالات بین آن‌ها نسبت می‌دهد. این وزن‌ها تعیین می‌کنند که هر یک از نورون‌های شبیه‌سازی شده چگونه به یک داده دیجیتایز شده واکنش نشان می‌دهد. این داده می‌تواند یک لبه یا طیفی از رنگ آبی در یک تصویر باشد یا سطحی خاص از انرژی در یکی از فرکانس‌های یک واج از مجموعه واحدهای منفرد صوتی در سیلاب‌هایی که به زبان آورده می‌شوند. پاسخی که نورون شبیه‌سازی شده به این داده‌ها می‌دهد، یک خروجی ریاضی بین صفر و یک خواهد بود.

پس از آن برنامه‌نویسان با خوراندن نسخه‌های دیجیتایز شده تصاویر حاوی یک شئ خاص یا موج‌های صوتی یک واج مشخص، شبکه‌های عصبی را تعلیم خواهند داد تا آن شئ یا واج را شناسایی کند. اگر شبکه نتواند الگویی را به درستی تشخیص دهد، الگوریتمی وزن‌های نسبت داده شده در مرحله نخست را تغییر خواهد داد. هدف نهایی این آموزش دادن‌ها این بود که شبکه عصبی بتواند بدون اشتباه و خطا الگوهایی در موج‌های صوتی که مثلاً ما به عنوان تلفظ D می‌شناسیم یا تصاویر یک سگ را تشخیص دهد. این روش درست همان شیوه‌ای است که کودکان به کمک آن ماهیت یک سگ را می‌شناسند: توجه به جزئیات شکل سر، رفتارها و شباهت در بافت و شکل پوست و پارس کردن حیواناتی که دیگران به آن «سگ» می‌گویند.

البته، شبکه‌های عصبی نخستین تنها می‌توانستند تعداد بسیار اندکی از نورون‌ها را در هر لحظه شبیه‌سازی کنند، به همین دلیل الگوهایی با پیچیدگی بالا را درک کنند. این شبکه‌ها در طول دهه ۷۰ به حاشیه رفته و کم‌رنگ شدند. در اواسط دهه هشتاد میلادی، هینتون و دیگران با استفاده از چیزی که مدل‌سازی «عمیق» می‌نامیدند، توانستند از تعداد زیادی لایه‌های نورون‌های نرم‌افزاری استفاده بهتری کرده و دوباره آتش اشتیاق به شبکه‌های عصبی را شعله‌ور سازند. اما این شیوه هنوز هم احتیاج به حجم عظیمی از دخالت انسانی دارد. برنامه‌نویسان باید داده‌ها را پیش از خوراندن به شبکه عصبی برچسب‌گذاری کنند. همچنین تشخیص گفتارها یا تصاویر پیچیده به توان پردازشی زیادی نیاز داشت که در آن زمان در دسترس نبود.

هرچند در نهایت، در دهه گذشته (2000 تا 2010) میلادی هینتون و دیگر محققان نوآوری‌های تأثیرگذاری را در مفاهیم بنیادین این رشته به‌وجود آوردند. در سال 2006 هینتون راهی کارآمدتر برای تعلیم دادن تک لایه‌های نورون‌ها ابداع کرد. لایه اول تنها خصوصیات ابتدایی مثلاً یک لبه در یک عکس یا کوچک‌ترین جزء یک گفتار را درک خواهد کرد. این کار با یافتن ترکیبی از پیکسل‌های دیجیتایز شده یا موج‌های صوتی انجام می‌شود که تعداد وقوع آن‌ها نسبت به حالت تصادفی و شانسی بیش‌تر است. زمانی که این لایه یک خصوصیت را به درستی تشخیص داد، این اطلاعات به لایه بعدی خورانده می‌شود که این لایه هم خود را تعلیم می‌دهد تا خصوصیات پیچیده‌تری نظیر یک گوشه یا ترکیبی از اصوات گفتار را کشف کند. این فرآیند در لایه‌های بعدی نیز تکرار می‌شود تا سیستم در نهایت بتواند یک واژه یا شئ نظیر یک گربه را با موفقیت تشخیص دهد.

در ژوئن سال 2013، گوگل یکی از بزرگ‌ترین شبکه‌های عصبی دنیا را به نمایش گذاشت که بیش از یک میلیارد اتصال در خود داشت. گروهی که توسط اندرو انجی (Andrew Ng) استاد علوم کامپیوتر دانشگاه استنفورد و جف دین (Jeff Dean) از اعضای گوگل هدایت می‌شد، مجموعه‌ای حاوی 10 میلیون تصویر تصادفی استخراج شده از ویدیوهای یوتیوب را به سیستم خوراندند. یکی از نورون‌های شبیه‌سازی شده روی تصاویر گربه‌ها قفل کرده بود و برخی دیگر از نورون‌ها روی صورت انسان‌ها، گل‌های زرد و دیگر اشیا مشابه تمرکز کرده بودند. به لطف قدرت یادگیری عمیق، این سیستم توانست این اشیا متفاوت را بدون این که انسان‌ها آن‌ها را تعریف کرده یا برچسب بزنند، تشخیص دهد.

اما آن‌چه که برخی متخصصان هوش مصنوعی را تحت‌تأثیر قرار داد، میزان پیشرفت حاصل شده در تشخیص تصاویر بود. سیستم توانست در 16 درصد موارد اشیا و تم‌های تصاویر یوتیوب را به درستی دسته‌بندی کند. این عدد شاید چندان عالی به‌نظر نرسد اما بیش از 70 درصد نسبت به شیوه‌های پیشین پیشرفت کرده است! علاوه‌بر این دین اشاره می‌کند که ۲۲هزار دسته مختلف برای طبقه‌بندی اشیا وجود داشته است و تشخیص درست دسته‌بندی برخی از اشیا به درک تفاوت‌های جزئی مثلاً میان دو گونه خاص از یک نوع ماهی احتیاج داشته است. چنین کاری حتی برای انسان‌ها هم دشوار است. زمانی که از سیستم خواسته شد که تصاویر را در 1000 دسته عمومی‌تر طبقه‌بندی کند، دقت سیستم به بیش از 50 درصد افزایش یافت.
 
بزرگ داده‌
آموزش دادن تعداد زیاد لایه‌های نورون‌های مجازی استفاده شده در این آزمایش توسط 16هزار پردازنده انجام شده است. این پردازنده‌ها در قالب نوعی از زیرساخت‌های محاسباتی کار می‌کردند که گوگل برای استفاده در موتور جست‌وجو و دیگر سرویس‌هایش توسعه داده است. دیلیپ جورج (Dileep George) یکی از بنیان‌گذاران استارت‌آپ Vicarious که در زمینه یادگیری ماشین فعالیت می‌کند معتقد است که حداقل 80 درصد پیشرفت‌هایی که به‌تازگی در حوزه هوش مصنوعی به دست آمده، مدیون در اختیار داشتن توان پردازشی بیش‌تر بوده است.

البته، دست یافتن به این موفقیت‌ها به چیزی بیش از توان عظیم مراکز داده گوگل احتیاج داشته است. یادگیری عمیق همچنین به شدت مدیون شیوه توزیع محاسبات کامپیوتری میان تعداد زیادی از ماشین‌ها است که باعث می‌شود محاسبات با سرعت بسیار بیشتری به انجام برسند. دین در آغاز دوران خدمت 14 ساله‌اش در گوگل به توسعه این فناوری کمک زیادی کرده است. این فناوری سرعت آموزش دادن شبکه‌های عصبی یادگیری عمیق را به شدت افزایش داده و در عین حال، این امکان را برای گوگل فراهم ساخته که شبکه‌های بزرگ‌تری را به راه بیاندازد و داده‌های بیشتری را به خورد آن‌ها بدهد.

یادگیری عمیق پیش از این توانسته است جست‌وجوی صوتی را در تلفن‌های هوشمند بهبود بخشد. تا سال قبل نرم‌افزار آندروئید گوگل از شیوه‌ای استفاده می‌کرد که بسیاری از کلمات را به اشتباه تشخیص می‌داد. اما در زمان آماده شدن برای توزیع نسخه جدید آندروئید در جولای گذشته، دین و تیمش کمک کردند تا بخش جست‌وجوی صوتی با نمونه‌ای مبتنی‌بر یادگیری عمیق جایگزین شود. به‌واسطه وجود لایه‌های متعدد نورون‌ها آموزش برای شناخت انواع مختلف اصوات به شیوه‌ای دقیق‌تر امکان‌پذیر است و در نتیجه این سیستم می‌تواند اصوات را به خصوص در مناطق پر سروصدا نظیر ایستگاه‌های مترو با دقت بالاتری تشخیص دهد. با توجه به این‌که احتمال درک مطلبی که واقعاً به زبان آورده شده توسط سیستم بالاتر رفته است، نتیجه حاصل از جست‌وجوی آن‌ها هم با احتمال بیشتری درست خواهد بود. به این ترتیب، میزان خطاها در این سیستم یک شبه بیش از 25 درصد کاهش یافت و نتایج آن‌قدر عالی بود که بسیاری از بررسی‌کنندگان اذعان دارند که سیستم جست‌وجوی صوتی آندروئید از رقیب مشهورترش در پلتفرم اپل یعنی سیری هوشمندتر است.

اما به‌رغم تمام این پیشرفت‌ها همه به این باور نرسیده‌اند که یادگیری عمیق می‌تواند هوش مصنوعی را به نقطه‌ای برساند که با هوش انسانی به رقابت برخیزد. برخی از منتقدان می‌گویند یادگیری عمیق و در کل هوش مصنوعی از بسیاری از جنبه‌های بیولوژیک مغز را کنار گذاشته و به جای آن از محاسبات با تلاش کور (Brute Force) استفاده می‌کنند.

یکی از این منتقدان جف هاوکینز است. آخرین شرکت او Numenta نام دارد و در حال توسعه یک سیستم یادگیری ماشینی است که از بیولوژی مغز الهام گرفته است اما از یادگیری عمیق استفاده نمی‌کند. سیستم نومنتا می‌تواند به پیش‌بینی الگوهای مصرف انرژی کمک کرده و تعیین کند که احتمال از کار افتادن یک ماشین مثلاً یک آسیاب بادی یا توربین چقدر است. هاوکینز در سال ۲۰۰۴ هم کتابی با نام «درباره هوش» (On Intelligence) نوشته و در آن به تشریح این موضوع پرداخته است که مغز چگونه کار می‌کند و چگونه می‌تواند در ساخت ماشین‌های هوشمند به ما کمک کند. او می‌گوید سیستم‌های یادگیری زمان در مواجهه با مفهوم زمان شکست خواهند خورد. او می‌گوید مغز دنباله‌هایی از داده‌های حسی را پردازش می‌کند و یادگیری انسانی به توانایی ما در یادآوری توالی الگوها وابسته است. وقتی شما ویدیویی از یک گربه را تماشا می‌کنید که کارهای بامزه‌ای انجام می‌دهد، این «حرکت» است که اهمیت دارد نه یک سری از تصاویر ثابت مانند چیزی که گوگل در آزمایش‌هایش از آن استفاده کرده بود. او می‌گوید: «رویکرد گوگل این است: حجم عظیم داده‌ها همه چیز را درست می‌کند.»

اما اگر این حجم عظیم داده همه چیز را هم درست نکند، منابع عظیم محاسباتی که شرکتی نظیر گوگل صرف این مسائل می‌کند، قابل چشم‌پوشی نیست. طرفداران یادگیری عمیق معتقد هستند که این منابع از نقشی تعیین‌کننده برخوردارند چرا‌که مغز هنوز هم از تمام شبکه‌های عصبی موجود در حال حاضر پیچیده‌تر است. هینتون می‌گوید: «تنها برای کار کردن این ایده‌ها [در هر سطحی] به توان پردازشی بسیار بالایی نیاز دارید.»
 
آینده چه خواهد شد؟
هرچند گوگل هنوز برای استفاده از قابلیت‌های یادگیری عمیق در کاربردهای آینده آماده نیست، اما آینده این مسیر وسوسه‌کننده به نظر می‌رسد. به عنوان مثال، تشخیص بهتر تصاویر می‌تواند به یوتیوب کمک کند. همچنین دین معتقد است که مدل‌های یادگیری عمیق می‌توانند از داده‌های واژه‌های انگلیسی در جهت تسریع آموزش سیستم برای تشخیص زبان‌های گفتاری دیگر استفاده کنند. همین‌طور سیستم‌های پیچیده‌تر تشخیص تصویر می‌توانند به ماشین‌های بدون راننده گوگل نیز کمک کنند. پس از آن، جست‌وجو و تبلیغات است که از این فناوری بهره خواهد برد. هر دوی این خدمات می‌توانند به کمک فناوری‌هایی که سریع‌تر و دقیق‌تر تشخیص می‌دهند مردم به دنبال چه می‌گردند، پیشرفت‌های چشم‌گیری داشته باشند.

این چیزی است که کرتزوایل 65 ساله را که همواره رؤیای ماشین‌های هوشمند را در سر داشته است، تحریک می‌کند. او در دوران دبیرستان نرم‌افزاری نوشته بود که به کامپیوترها امکان می‌داد در سبک‌های مختلف موسیقی کلاسیک به ساخت آهنگ‌های جدید بپردازند. او این برنامه را در سال ۱۹۶۵ در برنامه تلویزیونی I’ve Got a Secret به نمایش گذاشت. از آن زمان اختراعات او شامل «نخستین»های بسیاری بوده است: ماشین قرائت متن‌های چاپی، نرم‌افزاری که می‌تواند متن چاپ شده را با هر فونتی که باشد اسکن کرده و تشخیص دهد، سینتی‌سایزرهای موسیقی که می‌توانند صدای سازهای ارکستر را تقلید کنند و سیستم تشخیص گفتاری با دامنه لغات بسیار وسیع.

امروزه او رؤیای یک «دوست سایبرنتیک» را در سر دارد که مکالمات تلفنی شما را گوش کرده، ایمیل‌های‌تان را می‌خواند و هر حرکت شما را زیر نظر دارد (البته، به شرطی که اجازه این کار را به او بدهید) و به این ترتیب، می‌تواند چیزهایی را که لازم است بدانید به شما بگوید، حتی پیش از این‌که شما از او بپرسید! البته این نخستین هدف او در گوگل نیست، اما هدف مشترک او و سرگئی برین به شمار می‌رود که در نخستین روزهای تأسیس شرکت گوگل گفته بود که می‌خواهد نمونه‌ای از کامپیوتر HAL در فیلم 2001: یک ادیسه فضایی را بسازد با این تفاوت که کامپیوترش انسان‌ها را نخواهد کشت.

کرتزوایل در حال حاضر، قصد دارد به کامپیوترها کمک کند که زبان طبیعی را فهمیده و حتی با آن صحبت کنند. او می‌گوید: «وظیفه من این است که درک کامپیوترها از زبان‌های طبیعی را آن‌قدر بالا ببرم که بتوانند کارهای مفید انجام دهند. جست‌وجوی بهتری انجام دهند یا پاسخ‌های بهتری به پرسش‌ها بدهند.» در اصل او امیدوار است که بتواند نسخه‌ای انعطاف‌پذیرتر از واتسون آی‌بی‌ام را بسازد. کامپیوتری که خود کرتزوایل آن را به‌واسطه توانایی تشخیص سوالات جئوپاردی به شدت تحسین می‌کند. برای نمونه، ‌از واتسون پرسیده می‌شود: «یک سخنرانی طولانی و خسته‌کننده توسط یک کیک کرِم‌دار هوس‌انگیز» و  واتسون در پاسخ به درستی می‌گوید: «خامه ناطق دیگر چیست؟»

البته، یادگیری عمیق تنها نقطه تمرکز کرتزوایل نیست. خود او گفته است که رویکرد او به درک گفتار براساس نظریه‌های مختلف در‌مورد نحوه عملکرد مغز بنا شده است. او می‌خواهد معنای واقعی کلمه‌ها، عبارت‌ها و جمله‌ها را به همراه تمام ابهام‌هایی که به‌طورمعمول کامپیوترها را گیر می‌اندازند، مدل‌سازی کند. او می‌گوید: «من ایده‌ای از روشی گرافیکی برای بازنمایش مفاهیم معناشناسانه زبان در ذهن دارم.»

خود این موضوع شیوه‌ای تشریحی‌تر برای تبدیل نحو جملات به گراف‌ها را طلب می‌کند. گوگل هم‌اکنون هم از چنین شیوه تحلیلی برای بهبود گرامر ترجمه‌هایش استفاده می‌کند. درک زبان طبیعی نیازمند این است که کامپیوترها هم برداشتی از آن‌چه ما انسان‌ها به‌عنوان اطلاعات عمومی می‌شناسیم، داشته باشند. برای تأمین این نیاز کرتزوایل به سراغ گراف دانش (Knowledge Graph)‌ گوگل خواهد رفت. کاتالوگی که گوگل از 700 میلیون موضوع شامل انسان‌ها و مکان‌ها و بسیاری چیزهای دیگر با بیش از یک میلیارد ارتباط میان آن‌ها ایجاد کرده است. این گراف در سال گذشته به‌عنوان ابزاری معرفی شد که به کمک آن جست‌وجو‌کنندگان می‌توانند در جواب پرسش‌های‌شان به‌جای دریافت لینک‌های به صفحات حاوی پاسخ، به‌طور مستقیم خود پاسخ را دریافت کنند.

در نهایت کرتزوایل قصد دارد از یادگیری عمیق در الگوریتم‌هایی استفاده کند که به کامپیوترها کمک می‌کند با «لبه‌های نرم (تفاوت‌های جزئی میان موارد به ظاهر مشابه) و ابهام‌ها» در زبان‌های طبیعی کنار بیایند. طبیعی است که تمام این موارد باهم ترسناک به نظر برسند. کرتزوایل می‌گوید: «درک زبان طبیعی هدفی نیست که در جایی مشخص مثلاً در حوزه جست‌وجو تمام شود. این پروژه‌ای نیست که فکر کنم زمانی تمامش خواهم کرد.»

اگرچه رؤیاهای کرتزوایل هنوز سال‌ها با تبدیل شدن به واقعیت فاصله دارند، اما یادگیری عمیق ممکن است خود در آینده نزدیک باعث ایجاد کاربردهایی فراتر از تشخیص تصویر و گفتار شود. یکی از این کاربردها کشف داروهای جدید است. پیروزی شگفت‌آور گروه هینتون در رقابت‌های Merck به وضوح نشان داد که یادگیری عمیق می‌تواند در حوزه‌هایی که بسیاری توقعش را هم ندارند، باعث تأثیرگذاری شدیدی شود. و البته این تمام ماجرا نیست. پیتر لی از مایکروسافت می‌گوید تحقیقات اولیه نویدبخشی در زمینه استفاده احتمالی از یادگیری عمیق در حوزه بینایی ماشینی در جریان است. بینایی ماشینی مجموعه‌ای از فناوری‌هاست که از تصاویر در کاربردهایی نظیر تحقیقات صنعتی یا کنترل روبات‌ها استفاده می‌کند. همچنین او رؤیای حسگرهای شخصی‌ای را در سر می‌پروراند که به کمک یک شبکه عصبی مبتنی‌بر یادگیری عمیق بتوانند مشکلات پزشکی را پیش‌بینی کنند. حسگرهای نصب شده در یک شهر می‌توانند نیز می‌توانند خوراک مورد نیاز برای سیستم‌های یادگیری عمیق را فراهم کنند تا این سیستم‌ها به نوبه خود بتوانند مثلاً وضعیت گره‌های ترافیکی که ممکن است رخ دهند را پیش‌بینی کنند.
در حوزه‌ای که فعالیت‌هایش مواردی ژرف نظیر مدل‌سازی مغز انسان را در بر می‌گیرد، طبیعی است که یک روش خاص نتواند به تمام چالش‌ها پاسخ دهد. اما در حال حاضر، این روش (یادگیری عمیق) تعیین‌کننده مسیر آینده هوش مصنوعی است. دین می‌گوید: «یادگیری عمیق واقعاً مجاز و استعاره (متافور) قدرتمندی برای یادگیری درباره جهان است.»
 
جهش فنی:
شیوه‌ای از هوش مصنوعی که می‌تواند برای استفاده در بسیاری از کاربردهای مختلف تعمیم یابد.
 
چرا مهم است:
 اگر کامپیوترها بتوانند به صورتی قابل‌اطمینان الگوها را تشخیص داده و درباره دنیای واقعی استنتاج کنند، می‌توانند با بهره‌وری بسیار بیشتری به انسان‌ها کمک کنند.
 
بازیگران عمده: 
- گوگل
- مایکروسافت
- آی‌بی‌ام
- جئوفری هینتون از دانشگاه تورنتو
 

آی هوش: گنجینه دانستنی ها و معماهای هوش و ریاضی

نظراتی که درج می شود، صرفا نظرات شخصی افراد است و لزوماً منعکس کننده دیدگاه های آی هوش نمی باشد.
آی هوش: مرجع مفاهیم هوش و ریاضی و انواع تست هوش، معمای ریاضی و معمای شطرنج
 
در زمینه‌ی انتشار نظرات مخاطبان، رعایت برخی موارد ضروری است:
 
-- لطفاً نظرات خود را با حروف فارسی تایپ کنید.
-- آی هوش مجاز به ویرایش ادبی نظرات مخاطبان است.
-- آی هوش از انتشار نظراتی که در آنها رعایت ادب نشده باشد معذور است.
-- نظرات پس از تأیید مدیر بخش مربوطه منتشر می‌شود.
 
 
 
 

نظر شما

پرطرفدارترین مطالب امروز

قواعد بخش پذیری بر اعداد  1 تا 20
طنز ریاضی: لطیفه های ریاضی!
زندگینامه ریاضیدانان: رویا بهشتی زواره
زندگینامه ریاضیدانان: جان فوربز نش
همه چیز درباره هوش مصنوعی به زبان ساده
بررسی تعلیم و تربیت از دیدگاه جان دیوئی
طنز ریاضی: اثبات 5=2+2
زندگینامه ریاضیدانان: محمد خوارزمی
روش چندحسی فرنالد