ترنس سجنوفسکی، یک عصب‌‌پژوه محاسباتی در موسسه مطالعات بیولوژیکی سالک است. او می‌گوید که کلیدواژه‌‌هایی نظیر یادگیری عمیق و شبکه‌های عصبی همه جا به چشم می‌‌خورند؛ اما درک بیشتر مردم درمورد این مفاهیم، کاملاً اشتباه است.

سجنوفسکی، پیشگام در مطالعه‌‌ی الگوریتم‌‌های یادگیری و نویسنده‌‌ی کتاب انقلاب یادگیری عمیق (که هفته‌‌ی آینده از انتشارات MIT منتشر می‌‌شود) است. او استدلال می‌کند که ما راجع به مباحثی نظیر هوش مصنوعی قاتل یا ربات‌هایی که قرار است جایگزین ما شوند، تفکری اعتیادآمیز داریم؛ این در حالی است که در سایه‌‌ی این طرز تفکر، پتانسیل‌‌های هیجان‌انگیز پیش‌‌ رو در زمینه‌های علوم کامپیوتر و اعصاب ونیز اتفاقاتی که در صورت تلاقی هوش مصنوعی با هوش انسانی رخ خواهند داد، کاملاً به حاشیه رانده شده‌‌اند.

مجله‌‌ی خبری ورج با سجنوفسکی درمورد اینکه چگونه یادگیری عمیق ناگهان فراگیر شد، درباره‌‌ی توانایی‌‌ها و محدودیت‌‌های این دانش و نیز مسائل اغراق‌‌آمیز درمورد آن مصاحبه کرده است که شرحی از آن برای شما ارائه کرده‌‌ایم.

ترنس سجنوفسکی می‌گوید که درک عموم درمورد مفاهیمی نظیر «یادگیری عمیق» و «شبکه‌های عصبی»، کاملاً اشتباه است. مشکل این است که مردم در مورد مقیاس زمانی، اشتباه می‌کنند. آن‌ها انتظار دارند که خیلی زود، تغییراتی بسیار بزرگ روی دهد. 

مردم کلماتی مانند «هوش مصنوعی»، « شبکه‌های عصبی»، «یادگیری عمیق» و «یادگیری ماشینی» را با یکدیگر اشتباه می‌‌گیرند، اما این‌‌ها مفاهیمی متفاوتی هستند. تفاوت آن‌‌ها در چیست؟

تعریف مفهوم هوش مصنوعی به سال ۱۹۵۶ در آمریکا بازمی‌گردد؛ زمانی که مهندسان تصمیم گرفتند تا یک برنامه رایانه‌ای با تقلید از هوش بشری بنویسند. در دل هوش مصنوعی، یک مفهوم جدید با نام یادگیری ماشین خلق شد. در این روش، به‌جای آن که شما یک برنامه‌ی گام‌به‌گام برای انجام یک کار بنویسید (که یک رویکرد سنتی در زمینه‌‌ی هوش مصنوعی است)، اطلاعات فراوانی در مورد آن‌‌چه که می‌خواهید بفهمید، جمع‌آوری ‌می‌کنید. برای مثال، تصور کنید که قصد دارید که اشیا را از یکدیگر تشخیص دهید، بنابراین شروع به جمع‌‌آوری تعداد زیادی از تصاویر مربوط به آن‌‌ها می‌‌کنید. سپس با یادگیری ماشین، یک فرایند خودکار آغاز می‌‌شود که ویژگی‌های مختلف اشیا را تجزیه‌‌و‌‌تحلیل می‌کند. در نهایت، سیستم تشخیص می‌‌دهد که فلان تصویر مربوط به یک خودرو است؛ درحالی‌که تصویر دیگر یک منگنه را نشان می‌‌دهد.

یادگیری ماشین یک عرصه‌‌ی بسیار وسیع است که پیدایش آن به مدت‌‌ها قبل بازمی‌گردد. در اصل، این علم با نام تشخیص الگو شناخته می‌‌شد، اما به‌‌مرور الگوریتم‌‌ها، از نظر ریاضی، بسیار وسیع‌تر و البته پیچیده‌تر شدند. در یادگیری ماشین، از دو مفهوم شبکه‌های عصبی (با الهام‌ از ساختار مغز) و یادگیری عمیق استفاده می‌‌شود. الگوریتم‌های یادگیری عمیق، دارای معماری ویژه‌ای با تعداد لایه‌‌های فراوان است که در یک شبکه جریان می‌‌یابند. بنابراین، یادگیری عمیق بخشی از یادگیری ماشین و یادگیری ماشین خود بخشی از هوش مصنوعی به حساب می‌‌آید.

یادگیری عمیق چه قابلیت‌‌هایی نسبت به سایر برنامه‌‌ها دارد؟

نوشتن یک برنامه، کاری بسیار دشوار است. در گذشته، رایانه‌ها چنان کند بودند و حافظه نیز به حدی گران‌‌قیمت بود که ناچار به علم منطق روی آورده شد؛ این همان علمی است که رایانه‌‌های فعلی بر اساس آن کار می‌‌کنند. منطق، زبان پایه‌‌ی ماشین‌‌هاست که توسط آن، اطلاعات به‌‌صورت بیت به بیت پردازش می‌‌شوند. اما رایانه‌ها همچنان بسیار کند و محاسبات بسیار پرهزینه بود.

اما اکنون هزینه‌‌ی محاسبات روز به روز کمتر می‌شود و از سوی دیگر هزینه‌‌ی نیروی کار مدام در حال افزایش است. هزینه‌‌ی محاسبات به حدی ارزان شده است که تهیه‌‌ی یک رایانه برای یادگیری یک برنامه، به صرفه‌تر از استخدام یک فرد برای نوشتن همان برنامه است. در این برهه از زمان، یادگیری عمیق شروع به حل مسائلی کرد که هیچ انسانی تا آن زمان برای آن برنامه‌‌ای ننوشته بود؛ حوزه‌‌هایی مانند بینایی رایانه‌‌‌ای و ترجمه، نمونه‌‌هایی از این پیشرفت بودند.

یادگیری فرایندی به‌‌شدت محاسباتی است، اما شما فقط نیاز دارید یک‌ بار برنامه بنویسید و سپس با دادن اطلاعات مختلف به آن، می‌توانید مسائل مختلف را حل کنید. دیگر نیازی نیست که شما حتماً در یک موضوع متخصص باشید؛ چرا که هزاران برنامه‌‌ی کاربردی درمورد هر موضوعی می‌توان یافت که در آن با حجم زیادی از اطلاعات سروکار داریم.

 به نظر می‌رسد که امروزه «یادگیری عمیق» در همه جا مطرح است؛ این مفهوم چگونه تا این حد فراگیر شد؟

من در حقیقت می‌توانم به یک لحظه‌‌ی خاص از تاریخ اشاره کنم: دسامبر ۲۰۱۲ در نشست NIPS (که بزرگ‌ترین کنفرانس هوش مصنوعی است)، متخصص رایانه‌ای به‌نام جف هینتون به همراه دو تن از دانشجویان کارشناسی ارشد خود نشان داد که با در اختیار داشتن یک مجموعه‌‌‌ی داده‌ی بسیار بزرگ به‌‌نام ایمیج‌‌نت شامل ۱۰ هزار دسته‌‌بندی و ۱۰ میلیون تصویر، می‌‌توان خطای طبقه‌بندی را با کمک یادگیری عمیق، تا ۲۰ درصد کاهش داد.

معمولاً در این مجموعه‌‌داده‌ها، میزان خطا در هر سال کمتر از یک درصد کاهش می‌یافت. حالا نتیجه‌‌ی ۲۰ سال پژوهش، تنها در عرض یک سال حاصل شده بود. این دستاورد، واقعاً به معنای باز شدن دریچه‌‌ی یک سد بود.