ترنس سجنوفسکی، یک عصبپژوه محاسباتی در موسسه مطالعات بیولوژیکی سالک است. او میگوید که کلیدواژههایی نظیر یادگیری عمیق و شبکههای عصبی همه جا به چشم میخورند؛ اما درک بیشتر مردم درمورد این مفاهیم، کاملاً اشتباه است.
سجنوفسکی، پیشگام در مطالعهی الگوریتمهای یادگیری و نویسندهی کتاب انقلاب یادگیری عمیق (که هفتهی آینده از انتشارات MIT منتشر میشود) است. او استدلال میکند که ما راجع به مباحثی نظیر هوش مصنوعی قاتل یا رباتهایی که قرار است جایگزین ما شوند، تفکری اعتیادآمیز داریم؛ این در حالی است که در سایهی این طرز تفکر، پتانسیلهای هیجانانگیز پیش رو در زمینههای علوم کامپیوتر و اعصاب ونیز اتفاقاتی که در صورت تلاقی هوش مصنوعی با هوش انسانی رخ خواهند داد، کاملاً به حاشیه رانده شدهاند.
مجلهی خبری ورج با سجنوفسکی درمورد اینکه چگونه یادگیری عمیق ناگهان فراگیر شد، دربارهی تواناییها و محدودیتهای این دانش و نیز مسائل اغراقآمیز درمورد آن مصاحبه کرده است که شرحی از آن برای شما ارائه کردهایم.
ترنس سجنوفسکی میگوید که درک عموم درمورد مفاهیمی نظیر «یادگیری عمیق» و «شبکههای عصبی»، کاملاً اشتباه است. مشکل این است که مردم در مورد مقیاس زمانی، اشتباه میکنند. آنها انتظار دارند که خیلی زود، تغییراتی بسیار بزرگ روی دهد.
مردم کلماتی مانند «هوش مصنوعی»، « شبکههای عصبی»، «یادگیری عمیق» و «یادگیری ماشینی» را با یکدیگر اشتباه میگیرند، اما اینها مفاهیمی متفاوتی هستند. تفاوت آنها در چیست؟
تعریف مفهوم هوش مصنوعی به سال ۱۹۵۶ در آمریکا بازمیگردد؛ زمانی که مهندسان تصمیم گرفتند تا یک برنامه رایانهای با تقلید از هوش بشری بنویسند. در دل هوش مصنوعی، یک مفهوم جدید با نام یادگیری ماشین خلق شد. در این روش، بهجای آن که شما یک برنامهی گامبهگام برای انجام یک کار بنویسید (که یک رویکرد سنتی در زمینهی هوش مصنوعی است)، اطلاعات فراوانی در مورد آنچه که میخواهید بفهمید، جمعآوری میکنید. برای مثال، تصور کنید که قصد دارید که اشیا را از یکدیگر تشخیص دهید، بنابراین شروع به جمعآوری تعداد زیادی از تصاویر مربوط به آنها میکنید. سپس با یادگیری ماشین، یک فرایند خودکار آغاز میشود که ویژگیهای مختلف اشیا را تجزیهوتحلیل میکند. در نهایت، سیستم تشخیص میدهد که فلان تصویر مربوط به یک خودرو است؛ درحالیکه تصویر دیگر یک منگنه را نشان میدهد.
یادگیری ماشین یک عرصهی بسیار وسیع است که پیدایش آن به مدتها قبل بازمیگردد. در اصل، این علم با نام تشخیص الگو شناخته میشد، اما بهمرور الگوریتمها، از نظر ریاضی، بسیار وسیعتر و البته پیچیدهتر شدند. در یادگیری ماشین، از دو مفهوم شبکههای عصبی (با الهام از ساختار مغز) و یادگیری عمیق استفاده میشود. الگوریتمهای یادگیری عمیق، دارای معماری ویژهای با تعداد لایههای فراوان است که در یک شبکه جریان مییابند. بنابراین، یادگیری عمیق بخشی از یادگیری ماشین و یادگیری ماشین خود بخشی از هوش مصنوعی به حساب میآید.
یادگیری عمیق چه قابلیتهایی نسبت به سایر برنامهها دارد؟
نوشتن یک برنامه، کاری بسیار دشوار است. در گذشته، رایانهها چنان کند بودند و حافظه نیز به حدی گرانقیمت بود که ناچار به علم منطق روی آورده شد؛ این همان علمی است که رایانههای فعلی بر اساس آن کار میکنند. منطق، زبان پایهی ماشینهاست که توسط آن، اطلاعات بهصورت بیت به بیت پردازش میشوند. اما رایانهها همچنان بسیار کند و محاسبات بسیار پرهزینه بود.
اما اکنون هزینهی محاسبات روز به روز کمتر میشود و از سوی دیگر هزینهی نیروی کار مدام در حال افزایش است. هزینهی محاسبات به حدی ارزان شده است که تهیهی یک رایانه برای یادگیری یک برنامه، به صرفهتر از استخدام یک فرد برای نوشتن همان برنامه است. در این برهه از زمان، یادگیری عمیق شروع به حل مسائلی کرد که هیچ انسانی تا آن زمان برای آن برنامهای ننوشته بود؛ حوزههایی مانند بینایی رایانهای و ترجمه، نمونههایی از این پیشرفت بودند.
یادگیری فرایندی بهشدت محاسباتی است، اما شما فقط نیاز دارید یک بار برنامه بنویسید و سپس با دادن اطلاعات مختلف به آن، میتوانید مسائل مختلف را حل کنید. دیگر نیازی نیست که شما حتماً در یک موضوع متخصص باشید؛ چرا که هزاران برنامهی کاربردی درمورد هر موضوعی میتوان یافت که در آن با حجم زیادی از اطلاعات سروکار داریم.
به نظر میرسد که امروزه «یادگیری عمیق» در همه جا مطرح است؛ این مفهوم چگونه تا این حد فراگیر شد؟
من در حقیقت میتوانم به یک لحظهی خاص از تاریخ اشاره کنم: دسامبر ۲۰۱۲ در نشست NIPS (که بزرگترین کنفرانس هوش مصنوعی است)، متخصص رایانهای بهنام جف هینتون به همراه دو تن از دانشجویان کارشناسی ارشد خود نشان داد که با در اختیار داشتن یک مجموعهی دادهی بسیار بزرگ بهنام ایمیجنت شامل ۱۰ هزار دستهبندی و ۱۰ میلیون تصویر، میتوان خطای طبقهبندی را با کمک یادگیری عمیق، تا ۲۰ درصد کاهش داد.
معمولاً در این مجموعهدادهها، میزان خطا در هر سال کمتر از یک درصد کاهش مییافت. حالا نتیجهی ۲۰ سال پژوهش، تنها در عرض یک سال حاصل شده بود. این دستاورد، واقعاً به معنای باز شدن دریچهی یک سد بود.