محققان دانشگاه شفیلد یک سیستم هوش مصنوعی ایجاد کرده اند که با استفاده از اطلاعات زبانی پست های خود کاربر، پیش بینی می‌کند که آیا او محتوای موجود در منابع خبری غیر قابل اعتماد را در Twitter منتشر می کند یا خیر.

به گزارش نووانا، امروزه شبکه های اجتماعی به بستر اصلی انتشار اطلاعات نادرست با پیامدهای شدید اجتماعی تبدیل شده اند. به همین دلیل تشخیص زودهنگام و جلوگیری از انتشار اطلاعات نادرست در یک شبکه از اهمیت بالایی برخوردار است، از این رو محققان دانشگاه شفیلد یک سیستم هوش مصنوعی ایجاد کرده اند که با استفاده از اطلاعات زبانی پست های خود کاربر، پیش بینی می‌کند که آیا او محتوای موجود در منابع خبری غیر قابل اعتماد را در Twitter منتشر می کند یا خیر.

این تیم دریافت که آن دسته از کاربران توییتر که مطالب خود را از منابع غیر قابل اعتماد به اشتراک می‌گذارند ، بیشتر در مورد سیاست یا مذهب توئیت می¬کنند، در حالی که کسانی که منابع معتبر را بازنشر می‌دهند ، بیشتر در مورد زندگی شخصی خود توئیت می‌کنند.
دکتر نیکوس آلتراس ، مدرس پردازش زبان طبیعی در دانشگاه شفیلد، گفت: “ما همچنین دریافتیم که ارتباط بین استفاده از زبان بی ادبانه و گسترش محتوای غیر قابل اعتماد می تواند به دلیل خصومت سیاسی آنلاین زیاد باشد.”

این تیم یافته های خود را پس از تجزیه و تحلیل بیش از 1 میلیون توییت از حدود 6200 کاربر توییتر گزارش داد.آنها ابتدا با جمع آوری پست هایی از لیستی از حساب های رسانه های خبری در توییتر ، که به عنوان قابل اعتماد و فریبنده طبقه بندی شده بود ، شروع کردند، سپس از API عمومی توییتر برای بازیابی تعداد 3200 توییت از جدیدترین توییت ها برای هر منبع استفاده کردند و هرگونه بازتوییت را فیلتر کردند تا فقط پست های اصلی باقی بماند.

در مرحله بعدی، آنها سایت های طنزی مانند The Onion را که دارای اهداف طنز آمیز اما غیر فریبنده هستند، حذف کردند تا لیستی از 251 منبع معتبر مانند BBC و Reuters و 159 منبع غیر قابل اعتماد را که شامل Infowars و Disclose.tv است، تهیه کنند.

سرانجام، محققان پس از تقسیم بندی تقریباً 6200 کاربر توئیتر در دو گروه جداگانه شامل؛ کسانی که حداقل سه بار منابع غیرمعتبر را به اشتراک گذاشته اند و کسانی که تاکنون تنها داستان های سایت های معتبر را بازنشر داده اند، از اطلاعات زبانی موجود در این توییت ها برای آموزش مجموعه ای از مدل ها به منظور پیش بینی اینکه آیا کاربر احتمالاً اطلاعات نادرست را گسترش می¬دهد ، استفاده کردند. موثرترین روش آنها از یک مدل عصبی به نام T-BERT استفاده می‌کرد.
این تیم اعلام کرده است که می تواند با دقت 7/79 ٪ پیش بینی کند که آیا کاربر منابع غیرمعتبر را در آینده بازنشر خواهد کرد یا خیر و این مسئله نشان می‌دهد که مدل های عصبی به طور خودکار می¬توانند روابط (غیر خطی) بین محتوای متنی تولید شده کاربر (به عنوان مثال استفاده از زبان) و شیوع بازتوییت مجدد کاربر از منابع خبری معتبر یا غیر قابل اعتماد را در آینده نشان دهند.

آنها همچنین برای تشخیص تفاوت در استفاده از زبان بین دو گروه، تجزیه و تحلیلی از ویژگی های زبانی انجام دادند و دریافتند کاربرانی که منابع غیرقابل اعتماد دارند بیشتر از کلماتی مانند “لیبرال” ، “دولت” و “رسانه” استفاده کرده و اغلب به اسلام یا سیاست در خاورمیانه اشاره می‌کنند. در مقابل، کاربرانی که منابع معتبری را به اشتراک می‌گذاشتند اغلب در مورد تعاملات و احساسات اجتماعی خود توییت کرده و اغلب از کلماتی مانند “خلق و خوی” ، “می خواهند” و “تولد” استفاده می‌نمایند.

محققان امیدوارند که یافته های آنها به غول های شبکه های اجتماعی در مقابله با اطلاعات نادرست کمک کند. ییدا مو، دانشجوی دکترای دانشگاه شفیلد و نویسنده همکار مقاله مرتبط با این پروژه، گفت: “مطالعه و تجزیه و تحلیل رفتار کاربران در به اشتراک گذاری مطالب از منابع خبری غیر معتبر می¬تواند به سیستم عامل های رسانه های اجتماعی کمک کند تا از انتشار اخبار جعلی در سطح کاربر جلوگیری کرده، و روش های موجود برای بررسی واقعیت در سطح منبع اخبار را تکمیل نمایند.”

مترجم: زهرا دبستانی
منبع : thenextweb.com