ضمیمه دانش امروز روزنامه اطلاعات نوشت: فاکتورهایی از قبیل میزان تحصیلات و عقاید سیاسی در اینکه افراد به یک پیام دارای اطلاعات دروغین اعتماد کنند یا نکنند نقش زیادی دارد.
یادگیری ماشین میتواند این فاکتورها را تشخیص دهد. برای مثال، این سیستم هوشمند مطابق باشخصیت، پیشینه فعالیتهای فرد و غیره تعیین میکند که برای مثال 60 درصد احتمال دارد یک فرد قربانی پیام حاوی اطلاعات جعلی شود. اگر معلوم شود اخبار دروغین و اطلاعات جعلی به کدام بخش یا قشر از جامعه بیشترین آسیب را میزند، بهتر می توان اثرات منفی آنهارا خنثی کرد.
کاربرد یادگیری ماشین راهحلهای بالقوهای را برای خنثی کردن اثر منفی آنها در اختیار دانشمندان میگذارد. آنها وقتی روی عملکرد اخبار و اطلاعات جعلی متمرکز میشوند که مخاطبین یا خوانندگان با خواندن آنها آسیب ببینند. اگر مردم احساس کنند آسیبی در کار نیست، احتمال اینکه اطلاعات دروغین را به اشتراک بگذارند بیشتر میشود. این صدمه از آنجا ناشی میشود که آیا مخاطبین مطابق با آنچه اطلاعات کاذب ادعا میکند رفتار میکنند یا اینکه در اثر خواندن اطلاعات دروغین کاری که درست و مناسب است را انجام نمیدهند.
دانشمندان با کمک یک چهارچوب مبتنی بر یادگیری ماشین و بخشی از علوم رایانه که بر محور دادهها و الگوریتمها است شیوه یادگیری انسان را تقلید کرده و به مرور دقت آن را بالا بردهاند. آنها با الگوریتمها و دادهها تعیین کردهاند تا چه حد محتوا میتواند به مخاطب آسیب بزند و توانستند بدترین متخلفین را هدف قرار دهند. بهعبارتیدیگر، نشانههای اطلاعات جعلی را پیدا کردند و از آن مثالها برای بالا بردن توانایی شناخت و ارتقاء فرایند تشخیص یادگیری ماشین استفاده کردند. علاوهبر این، بهکمک ویژگیهای کاربرهایی که تجربه یا آگاهی قبلی از اخبار جعلی دارند یک شاخص آسیب را گردآوری کردهاند.
سیستم یادگیری ماشین بر اساس اطلاعات جمعآوریشده به افرادی که مسؤول کاهش دادن تأثیر اخبار کاذب هستند کمک میکند تشخیص دهند کدام پیامها در صورت انتشار در میان مردم بیشترین صدمه را وارد میکنند. این مسئولان شامل سازمانهای دولتی، آژانسهای خبری و مدیران شبکههای اجتماعی هستند