Троловете в секцията за коментари на всеки новинарски сайт са способни да извират като от бездънна яма. На платформи като Тwitter и Reddit, нещата могат да станат истински токсични, с обиди, заплахи и психически тормоз от страна на конкретни потребители. С цел „преработване“ на средата, IBM са създали нов алгоритъм с изкуствен интелект, който филтрира езика на омразата от съобщенията, насочени към потребителите, и дава учтиви алтернативи, като запазва добрия тон.
Създателите на алгоритъма са наясно, че той би могъл да бъде ползван за филтриране на погрешните неща онлайн, ако попадне в грешните ръце. Затова са се насочили към функционалност на ИИ, която просто предлага алтернативи на пишещия с езика на омраза човек, като му задава въпроса наистина ли иска да каже това и му дава внимателни опции за друг начин на изказ. Алгоритъмът е обучаван с база данни от милиони туита и постове в Reddit. Към момента, той е доста ефективен в предлагането и преработването на изречения, които нанасят емоционална вреда, в по-учтив вариант, но със същото значение.
Инструментът още не е приложен никъде онлайн, тъй като все още се разработват различните му функционалности. Учените се опитват и да надскочат ограниченията му – към момента, той разпознава езика на омразата само ако съдържа специфични гневни или обидни думи и обръщения. Това още позволява на много тролове да „минават между капките“ и пак да нанасят вреда.