Изкуственият интелект (AI) също може да развие предразсъдъци – нещо повече, тези системи понякога са равни на хората по нечестни заключения, които правят, и решения, които взимат по грешните причини. Сега Microsoft са поредната компания, която взема мерки в това отношение – те искат да създадат софтуерен инструмент, който да засича и да уведомява хората за наличието на алгоритми с изкуствен интелект, които може би ги третират с предразсъдъци спрямо техните етнос, пол или възраст.

Все пак системата няма да промени съществуващия проблем с „предубедения“ AI, а само ще дава сигнал, когато той съществува. За да се премахне изцяло проблемът, компаниите трябва да позволят проверки от трети страни – експерти, преглеждащи алгоритмите за предразсъдъци, насадени в тях. Някои разработващи AI компании вече са наели експерти, проверяващи кода за този проблем. За по-сложните алгоритми с дълбоко обучение обаче това няма да е толкова лесно и дори няма да е опция.

Специалистите казват, че проблемът трябва да се изкорени от самото създаване на подобни системи, вместо впоследствие да се налагат филтри и сигнали за AI с предразсъдъци.