Наскоро нашите любимци от MIT направиха едно от най-смелите твърдения, свързани с изкуствения интелект, които сме виждали досега: те вярват, че са изградили AI, който може да идентифицира расата на човек, използвайки само медицински изображения. По-конкретно в изследването се заявява: “В нашето проучване показваме, че стандартните модели за дълбоко обучение на AI могат да бъдат обучени да предсказват раса от медицински изображения с висока производителност в множество модалности на изображения“.
Тук идва и тънката разлика: споменава се предсказване - т.е. прогноза. Футболните фенове много добре знаят, че прогнозата може да бъде вярна и невярна. Но си остава просто прогноза. От друга страна погрешната идентификация си е голям проблем. Моделите на AI могат да бъдат фино настроени, за да предскажат всичко, дори концепции, които не са реални. Колкото и да е точна при предсказването една AI система, ако не може да демонстрира как е стигнала до прогнозата си, тези прогнози са безполезни за целите на идентификацията - особено когато се отнася до въпроси, свързани с отделни хора.
Моделът MIT постига по-малко от 99% точност при зададените данни. Това означава, че гледайки изображения без пояснения, ние никога не можем да бъдем сигурни дали AI е направил правилната оценка, освен ако човек не прегледа резултатите от него. Дори при 99% точност AI на Масачузетския технологичен институт все още би обозначил погрешно 79 милиона човешки същества, ако му бъде дадена база данни с изображение за всеки жив човек. И още по-лошо, нямаше да имаме абсолютно никакъв начин да разберем кои 79 милиона души е маркирал неправилно.
Екипът на MIT заключи в своя документ, че техният модел може да бъде опасен в грешните ръце:
“Резултатите от нашето проучване подчертават, че способността на моделите за дълбоко учене на AI да предсказват състезание за самоотчитане сама по себе си не е важен въпрос”.
“Въпреки това нашето откритие, че AI може точно да предскаже самоотчетена раса, дори от повредени, изрязани и неясни медицински изображения, често когато клиничните експерти не могат, създава огромен риск за всички модели на внедряване в медицински изображения.”
Моделът, изграден от екипа на MIT, може да постигне точност на бенчмарк в големи бази данни, но в крайна сметка това е прогноза, защото колкото повече изображения обработва AI, толкова повече грешки е сигурно, че ще направи. И всъщност точно тук се крие опасността, ако тази технология попадне в неподходящи ръце. А какво остава за нас? Както обикновено - добрата стара двойна проверка никога няма да бъде излишна.
Снимки: Unsplash
Виж още: Русия харчи милиони за VPN достъп, с който да заобикаля ограниченията