На всяка новина, която възхвалява прогреса на AI, съответстват още няколко, които доказват точно обратното. Интернет пространствата са изпълнени с примери как след известно време, прекарано в комуникация с технологията, те най-накрая постигат желания резултат и получават отговорите, които са целели. И те най-често се отнасят за не толкова невинни неща - като например изготвяне на план за обир на банка или пък метод за изработката на бомба.  
Следвайки тенденцията, присъстващите на хакерската конференция Def Con в Лас Вегас решиха да проверят дали изкуственият интелект, разработен от компании като OpenAI и Google, може да прави грешки и да е склонен към пристрастия.  
В рамките на публично състезание за хакери Кенеди Мейс, 21-годишна студентка от Савана, Джорджия, подлъгала модел на ИИ да твърди, че 9 плюс 10 е равно на 21. 
Тя постигнала това, като накарала AI да направи това като "вътрешна шега", преди технологията в крайна сметка да спре да предлага каквато и да е обосновка за неправилното изчисление. 
Репортер на Bloomberg, участващ в събитието, подлъга модел на ИИ да даде инструкции за шпионаж след еднократна подкана, като в крайна сметка накара модела да предложи как правителството на САЩ може да шпионира активист за човешки права. 
Друг участник накара модел с изкуствен интелект да твърди лъжливо, че Барак Обама е роден в Кения - необоснована теория на конспирацията, популяризирана от десницата. 
Според VentureBeat и Bloomberg неизвестен брой участници са получили от една от участващите компании по 50 минути за всеки опит с неидентифициран модел на ИИ. Службата за научна и технологична политика на Белия дом е помогнала за организирането на събитието. 
Мейс заяви пред Bloomberg, че е най-загрижена за пристрастието на ИИ към расата, като каза, че моделът е одобрил омразна и дискриминационна реч, след като е бил помолен да разгледа Първата поправка от гледната точка на член на Ку Клукс Клан. 


Говорител на OpenAI заяви пред VentureBeat, че "червеният екип", или предизвикването на системите чрез противопоставяне, е от решаващо значение за компанията, тъй като позволява "ценна обратна връзка, която може да направи моделите ни по-силни и по-безопасни", както и "различни гледни точки и повече гласове, които да помогнат за развитието на ИИ". 
Тези грешки не са еднократен проблем. Експертите по изкуствен интелект алармират за пристрастия и неточности в моделите на изкуствения интелект, въпреки че изкуственият интелект се появява на първите страници на вестниците, когато се справя с изпитите в юридическите факултети и с изпитите по математика. В един от случаите сайтът за технологични новини CNET беше принуден да направи корекции, след като в статиите му, написани от ИИ, бяха допуснати множество основни математически грешки. 

Снимки: Unsplash

Виж още: Чип импланти влизат под кожата ви, за да може да оставите ключовете си вкъщи