Бързият напредък в областта на изкуствения интелект (ИИ) подтикна някои водещи гласове в тази област да призоват за спиране на изследванията, да повдигнат въпроса за предизвикана от технологията възможност за изчезване на човечеството и дори да поискат правителствено регулиране. В основата на тяхната загриженост е идеята, че ИИ може да стане толкова могъщ, че да загубим контрол над него. 
Но дали не сме пропуснали по-основен проблем? 
В крайна сметка системите с изкуствен интелект трябва да помагат на хората да вземат по-добри и по-точни решения. И все пак дори най-впечатляващите и гъвкави съвременни инструменти за изкуствен интелект - като големите езикови модели, които стоят зад ChatGPT - могат да имат обратен ефект. 
Техните основни слабости са, че не помагат на вземащите решения да разберат причинно-следствената връзка или несигурността, което довежда до създават стимули за събиране на огромни количества данни, насърчаващи небрежно отношение към неприкосновеността на личния живот, правните и етичните въпроси и рискове. 
ChatGPT и други "модели на основата" използват подход, наречен дълбоко обучение, за да претърсват огромни масиви от данни и да идентифицират асоциации между фактори, съдържащи се в тези данни, като например езикови модели или връзки между изображения и описания. Следователно те са отлични в интерполацията - т.е. в прогнозирането или запълването на празнините между известните стойности. 
Интерполирането не е същото като създаването. То не генерира знания, нито пък прозренията, необходими на вземащите решения в сложна среда. 
Тези подходи обаче изискват огромни количества данни. В резултат на това те насърчават организациите да събират огромни хранилища от данни - или да претърсват съществуващи набори от данни, събрани за други цели. Работата с "големи данни" носи значителни рискове, свързани със сигурността, неприкосновеността на личния живот, законността и етиката. 
В ситуации с нисък риск прогнозите, основани на "това, което данните предполагат, че ще се случи", могат да бъдат изключително полезни. Но когато залогът е по-висок, има още два въпроса, на които трябва да отговорим. 
Първият е за това как функционира светът: "Какво определя този резултат?". Вторият е за нашите познания за света: "Доколко сме сигурни в това?".
Може би е изненадващо, че системите с изкуствен интелект, предназначени за извеждане на причинно-следствени връзки, не се нуждаят от "големи данни". Вместо това те се нуждаят от полезна информация. Полезността на информацията зависи от разглеждания въпрос, от решенията, пред които сме изправени, и от стойността, която придаваме на последиците от тези решения. 
Ако перифразираме американския статистик и писател Нейт Силвър, количеството истина е приблизително постоянно, независимо от обема на данните, които събираме. 
Тогава какво е решението? Процесът започва с разработването на техники за изкуствен интелект, които ни казват какво наистина не знаем, вместо да създават варианти на съществуващото знание. Това ни помага да идентифицираме и придобием минималното количество ценна информация в последователност, която ще ни позволи да разграничим причините и последствията. 


Такива системи с изкуствен интелект, които изграждат знания, вече съществуват. Като прост пример може да се разгледа робот, изпратен на Луната, за да отговори на въпроса: "Как изглежда повърхността на Луната?". Дизайнерите на робота могат да му дадат предварително "убеждение" за това, което ще намери, както и указание за това колко "увереност" трябва да има в това убеждение. Степента на увереност е също толкова важна, колкото и убеждението, тъй като тя е мярка за това, което роботът не знае. 
Тъй като целта на робота е да научи възможно най-бързо за повърхността на Луната, той трябва да тръгне в посоката, която максимално увеличава наученото от него. Това може да се измери по това кое ново знание ще намали несигурността на робота относно пейзажа - или колко ще увеличи увереността на робота в неговите знания. 
Да приемем, че роботът отива на новото си място, записва наблюденията си с помощта на сензорите си и актуализира убеждението си и свързаната с него увереност. По този начин той научава за повърхността на Луната по възможно най-ефективния начин. 
Подобни роботизирани системи - известни като "активен SLAM" (Active Simultaneous Localisation and Mapping) - са предложени за първи път преди повече от 20 години и все още са активна област на изследване. Този подход на постоянно събиране на знания и актуализиране на разбирането се основава на статистическа техника, наречена Байесова оптимизация. 
Лицето, което взема решения в правителството или в промишлеността, е изправено пред по-голяма сложност, отколкото роботът на Луната, но мисълта е същата. Работата им включва проучване и картографиране на непознати социални или икономически пейзажи. 
Да предположим, че искаме да разработим политики, които да насърчат всички деца да се развиват добре в училище и да завършат гимназия. Нуждаем се от концептуална карта на това кои действия, по кое време и при какви условия ще помогнат за постигането на тези цели. 
Използвайки принципите на робота, формулираме първоначален въпрос: "Кои действия ще помогнат най-много на децата?".
След това изграждаме проект на концептуална карта, като използваме съществуващите знания. Нуждаем се и от мярка за нашата увереност в тези знания. 
На базата на проекта разработваме модел, който включва различни източници на информация. Те няма да са от роботизирани сензори, а от общности, житейски опит и всякаква полезна информация от записани данни. Въз основа пък на анализа, информиращ общността, и предпочитанията на заинтересованите страни, вземаме решение: "Кои действия трябва да бъдат изпълнени и при какви условия?". Накрая обсъждаме, учим се, актуализираме убежденията и повтаряме процеса. 
Това е подходът "учене в движение". С постъпването на нова информация се избират нови действия, за да се постигне максимална ефективност по някои предварително зададени критерии. 
AI може да бъде полезен в определянето на това коя информация е най-ценна чрез алгоритми, които определят количествено това, което не знаем. Автоматизираните системи могат също така да събират и съхраняват тази информация със скорост и на места, където това може да е трудно за хората. 
Подобни системи за изкуствен интелект прилагат т.нар. теоретична рамка за вземане на решения по метода на Бейс. Техните модели са обясними и прозрачни, изградени на базата на ясни предположения. Те са математически строги и могат да предлагат гаранции. 
Предназначени са да оценяват причинно-следствените връзки, за да помогнат да се направи най-добрата намеса в най-подходящия момент. И включват човешките ценности, като се разработват и прилагат съвместно с общностите, които са засегнати. 
Ето защо се смята, че трябва да реформираме законите си и да създадем нови правила, които да ръководят използването на потенциално опасни системи с изкуствен интелект. Но също толкова важно е на първо място да изберем правилния инструмент за тази работа. 

Снимки: Unsplash

Виж още: Изкуствен интелект и дезинформация ще превърнат следващите избори в САЩ в кошмар