Бързият напредък в областта на изкуствения интелект (ИИ) подтикна някои водещи гласове в тази област да призоват за спиране на изследванията, да повдигнат въпроса за предизвикана от технологията възможност за изчезване на човечеството и дори да поискат правителствено регулиране. В основата на тяхната загриженост е идеята, че ИИ може да стане толкова могъщ, че да загубим контрол над него.
Но дали не сме пропуснали по-основен проблем?
В крайна сметка системите с изкуствен интелект трябва да помагат на хората да вземат по-добри и по-точни решения. И все пак дори най-впечатляващите и гъвкави съвременни инструменти за изкуствен интелект - като големите езикови модели, които стоят зад ChatGPT - могат да имат обратен ефект.
Техните основни слабости са, че не помагат на вземащите решения да разберат причинно-следствената връзка или несигурността, което довежда до създават стимули за събиране на огромни количества данни, насърчаващи небрежно отношение към неприкосновеността на личния живот, правните и етичните въпроси и рискове.
ChatGPT и други "модели на основата" използват подход, наречен дълбоко обучение, за да претърсват огромни масиви от данни и да идентифицират асоциации между фактори, съдържащи се в тези данни, като например езикови модели или връзки между изображения и описания. Следователно те са отлични в интерполацията - т.е. в прогнозирането или запълването на празнините между известните стойности.
Интерполирането не е същото като създаването. То не генерира знания, нито пък прозренията, необходими на вземащите решения в сложна среда.
Тези подходи обаче изискват огромни количества данни. В резултат на това те насърчават организациите да събират огромни хранилища от данни - или да претърсват съществуващи набори от данни, събрани за други цели. Работата с "големи данни" носи значителни рискове, свързани със сигурността, неприкосновеността на личния живот, законността и етиката.
В ситуации с нисък риск прогнозите, основани на "това, което данните предполагат, че ще се случи", могат да бъдат изключително полезни. Но когато залогът е по-висок, има още два въпроса, на които трябва да отговорим.
Първият е за това как функционира светът: "Какво определя този резултат?". Вторият е за нашите познания за света: "Доколко сме сигурни в това?".
Може би е изненадващо, че системите с изкуствен интелект, предназначени за извеждане на причинно-следствени връзки, не се нуждаят от "големи данни". Вместо това те се нуждаят от полезна информация. Полезността на информацията зависи от разглеждания въпрос, от решенията, пред които сме изправени, и от стойността, която придаваме на последиците от тези решения.
Ако перифразираме американския статистик и писател Нейт Силвър, количеството истина е приблизително постоянно, независимо от обема на данните, които събираме.
Тогава какво е решението? Процесът започва с разработването на техники за изкуствен интелект, които ни казват какво наистина не знаем, вместо да създават варианти на съществуващото знание. Това ни помага да идентифицираме и придобием минималното количество ценна информация в последователност, която ще ни позволи да разграничим причините и последствията.
Такива системи с изкуствен интелект, които изграждат знания, вече съществуват. Като прост пример може да се разгледа робот, изпратен на Луната, за да отговори на въпроса: "Как изглежда повърхността на Луната?". Дизайнерите на робота могат да му дадат предварително "убеждение" за това, което ще намери, както и указание за това колко "увереност" трябва да има в това убеждение. Степента на увереност е също толкова важна, колкото и убеждението, тъй като тя е мярка за това, което роботът не знае.
Тъй като целта на робота е да научи възможно най-бързо за повърхността на Луната, той трябва да тръгне в посоката, която максимално увеличава наученото от него. Това може да се измери по това кое ново знание ще намали несигурността на робота относно пейзажа - или колко ще увеличи увереността на робота в неговите знания.
Да приемем, че роботът отива на новото си място, записва наблюденията си с помощта на сензорите си и актуализира убеждението си и свързаната с него увереност. По този начин той научава за повърхността на Луната по възможно най-ефективния начин.
Подобни роботизирани системи - известни като "активен SLAM" (Active Simultaneous Localisation and Mapping) - са предложени за първи път преди повече от 20 години и все още са активна област на изследване. Този подход на постоянно събиране на знания и актуализиране на разбирането се основава на статистическа техника, наречена Байесова оптимизация.
Лицето, което взема решения в правителството или в промишлеността, е изправено пред по-голяма сложност, отколкото роботът на Луната, но мисълта е същата. Работата им включва проучване и картографиране на непознати социални или икономически пейзажи.
Да предположим, че искаме да разработим политики, които да насърчат всички деца да се развиват добре в училище и да завършат гимназия. Нуждаем се от концептуална карта на това кои действия, по кое време и при какви условия ще помогнат за постигането на тези цели.
Използвайки принципите на робота, формулираме първоначален въпрос: "Кои действия ще помогнат най-много на децата?".
След това изграждаме проект на концептуална карта, като използваме съществуващите знания. Нуждаем се и от мярка за нашата увереност в тези знания.
На базата на проекта разработваме модел, който включва различни източници на информация. Те няма да са от роботизирани сензори, а от общности, житейски опит и всякаква полезна информация от записани данни. Въз основа пък на анализа, информиращ общността, и предпочитанията на заинтересованите страни, вземаме решение: "Кои действия трябва да бъдат изпълнени и при какви условия?". Накрая обсъждаме, учим се, актуализираме убежденията и повтаряме процеса.
Това е подходът "учене в движение". С постъпването на нова информация се избират нови действия, за да се постигне максимална ефективност по някои предварително зададени критерии.
AI може да бъде полезен в определянето на това коя информация е най-ценна чрез алгоритми, които определят количествено това, което не знаем. Автоматизираните системи могат също така да събират и съхраняват тази информация със скорост и на места, където това може да е трудно за хората.
Подобни системи за изкуствен интелект прилагат т.нар. теоретична рамка за вземане на решения по метода на Бейс. Техните модели са обясними и прозрачни, изградени на базата на ясни предположения. Те са математически строги и могат да предлагат гаранции.
Предназначени са да оценяват причинно-следствените връзки, за да помогнат да се направи най-добрата намеса в най-подходящия момент. И включват човешките ценности, като се разработват и прилагат съвместно с общностите, които са засегнати.
Ето защо се смята, че трябва да реформираме законите си и да създадем нови правила, които да ръководят използването на потенциално опасни системи с изкуствен интелект. Но също толкова важно е на първо място да изберем правилния инструмент за тази работа.
Снимки: Unsplash
Виж още: Изкуствен интелект и дезинформация ще превърнат следващите избори в САЩ в кошмар