По-рано тази година вече бившият инженер на Google Блейк Лемоан, каза на репортер във Washington Post, че AI на Google за моделиране на езика – чатбот, наречен LaMDA – е разумен. Технологичният гигант опроверга твърденията, като в крайна сметка уволни Лемоан, но не и преди показанията на инженера да изпратят въпроса за чувствителността на AI и етиката на програмите за езиково моделиране в публичния дискурс.

„Познавам човек, когато говоря с него“, каза инженерът пред Washington Post, който разкри историята през юни. „Няма значение дали имат мозък в главата си или имат милиард реда код. Аз говоря с тях. И чувам какво имат да кажат, и така решавам какво е и не е човек.“

Но ето нещо различно: изкуственият интелект все още не е (и вероятно никога няма да бъде) съзнателен. Това е въпреки факта, че много хора – особено онези, които създават „интелигентни“ машини - просто искат това да бъде така. Защо?

Както Кейд Мец написа за The New York Times, мнозина в AI индустрията имат вярвания, подобни на тези на Лемоан. Един виден изобретател на име Филип Босуа, каза пред Times, че вярва, че GPT-3 на OpenAI (друга система за езиково моделиране като LaMDA на Google) също е разумна. Друг каза, че въпреки че смята, че интелигентността на GPT-3 е донякъде „извънземна“, тя „все още има значение“. Има ясна и голяма пропаст между тези, които смятат, че машината е жива, и простата компютърна наука, подкрепяща онези, които твърдят обратното. Причините за това може да не са очевидни, но мост между двете, показващ как човек би прекрачил прага от невярващ към вярващ, всъщност съществува от десетилетия.

Още през 60-те години на миналия век изследовател от Масачузетския технологичен институт на име Джоузеф Вайзенбаум разработи автоматизиран психиатър, наречен Елиза. В сравнение с днешните технологии Елиза, която е прототип на ранен чатбот, беше изключително простичка – тя просто повтаряше думите, които ѝ бяха дадени, или молеше „пациентите“ да разширят собствените си изказвания.

Въпреки че машината очевидно не беше разумна, Вайзенбаум откри, че тези, които я използват, я възприемат така, сякаш е. Те бяха готови да споделят дълбоки тайни с нея. Утешават се от предполагаемата мъдрост, която предлагаше, и се отнасят към машината така, сякаш наистина беше човек – въпреки факта, че всичко, което Елиза наистина правеше, беше чрез код, създаден от човека да отразява човешки мисли обратно към човека от другата страна на екрана.

„От дълъг опит знаех, че силните емоционални връзки, които много програмисти имат към компютрите си, често се формират само след кратък опит с машини“, пише Вайзенбаум за случая. „Това, което не бях осъзнал, е, че изключително кратките експозиции на сравнително проста компютърна програма могат да предизвикат мощно налудничаво мислене у съвсем нормални хора.“

В края на краищата да се греши е човешко и в този случай болезнено. В безкрайното си търсене да осмислят света хората непрекъснато антропоморфизират нечовешки неща; правят го през цялото време. Начинът, по който именуваме колите. Начинът, по който именуваме WiFi мрежите. Начинът, по който разказваме истории, пълни с животни и предмети, които мислят и действат като хора – от The Brave Little Toaster до Her. За тази цел и още по-очевидно имаме и дигитални асистенти като Siri и Alexa. Когато нашата твърде човешка склонност към антропоморфизиране се приложи към технологиите, това е ефектът на Елиза: тенденцията да се взираме много и твърде далеч в изкуствения интелект. И след това тълкуваме тези способности като чудодейни човешки проявления, когато наистина, това е уравнение – и нищо повече.

Както посочва Мец, амбициозният език, присвоен на AI технологиите, не помага точно срещу ефекта на Елиза. Например наричането на машина „интелигентна“ настоява, че тя е такава, макар и изкуствено. И въпреки че интелигентността – способността за придобиване и прилагане на знания – не е синоним на съзнание, двете често се припокриват за някои.

Снимка: Unsplash

Виж още: Злокобен AI създаде собствена наука, която хората не могат да разберат

 

Още от HiEnd