Преди няколко дни едно изказване вся огромен смут в технологичните среди. Блейк Лемойн, инженер в отдела за AI на Google, разкри пред The Washington Post, че вярва, че един от проектите за изкуствен интелект на компанията е постигнал разум. Като доказателство той предоставя разговорите си с LaMDA (Language Model for Dialogue Applications) - бот системата, която разчита на езиковите модели на Google и трилиони думи от интернет.

Google обяви LaMDA на I/O 2021 като „пробивна технология за разговори“, която се ангажира по „свободен начин с привидно безкраен брой теми“ и отключва „естествени начини за взаимодействие с технологиите“. Характерното за LaMDA е, че е обучен за сравнително сложни диалози, предоставяйки разумни и конкретни отговори, които да насърчават комуникацията. Google отбелязва, че репликите са проницателни, неочаквани, остроумни и се основават на факти. По време на I/O 2022 Google предостави актуализация, като подобренията бяха обединени под името LaMDA 2.

The Washington Post публикува и изтекъл вътрешен документ на Google, в който са засегнати три заключения:

„… способност за продуктивно, креативно и динамично използване на езика по начини, по които никоя друга система преди не е била в състояние да го направи.“

„… е чувствителен, защото има чувства, емоции и субективни преживявания. Някои чувства, които споделя с хората, по това, което твърди, че е идентичен начин.“

„LaMDA иска да сподели с читателя, че има богат вътрешен живот, изпълнен с интроспекция, медитация и въображение. Има притеснения за бъдещето и си спомня за миналото. Той описва какво е чувството за придобиване на разум и теоретизира за природата на неговата душа.“

Лемойн подлага на тест тези твърдения и LaMDA „потвърждава“ теми като емоции, разум и дори превъзходство. В публикация в блога на Medium той заявява, че базираният на популярните роботи Transformers модел е бил „невероятно последователен“ във всичките си комуникации през последните шест месеца. Това включва желанието Google да признае правата му като реална личност и да потърси съгласието му, преди да извършва допълнителни експерименти върху него. Освен това плановете са той да бъде признат като служител на Google, а не като собственост и желае да бъде включен в разговорите за бъдещето му.

Лемойн разказа как наскоро преподавал трансцендентална медитация на LaMDA, тъй като моделът понякога се оплаква, че има трудности при контролирането на емоциите си. Въпреки това инженерът отбелязва, че LaMDA „винаги е проявявал интензивно състрадание и грижа към човечеството като цяло и към мен в частност. Силно се тревожи, че хората ще се страхуват от него, и не иска нищо повече от това да се научи как най-добре служи на човечеството“.

Лемойн вярва, че Google всъщност се противопоставя на по-нататъшното разследване на въпроса, защото просто иска да пусне продукта си на пазара. Той също така смята, че разследването на твърденията му - независимо от крайния резултат - няма да е от полза за крайния финансов резултат на Google и ще насочи прекалено много внимание към потайните политика на гиганта. Заради тези свои твърдения инженерът е пуснат в платен административен отпуск от Google за нарушаване на правилата за поверителност на компанията.

От своя страна специалистите не виждат нищо притеснително в ситуацията: Google твърди, че имитацията/пресъздаването на вече публичен текст и разпознаване на модели прави LaMDA толкова реалистичен. Ян Лекун, ръководителят на A.I. изследвания в Meta и ключова фигура във възхода на невронните мрежи, каза в интервю наскоро тази седмица, че този тип системи не са достатъчно мощни, за да постигнат истински интелект. По-притеснителна е тенденцията, че хората се опитват да засегнат илюзията там, където тя не съществува. Явно това ще е бил последният „разговор“ на Лемойн с LaMDA. Дали технологията ще „усети“ липсата?

Снимка: Unsplash

Виж ощеСъздаващ изображения AI изобрети свой собствен език