Хората, които създават следващото поколение на технологията за изкуствен интелект, са все по-загрижени за това колко реалистично е станало новото генеративно съдържание.

В интервю за Axios неназован "водещ архитект на изкуствения интелект" заяви, че при частни тестове експертите вече не могат да кажат дали генерираните от изкуствения интелект изображения са истински или фалшиви, което никой не е очаквал да бъде възможно толкова скоро.

Както продължава докладът, специалистите в областта на ИИ очакват този вид технология да бъде достъпна за всеки, който иска да я използва или закупи през 2024 г. - дори когато компаниите за социални медии отслабват своите политики за дезинформация и съкращават отделите, които работят за тяхното прилагане.

Разбира се, този вид анонимни източници трябва да се приемат с известна доза съмнение. Който и да е предоставил на Axios тази информация, може да има личен интерес от маркетинга на страховити, но примамливи технологии за генеративен ИИ или просто да е поредният поддръжник на индустрията за ИИ, който ѝ прави реклама.

Но с оглед на предстоящите почти сигурно оспорвани президентски избори в САЩ и последния конфликт между Израел и Хамас, който вече действа като бойно поле за дезинформация с ИИ, със сигурност има причина за основателна загриженост.

От известно време знаем, че генераторите на изображения с изкуствен интелект бързо стават достатъчно сложни, за да заблуждават обикновените зрители, а експертите през по-голямата част от 2023 г. бият тревога за това колко притеснителен ще стане този ефект.

Всъщност президентът Джо Байдън очевидно наистина се е стреснал от перспективата за убийствен ИИ, когато е гледал новия филм от поредицата "Мисия: Невъзможна" - серия от събития, които се случиха точно преди Белият дом да издаде обширна, но неясна заповед за регулация на ИИ.

"Ако той вече не се беше загрижил за това, което може да се обърка с ИИ преди този филм", каза миналата седмица заместник-ръководителят на администрацията на Белия дом Брус Рийд пред PBS, "той видя още много неща, за които да се притеснява".

Макар да се признава, че сме много далеч от вида на злите богоподобни алгоритми, изобразени в новата "Мисия: Невъзможна", Конгресът, както и администрацията на Байдън предлагат в краткосрочен план водни знаци върху видеоклиповете, генерирани от изкуствен интелект, да ни помогнат да различаваме фалшивото от истинското. Според експертите обаче водните знаци не работят реално и също така са много лесни за фалшифициране или нарушаване.

Снимка: Unsplash

Виж още: Кой промени социалните мрежи?