ChatGPT на OpenAI залива интернет с цунами от измислени факти и дезинформация и това бързо се превръща в съвсем реален проблем за журналистическата индустрия.

Репортерите на The Guardian забелязаха, че чатботът с изкуствен интелект е измислил цели статии и заглавия, които всъщност не е публикувал - тревожен страничен ефект от демократизирането на технологии, които не могат надеждно да разграничат истината от измислицата.

Още по-лошо е, че ако се позволи на тези чатботове да "халюцинират" - което вече е спорен евфемизъм - източници, това може да послужи за подкопаване на легитимните източници на новини.

"За склонността на генеративния изкуствен интелект да произвежда факти и събития е изписано огромно количество информация", пише Крис Моран, ръководител на отдела за редакционни иновации на The Guardian. "Но тази конкретна ниша - измислянето на източници - е особено тревожна за доверените новинарски организации и журналисти, чието включване добавя легитимност и тежест на убедително написаната фантазия."

"А за читателите и по-широката информационна екосистема това отваря съвсем нови въпроси за това дали изобщо може да се вярва на цитатите", добави той, "и може да подхрани конспиративни теории за мистериозното премахване на статии по чувствителни въпроси, които никога не са съществували".

Не само журналистите от The Guardian имат проблем с бота. Много други автори са открили, че имената им са били прикрепени към източници, които ChatGPT е извадил буквално от въздуха.

С Кейт Крауфорд, изследовател на изкуствения интелект и автор на "Атлас на изкуствения интелект", се е свързал журналист от Insider, на когото ChatGPT е казал, че Крауфорд е един от най-големите критици на подкастовата компания Lex Fridman. Инструментът за изкуствен интелект предложил редица връзки и цитати, свързващи Крауфорд с Fridman - които според авторката били изцяло измислени.

Това дори надхвърля обикновените фалшиви цитати. Миналия месец журналисти от USA Today бяха шокирани да открият, че ChatGPT е предложил цитати на цели научни изследвания за това как достъпът до оръжия не повишава риска от детска смъртност.

Докато журналистите започват да бият тревога за рязкото увеличаване на измислените доклади, други издания виждат в AI голяма възможност. Въпреки че Моран заяви, че The Guardian не е готов скоро да използва генеративен AI в редакцията, други издания вече са се втурнали напред и са публикували цели статии, генерирани чрез технологията, включително CNET и BuzzFeed - за много от тях по-късно е установено, че съдържат фактологични неточности и плагиатствани пасажи.

Накратко, с инструменти като ChatGPT, които са в ръцете на практически всеки с интернет връзка, вероятно ще станем свидетели на това как имената на много повече журналисти ще бъдат прикрепени към напълно измислени източници - обезпокоителен страничен ефект на технологиите, които имат тревожната склонност да фалшифицират източниците.

Проблемът се задълбочава, тъй като новинарските редакции в цялата страна съкращават служители, докато инвестират в изкуствен интелект. Най-лошото от всичко е, че няма ясен отговор на въпроса кой е виновен за това. Дали OpenAI за това, че позволява на своя инструмент да съчинява неограничено цитати? Или пък техните потребители, които използват тази информация, за да изкажат мнението си?

Това е тежко положение, от което няма лесен изход.

Снимка: Unsplash

Виж още: Захранвана от ChatGPT играчка разкри плановете си за пълно господство над човечеството