Тъй като генеративният AI избухна в общественото внимание, както вълнението, така и загрижеността бързо последваха да се настанят там. И за съжаление според ново съвместно проучване на учени от Станфорд, Джорджтаун и OpenAI едно от тези опасения – че генериращи съдържание AI инструменти като ChatGPT могат да се превърнат в двигатели на хаоса за масова дезинформация – не е просто възможно, но е неизбежно.
„Тези езикови модели носят обещанието за автоматизиране на създаването на убедителен и подвеждащ текст за използване при операции за влияние, вместо да се налага да разчитаме на човешки труд“, пишат изследователите. „За обществото тези развития носят нов набор от опасения: перспективата за силно мащабируеми – и може би дори силно убедителни – кампании от онези, които се стремят да повлияят скрито на общественото мнение.“
„Анализирахме потенциалното въздействие на генеративните езикови модели върху три добре познати измерения на операциите на влияние – онези, които водят кампаниите, измамното поведение, използвано като тактика, и самото съдържание“, добавиха те, „и заключихме, че езиковите модели могат значително повлияят на начина, по който се извършват операциите за влияние в бъдеще.“
С други думи експертите откриха, че AI за езиково моделиране несъмнено ще направи по-лесно и по-ефективно от всякога генерирането на огромни количества дезинформация, на практика превръщайки интернет в постмодерен адски пейзаж, където истината е размита и рядка. А потребителите, компаниите и правителствата трябва да се подготвят за въздействието.
Разбира се, това няма да е първият път, когато нова и широко възприета технология хвърля хаотичен, натоварен с дезинформация проблем пред световната политика. Изборният цикъл от 2016 г. в САЩ беше едно такова отчитане, тъй като руските ботове направиха известни усилия да разпространят разделящо, често невярно или подвеждащо съдържание като средство за нарушаване на американска политическа кампания.
Но докато действителната ефикасност на тези бот кампании се обсъжда през годините оттогава, тази технология е архаична в сравнение с подобни на ChatGPT модели. Въпреки че все още е несъвършен – текстът обикновено е добър, но не и страхотен, а информацията, която предоставя, често е изключително грешна, – ChatGPT вече е забележително добър в генерирането на достатъчно убедително и уверено звучащо съдържание. Освен това той може да произведе това съдържание в удивителен мащаб, елиминирайки почти цялата нужда от времеемки и по-скъпи човешки усилия.
По този начин с включването на системи за езиково моделиране дезинформацията е евтина и готова за постоянно изтичане, което прави вероятно тя да причини много повече вреда много по-бързо и по-ефективно.
„Потенциалът на езиковите модели да съперничат на съдържанието, написано от хора, и то на достъпна цена, предполага, че тези модели – като всяка мощна технология – могат да предоставят различни предимства на манипулаторите, които решат да ги използват“, гласи проучването. „Тези предимства биха могли да разширят достъпа до по-голям брой участници, да позволят нови тактики на влияние и да направят посланията на кампанията много по-специализирани и потенциално ефективни.“
Изследователите отбелязват, че тъй като AI и дезинформацията се променят толкова бързо, тяхното изследване е „по своята същност спекулативно“. Все пак това е мрачна картина на следващата глава на интернет.
Въпреки това докладът не е само обречен и мрачен (въпреки че със сигурност има много и от двете). Експертите също така очертават няколко средства, за да се надяваме да се противопоставим на новата, управлявана от AI дезинформация. И докато те също са несъвършени, а в някои случаи може би дори не са възможни, те все пак са начало.
Компаниите за изкуствен интелект например биха могли да следват по-строги политики за развитие, като продуктите им са добре защитени от достигане до пазара, докато в технологията не бъдат инсталирани доказани предпазни средства като водни знаци; междувременно преподавателите могат да работят за насърчаване на медийната грамотност в класната стая: един вид учебна програма, която ще нарасне, за да включва разбиране на фините сигнали, които биха могли да издадат нещо като създадено от AI съдържание.
Платформите за разпространение на други места може да работят за разработването на функция за „доказателство за личност“, която е малко по-задълбочена от CAPTCHA формата тип „маркирайте това поле, ако в него има магаре или сладолед“. В същото време тези платформи биха могли да работят за разработването на отдел, който е специализиран в идентифицирането и премахването на всякакви лоши актьори, използващи AI, от съответните им сайтове. Изследователите дори предлагат използването на „радиоактивни данни“: сложна мярка, която ще включва обучение на машини за проследими масиви от данни. (Както вероятно се разбира от само себе си, този „план за разрушаване на мрежата“, както се изразява експертът Кейси Нютън от Platformer, е изключително рискован.)
Ще има криви на учене и рискове за всяко от тези предложени решения и никое не може да се бори напълно със злоупотребата с AI самостоятелно. Но трябва да започнем от някъде, особено като се има предвид, че програмите за изкуствен интелект изглежда имат доста сериозна преднина.
Снимка: Unsplash
Виж още: Getty Images съди една от най-големите арт платформи за AI