Всеки бот с изкуствен интелект, създаден в Китай, ще се подлага на сурови тестове, за да се осигури поддръжката на „основни социалистически ценности“ в неговия алгоритъм.
Китайският център за администриране на киберпространството преглежда моделите с изкуствен интелект, разработени от гиганти като ByteDance (компанията зад TikTok) и AliBaba, за да се увери, че те отговарят на правилата за цензура в страната.
Според „множество хора, участващи в процеса“, пише Financial Times, отряди от служители по киберсигурност се появяват в офисите на фирмите за изкуствен интелект и разпитват техните големи езикови модели, като им задават редица въпроси по политически чувствителни теми, за да се уверят, че няма да излязат извън сценария.
Какво се счита за политически чувствителна тема? Всичко, което очаквате. Въпроси за масовото убийство на площад Тянанмън, интернет карикатури, осмиващи китайския президент Си Дзинпин, и всичко останало, което съдържа ключови думи, свързани с теми, които рискуват да „подкопаят националното единство“ и „да дестабилизират държавната власт“.
Звучи достатъчно просто, но ботовете с изкуствен интелект могат да бъдат трудни за управление (един от пекинските служители казва пред FT, че са „много, много невъздържани“), а служителите на регулатора невинаги обясняват ясно защо даден бот се е провалил на тестовете. За да бъдат нещата още по-сложни, властите не искат изкуственият интелект просто да избягва политиката - дори чувствителните теми - и на всичкото отгоре изискват ботовете да отхвърлят не повече от 5% от зададените им запитвания.
В резултат на това компаниите за изкуствен интелект реагират на ограниченията по различен начин: някои от тях са създали слой към големите си езикови модели, който може да замества отговорите на чувствителни въпроси „в реално време“, казва един от източниците на FT, докато други просто са се предали и са наложили „обща забрана“ на теми, свързани с президента Си.
Снимка: Unsplash
Виж още: Не очаквайте Apple Intelligence да вдигне рязко продажбите на iPhone 16