Отдавна тлеещата криза на идентичността в общността на отворения код по отношение на изкуствения интелект току-що получи така необходимата доза прагматизъм. Тази седмица проектът за ядрото на Linux най-накрая въведе официална политика, валидна за целия проект, която изрично разрешава приноса на код, създаден с помощта на ИИ, при условие че разработчиците спазват строги нови правила за разкриване на информация.

Новите насоки постановяват, че ИИ агентите не могат да използват правно обвързващия таг Signed-off-by, а вместо това изискват нов таг Assisted-by с цел прозрачност. В крайна сметка политиката юридически закрепва всяка една линия код, генерирана от ИИ, както и всички произтичащи от това бъгове или пропуски в сигурността, твърдо върху раменете на човека, който я подава.

Тази стъпка идва след няколко хаотични месеца в света на отворения код и слага край на ожесточена дискусия, която достигна своя пик през януари, когато Дейв Хансен от Intel и Лоренцо Стоукс от Oracle се сблъскаха по въпроса колко строго ядрото трябва да контролира инструментите за изкуствен интелект. Създателят на платформата Линус Торвалдс, в типичния си прям стил, в крайна сметка сложи край на спора, като нарече дебата за пълната забрана „безсмислено заемане на страни“.

Позицията на Торвалдс, която формира философската основа на тази нова политика, е изключително ясна: изкуственият интелект е просто още един инструмент. Злонамерените лица, които подават боклучав код, така или иначе няма да прочетат документацията, така че ядрото трябва да се фокусира върху това да държи човешките разработчици отговорни, вместо да се опитва да контролира софтуера, който те изпълняват на своите локални машини. Това е изключително разумен и прагматичен подход, особено в контраст с паниката, която обхвана други части от екосистемата на отворения код.

Досега големите проекти са прилагали коренно различни подходи към въпроса за изкуствения интелект. През последните две години известни дистрибуции на Linux като Gentoo, както и утвърдената Unix дистрибуция NetBSD предприеха стъпки за пълна забрана на материали, генерирани от ИИ. Поддържащите NetBSD описаха резултатите от големите езикови модели (LLM) като юридически „замърсени“ поради неясния статут на авторските права върху данните за обучение на моделите.

В основата на тази паника стои Сертификатът за произход на разработчика (DCO). Както Red Hat посочи в задълбочен анализ в края на миналата година, DCO изисква хората да удостоверят юридически, че имат право да подават своя код. Тъй като LLM са обучени на огромни масиви от данни с отворен код, който често носи ограничителни лицензи като GNU General Public License, разработчиците, използващи Copilot или ChatGPT, не могат да гарантират истински произхода на това, което подават. Red Hat предупреди, че това може неволно да наруши лицензите за отворен код и напълно да разруши рамката на DCO.

Освен правните главоболия, поддържащите проектите също водят загубена битка срещу огромния обем. Светът на отворения код в момента се дави в това, което общността нарече AI slop. Създателят на cURL трябваше да прекрати програмата за награди за откриване на бъгове, след като беше залят с халюциниран код, а проекти като Node.js и OCaml получиха огромни пачове, генерирани от ИИ, което предизвика екзистенциални дебати сред програмистите.

Културното напрежение, свързано с неразкрития код, създаден от ИИ, се оказа още по-ожесточено. В края на миналата година инженерът от NVIDIA и отговорник за поддръжката на ядрото Саша Левин се сблъска с масивна негативна реакция от страна на общността, след като стана ясно, че е подал пач за ядро 6.15, изцяло написан от голям езиков модел (LLM), без да го посочи, включително и в списъка с промените. Въпреки че кодът беше функционален, той доведе до влошаване на производителността, въпреки че беше прегледан и тестван. Общността се противопостави категорично на идеята разработчиците да слагат имената си върху сложен код, който всъщност не са написали, и дори Торвалдс призна, че пачът не е бил прегледан както трябва отчасти защото не е бил обозначен като генериран от ИИ.

Снимка: Unsplash/Linux Kernel Project

Виж още: Видеокарти за 30 000 долара като Nvidia H200 и AMD MI300X всъщност са ужасно слаби в разбиване на пароли

 

Още от Tech