Само преди няколко дни на страницата с правилата за използване на OpenAI изрично беше посочено, че компанията забранява използването на своята технология за "военни и бойни" цели. Оттогава този ред е изтрит. Както първо забеляза The Intercept, компанията актуализира страницата на 10 януари, "за да бъде по-ясна и да предостави по-конкретни указания за конкретните услуги", както се посочва в списъка с промените. Тя все още забранява използването на нейните големи езикови модели (LLM) за всичко, което може да причини вреда, и предупреждава хората да не използват услугите ѝ за "разработване или използване на оръжия". Компанията обаче е премахнала езика, отнасящ се до "военни и военни действия".
Макар че все още не сме видели реалните му последици, тази промяна във формулировката идва точно в момент, когато военните агенции по света проявяват интерес към използването на ИИ. "Като се има предвид използването на системи за ИИ в насочването на оръжия срещу цивилни граждани в Газа, това е забележителен момент за вземане на решение за премахване на думите "военни и военни действия" от политиката за допустима употреба на OpenAI", заяви Сара Майерс Уест, управляващ директор на AI Now Institute.
Изричното споменаване на "военни и военни действия" в списъка със забранени употреби показва, че OpenAI не може да работи с правителствени агенции като Министерството на отбраната, което обикновено предлага изгодни сделки на изпълнители. Към момента компанията не разполага с продукт, който би могъл директно да убие или да причини физическа вреда на някого. Но както казва The Intercept, нейната технология може да се използва за задачи като писане на код и обработка на поръчки за неща, които могат да се използват за убиване на хора.
На въпрос за промяната във формулировката на политиката си говорителят на OpenAI Нико Феликс заяви пред изданието, че компанията "има за цел да създаде набор от универсални принципи, които са лесни за запомняне и прилагане, особено след като нашите инструменти вече се използват в световен мащаб от обикновени потребители, които сега също могат да изграждат GPT версии". Феликс обясни, че "принцип като "Не причинявай вреда на другите" е широк, но лесно разбираем и подходящ в многобройни контексти", като добави, че OpenAI "конкретно е посочила оръжия и нараняване на други хора като ясни примери". Съобщава се обаче, че говорителят е отказал да поясни дали забраната за използване на нейната технология за "причиняване на вреда" на други хора включва всички видове военна употреба извън разработването на оръжия.
Снимка: Unsplash
Виж още: Странни дупки на океанското дъно - портал към мистериозен свят?