Главният изпълнителен директор на OpenAI Сам Олтман заяви, че компанията му може да "прекрати дейността си" в Европейския съюз, ако не успее да спази разпоредбите на новото законодателство относно AI, което блокът подготвя в момента.

"Ще се опитаме да се съобразим", изтъкна Олтман в рамките на дискусия в University College London, част от продължаващата обиколка из европейските страни. Той посочи, че в рамките на обиколката си се е срещнал с регулаторни органи на ЕС, за да обсъди закона за изкуствения интелект, и добави, че OpenAI има много критики към начина, по който законът е формулиран в момента.

Олтман заяви, че скептицизмът на OpenAI е съсредоточен върху определянето на "високорискови" системи в закона на ЕС в сегашния му вид. Законът все още е в процес на преразглеждане, но според сегашната му формулировка може да се наложи големи модели на изкуствен интелект като ChatGPT и GPT-4 на OpenAI да бъдат определени като "високорискови", което ще принуди компаниите, които стоят зад тях, да спазват допълнителни изисквания за безопасност. OpenAI вече е твърдяла, че нейните системи с общо предназначение по своята същност не са високорискови.

"Или ще успеем да отговорим на тези изисквания, или не", каза Олтман за разпоредбите на Закона за изкуствения интелект на ЕС за високорисковите системи. "Ако можем да ги спазим, ще го направим, а ако не можем, ще прекратим дейността си... Ще се опитаме. Но има технически ограничения за това, което е възможно."

Олтман заяви, че законът "не е изначално погрешен", но каза още, че "тънките детайли тук наистина имат значение". По време на интервю на сцената по-рано през деня той каза, че предпочитанията му за регулиране са "нещо средно между традиционния европейски подход и традиционния американски подход".

Олтман също така заяви, че е притеснен от рисковете, произтичащи от изкуствения интелект, като изтъкна възможността за генерирана от него дезинформация, предназначена да се хареса на личните пристрастия на индивида. Например генерираната от ИИ дезинформация може да окаже влияние върху предстоящите избори в САЩ през 2024 г., каза той. Но предположи, че платформите на социалните медии са по-важни двигатели на дезинформацията, отколкото езиковите модели на ИИ. "Можете да генерирате колкото си искате дезинформация с GPT-4, но ако тя не се разпространява, няма да направи много", каза той.

Снимка: Unsplash

Виж още: Илон Мъск ще пробва да измъкне Twitter от клопката на ЕС