Докато американските законодатели провеждат поредното изслушване в Конгреса относно опасностите, породени от алгоритмичното пристрастяване в социалните медии, Европейската комисия разкри обширна регулаторна рамка, която, ако бъде приета, може да има глобални последици за бъдещето на AI.

Това не е първият опит на Комисията да вкара в норми растежа и развитието на тази нововъзникваща технология. След обширни срещи с адвокатски групи и други заинтересовани страни ЕК публикува както първата европейска стратегия за AI, така и Координиран план за развитието на AI през 2018 г. Те бяха последвани през 2019 г. от Насоките за надежден AI, а след това отново през 2020 г. от Бялата книга на Комисията относно AI и доклад за последиците за безопасността и отговорността на изкуствения интелект, интернет на нещата и роботиката. Подобно на амбициозния си план за Общ регламент за защита на данните (GDPR) през 2018 г., Комисията се стреми да установи основно ниво на обществено доверие в технологията, базирана на строги защити на поверителността на потребителите и данните, както и норми срещу потенциалната злоупотреба.

„Изкуственият интелект не трябва да бъде самоцел, а инструмент, който трябва да служи на хората с крайната цел да повиши тяхното благосъстояние. Правилата за изкуствен интелект, налични на пазара на Съюза или засягащи по друг начин гражданите му, следва да поставят хората в центъра (да бъдат ориентирани към човека), така че те да могат да се доверят, че технологията се използва по начин, който е безопасен и е в съответствие със закона, включително зачитането на основните права“, пише Комисията в своите проекторегламенти.

„В същото време подобни правила за изкуствения интелект трябва да бъдат балансирани, пропорционални и да не ограничават излишно технологичното развитие. Това е от особено значение, тъй като, въпреки че изкуственият интелект вече присъства в много аспекти от ежедневието на хората, не е възможно да се предвидят всички вероятни употреби или приложения, които могат да се случат в бъдеще.“

Всъщност системите за изкуствен интелект вече са повсеместни в живота ни - от алгоритмите за препоръки, които ни помагат да решим какво да гледаме в Netflix и кого да следваме в Twitter, до цифровите асистенти в нашите телефони и системите за помощ на водача, които следят пътя за нас, когато шофираме.

„Европейската комисия за пореден път се включва по смел начин, за да се справи с нововъзникващите технологии, точно както бе направила с поверителността на данните чрез GDPR“, казва д-р Бранди Нонеке, директор на лабораторията за политика CITRIS в UC Berkeley, пред Engadget. „Предложеният регламент е доста интересен, тъй като атакува проблема чрез подход, основан на риска, подобен на този, използван в предложената от Канада регулаторна рамка за AI.“

Тези нови правила биха разделили усилията на ЕС за развитие на AI на четиристепенна система - минимален риск, ограничен риск, висок риск и напълно забранени - въз основа на потенциалните им вреди за общественото благо.

Директно забранени употреби на технологията ще включват всички приложения, които манипулират човешкото поведение, за да заобиколят свободната воля на потребителите - по-специално тези, които експлоатират уязвимостите на определена група лица поради тяхната възраст, физическо или психическо увреждане - както и „реалновремеви системи за биометрична идентификация и такива, които позволяват „социално оценяване“ от правителствата.

Снимка: Pikrepo

Виж още: Wi-Fi устройствата ще могат да ни следят и да събират данни от 2024 г. с новия 802.11bf стандарт