Правоприлагащите органи бързо възприеха изкуствения интелект за всичко – от изготвянето на полицейски доклади до разпознаване на лица.
Резултатите обаче често пъти са предсказуемо мрачни. В един особено ярък – и неволно комичен – случай полицейското управление в Хебър Сити, щата Юта, беше принудено да обясни защо софтуерът за полицейски доклади е обявил, че един полицай по някакъв начин се е превърнал в жаба. Изглежда, че дефектният инструмент е уловил някакъв несвързан фон, за да измисли фантастичния си приказен край.
„Софтуерът за камерите на тялото и софтуерът за изготвяне на доклади с изкуствен интелект са уловили филма, който е вървял на заден план, а той се е оказал „Принцесата и жабокът“, обяснява полицейският сержант Рик Кийл като се позовава на музикалната комедия на Disney от 2009 г. „Тогава разбрахме колко е важно да коригираме тези доклади, генерирани от изкуствен интелект.“
Отделът беше започнал да тества софтуер, базиран на изкуствен интелект, наречен Draft One, за автоматично генериране на полицейски доклади от кадри от камери, закрепени на тялото. Целта беше да се намали количеството документи, но като се има предвид, че се допускат огромни грешки, резултатите очевидно варират.
Дори една проста симулация на пътна проверка, предназначена да демонстрира възможностите на инструмента, се превръща в катастрофа и полученият доклад се наложи да бъде коригиран многократно. Въпреки недостатъците Кийл заявява пред медията, че инструментът му спестява „шест до осем часа седмично“.
„Не съм технически най-грамотният човек, затова за мен той е много лесен за използване“, добавя той.
Draft One беше обявен за първи път миналата година от полицейската технологична компания Axon – същата фирма, която стои зад популярното електрошоково оръжие Taser, чието име стана нарицателно. Софтуерът използва големите езикови модели GPT на OpenAI, за да генерира цели полицейски доклади от аудиозаписите на камерите, монтирани на тялото.
Експертите бързо предупредиха, че халюцинациите могат да пропуснат важни детайли в тези документи.
„Притеснявам се, че автоматизацията и лекотата на технологията ще накарат полицейските служители да бъдат по-малко внимателни при писането“, заяви преподавателят по право в Американския университет във Вашингтон Андрю Фъргюсън пред Associated Press миналата година.
Други предупреждават, че софтуерът може да засили съществуващите расови и полови предразсъдъци, което е тревожна възможност, като се има предвид историческата роля на правоприлагащите органи в поддържането им дълго преди появата на ИИ. Доказано е, че генеративните ИИ инструменти поддържат предразсъдъците както спрямо жените, така и спрямо хора, които не са бели.
Критиците също така твърдят, че инструментът може да направи полицейските служители по-малко отговорни, в случай че се допуснат грешки. Според скорошно разследване на Electronic Frontier Foundation, Draft One „изглежда умишлено проектиран, за да избегне проверки, които биха могли да осигурят някаква отчетност пред обществеността“.
Според записите, получени от EEF, често е невъзможно да се разбере кои части от полицейския доклад са генерирани от ИИ и кои части са написани от полицейски служител.
„Axon и нейните клиенти твърдят, че тази технология ще революционизира полицейската дейност, но остава да се види как ще промени наказателната система и на кого тази технология ще донесе най-голяма полза“, пише фондацията.
Полицейското управление на град Хебър все още не е решило дали ще продължи да използва Draft One. Управлението тества и конкурентен софтуер за изкуствен интелект, наречен Code Four, който беше пуснат на пазара по-рано тази година. Като се има предвид неспособността на Draft One да прави разлика между реалността и измисления свят на Disney, навярно управлението ще обмисли добре решението си.
Снимка: Unsplash
Виж още: Невроморфна електронна кожа позволява на хуманоидните роботи да усещат болка и да реагират