Националният център за киберсигурност на Обединеното кралство (NCSC) предупреждава обществеността за опасностите, които крие ChatGPT. Този модел с изкуствен интелект придоби популярност след пускането му на пазара преди няколко месеца. След като стана публично достъпен, множество хора се впуснаха да изпробват способностите му по различни начини.
Някои хора поискаха рецепти за конкретни ястия, отговори на въпроси от задание в училище или университет и други случайни въпроси. Реакцията на този модел на изкуствен интелект на различните въпроси, които му бяха зададени, изуми мнозина и поради тази причина все повече хора искаха да опитат ChatGPT, което увеличи популярността му.
Сега системата, на която работи този модел на изкуствен интелект, е обновена. Системата GPT-4 подобрява способностите за водене на разговори на различните модели с изкуствен интелект, които разчитат на нея. С нарастващото разпространение на този модел на изкуствен интелект има ли опасности, които той представлява за обществото? Неотдавнашната актуализация изтъква няколко от тях. Нека разгледаме тези опасности отблизо.
Националният център за киберсигурност на Обединеното кралство предупреди обществеността за опасностите, които крие ChatGPT. Властите направиха това с неотдавнашна публикация в блога си на официалния си уебсайт, в която разгледаха ChatGPT и големите езикови модели (LLM).
С нарастването на популярността на тези модели с изкуствен интелект е необходимо да се знае какъв риск могат да представляват те. Сега Националният център за киберсигурност на Обединеното кралство е направил проучване, за да помогне на обществеността да се осведоми. От техните констатации потребителите на ChatGPT и други LLM ще разберат какви основни стъпки да предприемат с тези модели с изкуствен интелект.
Едно от първите наблюдения, които трябва да се имат предвид при моделите на изкуствен интелект, е, че те могат да бъдат подвеждащи. Част от информацията, която те предоставят на заявките на потребителите, може да е грешна, пристрастна, насилствена и т.н. Поради тази причина потребителите на ChatGPT и други LLM алгоритми трябва да внимават за съдържанието, което консумират от тези модели с изкуствен интелект.
Необходимо е също така да се внимава за вида на информацията, която се споделя с тези платформи. Националният център за киберсигурност съветва да не се споделя чувствителна информация с ChatGPT или други LLM. Тези платформи може и да не разкриват информация за потребителите, но имат достъп до техните заявки и могат да бъдат хакнати, а оттам и да разкрият тези заявки публично.
Поради тази причина се опитвайте да не задавате на такива платформи въпроси, които са доста чувствителни за личния ви живот или работа. Опасностите на ChatGPT и други LLM обхващат и начина, по който киберпрестъпниците и злонамерените актьори могат да ги използват, така че, докато изпробвате нови или съществуващи големи езикови модели, е важно да разберете рисковете, които те крият.
Снимка: Unsplash
Виж още: Защо падат сателитите на SpaceX?