Възможно е да сте кликнали върху заглавието, за да разберете дали тази статия не е написана от изкуствен интелект. Но също така е възможно да сте от все по-смаляващия се лагер на противниците на AI, които смятат, че много от работните позиции ще бъдат погълнати от тази така или иначе бъгава технология. Може, разбира се, причината да е съвсем различна - но нека си го признаем, дори AI не може да познае всички вероятности. И все пак, ако има поне малко любопитство у вас, най-вероятно сте изпробвали по един или друг начин някой от популярните инструменти за генеративен ИИ. Или някой е споделил с вас, че интегрирането им в ежедневието ще промени начините, по които живеем и работим, защото те ще се използват в почти всяка сфера.  
Както при всяка нова технология, която се носи на вълната на първоначалната популярност и интерес, си заслужава да бъдете внимателни в начина, по който използвате тези генератори и ботове на ИИ - по-специално по отношение на това от колко поверителност и сигурност се отказвате в замяна на възможността да ги използвате. 
Ето няколко насоки как да поставите граници още в началото, без да жертвате ни най-малко от защитата на поверителността, с която сте свикнали:

 
Винаги проверявайте условията, преди да използвате даден инструмент

 
Ако има нещо, което би трябвало да сте научили от приложенията, то е, че те винаги ще се стремят да получат възможно най-много информация от вас. И разбира се - те знаят как да се възползват от нея - или най-малкото на кого да я предложат, без да се интересуват от вашето мнение относно тази тактика.  
По подразбиране всичко, за което говорите с ChatGPT, може да бъде използвано, за да помогне на нейния основен голям езиков модел (LLM) "да научи за езика и как да го разбира и да реагира на него", въпреки че личната информация не се използва "за изграждане на профили за хората, за връзка с тях, за рекламиране, за опити да им се продаде нещо или за продажба на самата информация". 
Личната информация може да се използва и за подобряване на услугите на OpenAI и за разработване на нови програми и услуги. Накратко, тя има достъп до всичко, което правите в DALL-E или ChatGPT, и вие се доверявате на OpenAI да не прави нищо съмнително с нея (и да защитава ефективно сървърите си от опити за хакерски атаки). 
Подобна е историята и с политиката за поверителност на Google. За Google Bard има някои допълнителни бележки като например: информацията, която въвеждате в чатбота, ще бъде събирана "за предоставяне, подобряване и разработване на продукти и услуги на Google и технологии за машинно обучение". Както всички данни, които Google получава от вас, данните от Bard могат да бъдат използвани за персонализиране на рекламите, които виждате. 
Така че си струва да отделите малко време и да попрегледате условията, с които се съгласявате - въпреки че изборът ви не е много голям - той все пак предлага повече от една опция.

 
Сменете настройките 


Ако сте съгласни с политиката за поверителност, то следва да проучите контрола за поверителност и сигурност, който получавате в избраните от вас инструменти за изкуствен интелект. Добрата новина е, че повечето компании правят тези контроли сравнително видими и лесни за работа. 
  
Google Bard следва примера на други продукти на Google като Gmail или Google Maps: можете да изберете данните, които му предоставяте, да бъдат автоматично изтрити след определен период от време, да изтриете данните ръчно сами или да позволите на Google да ги съхранява за неопределено време.  
Microsoft също включва своите опции за управление на данни за изкуствен интелект в настройките за сигурност и поверителност за останалите си продукти. В опциите за поверителност можете да управлявате всичко, което правите с продуктите на Microsoft, да преглеждате и ако е необходимо, да изтривате всичко, за което сте разговаряли с Bing AI. Можете да спрете ChatGPT да използва вашите разговори за обучение на моделите си, но същевременно ще загубите достъпа до функцията за история на чата. Разговорите могат също така да бъдат изтрити от записа както индивидуално, така и цялата история на всички сесии.  


Внимавайте какво споделяте 


По същество всичко, което въвеждате или създавате с помощта на инструмент за изкуствен интелект, вероятно ще бъде използвано за по-нататъшно усъвършенстване на изкуствения интелект и след това ще бъде използвано по преценка на разработчика. Като се има предвид това - и постоянната заплаха от нарушаване на сигурността на данните, която никога не може да бъде напълно изключена, - струва си да бъдете много предпазливи по отношение на това, което въвеждате. 
Когато става въпрос за инструменти, които създават подобрени от изкуствен интелект версии на лицето ви - чийто брой изглежда продължава да се увеличава, - не бихме ви препоръчали да ги използвате, освен ако не сте доволни от възможността да видите, че генерирани от изкуствен интелект визии като вашата се появяват в творенията на други хора. 
Що се отнася до текстове, избягвайте всякаква лична, частна или чувствителна информация: вече станахме свидетели на изтичане на различни слухове, в които AI услугите са по един или друг начин замесени. Колкото и изкушаващо да е да накарате ChatGPT да обобщи финансовите резултати на компанията ви за тримесечието или да напише писмо с адреса и банковите ви данни, това е информация, която е по-добре да не се използва от тези генеративни двигатели за изкуствен интелект - не на последно място защото, както признава Microsoft, някои подкани за изкуствен интелект се преглеждат ръчно от служители, за да се провери за неподходящо поведение. 
Честно казано, това е нещо, за което предупреждават разработчиците на ИИ. "Не включвайте конфиденциална или чувствителна информация в разговорите си с Bard", предупреждава Google, докато OpenAI съветва потребителите "да не споделят никакво чувствително съдържание", което би могло да се озове в широката мрежа чрез функцията за споделени връзки. Ако не искате някога да бъде публично достояние или да бъде използвано в продукцията на ИИ, запазете го за себе си. 
А сега вече можете да тествате възможностите на генеративния изкуствен интелект - дори и само от чисто любопитство или да се посъстезавате с него.

Снимки: Unsplash

Виж още: OpenAI вероятно ще фалира до края на 2024