Microsoft имаше навик да налага своите ИИ услуги на потребителите си, особено с пускането на Copilot+ версията за компютър, но изглежда, че дори самата компания не вярва на собственото си творение. Според Условията за ползване на Microsoft Copilot, актуализирани през октомври миналата година, големият езиков модел (LLM) на изкуствения интелект е предназначен единствено за развлекателни цели и потребителите не трябва да го използват за важни съвети. Макар това да е стандартно изключение от отговорност, то е доста иронично, като се има предвид колко силно компанията иска хората да използват Copilot за бизнес цели и го е интегрирала в Windows 11.
„Copilot е предназначен единствено за развлекателни цели. Той може да прави грешки и може да не работи както е предвидено“, се казва в документа. „Не разчитайте на Copilot за важни съвети. Използвайте Copilot на свой риск.“ Това не се ограничава само до Copilot. Други LLM имат подобни декларации за отказ от отговорност. Например, xAI казва: „Изкуственият интелект се развива бързо и е вероятностен по своята същност; следователно, понякога той може: а) да доведе до резултат, който съдържа „халюцинации“, б) да бъде обиден, в) да не отразява точно реални хора, места или факти, или г) да бъде неприемлив, неподходящ или по друг начин неподходящ за предвидената от вас цел.“
Това може да звучи като логично за хората, запознати с начина на работа на големите езикови модели (LLM), но, за съжаление, някои приемат резултатите от ИИ за чиста монета, дори онези, които би трябвало да са по-добре осведомени. Видяхме това при услугите на Amazon, след като според някои информации прекъсвания в AWS бяха причинени от бот за кодиране с изкуствен интелект, след като инженерите му позволиха да реши проблем без надзор. Самият уебсайт на Amazon също беше засегнат от няколко инцидента с „голям радиус на въздействие“, свързани с „промени, подпомогнати от Gen-AI“, което доведе до свикване на среща на старши инженери за разрешаване на въпроса.
Макар генеративната ИИ да е полезен инструмент и наистина да може да повиши производителността, тя все пак остава само инструмент, който не носи отговорност за евентуалните грешки, които може да допусне. Поради това хората, които я използват, трябва да бъдат внимателни, винаги да подлагат на съмнение нейните изводи и да проверяват резултатите ѝ. Но дори и да сте наясно с ограниченията на съвременната ИИ технология, хората са податливи на „пристрастие към автоматизацията“ – при което имаме склонност да даваме предимство на резултатите, произведени от машините, и да пренебрегваме данни, които биха могли да ги опровергаят. AI може да засили това явление, особено като се има предвид, че може да създава резултати, които на пръв поглед изглеждат правдоподобни или дори верни.
Като цяло компаниите обикновено добавят подобни декларации за отказ от отговорност към своите продукти и услуги, за да се предпазят от съдебни искове. Но тъй като технологичните компании, занимаващи се с ИИ, промотират своите ИИ услуги като най-добрия начин за повишаване на производителността, те може би минимизират рисковете, свързани с използването на ИИ инструменти, само за да накарат клиентите да плащат и да възвърнат милиардите, които са инвестирали в хардуер и човешки ресурси.
Снимка: Unsplash
Виж още: Sony внася радикални промени в дизайна на Xperia 1 VIII, но най-специфичната функция ще се запази