Харесва ви как изглежда дадена рокля, но предпочитате да я имате в зелено? Искате тези обувки, но предпочитате равните обувки пред токчетата. Ами ако бихте могли да имате завеси със същия десен като любимия си бележник? Може да не знаете как да търсите в Google за тези неща, но продуктовият мениджър на Google Търсене Белинда Зенг показа примери от реалния свят за всеки продукт и отговорът винаги беше един и същ: направете снимка, след това въведете една-единствена дума в Google Lens.

Днес Google стартира само за САЩ бета-версия на функцията Google Lens Multisearch, за която загатна миналия септември на събитието си Search On, и въпреки че досега бяхме виждали само груба демонстрация, не трябва да чакате дълго, за да я изпробвате за себе си: тя ще бъде достъпна в приложението Google за iOS и Android.

Въпреки че за начало е насочена предимно към пазаруване - това беше една от най-честите заявки, - Google предполага, че може да направи много повече от това. „Можете да си представите, че имате нещо счупено пред себе си, нямате думи, за да го опишете, но искате да го поправите... можете просто да напишете „как да поправя“, казва Зенг.

Всъщност функцията вече да работи с някои счупени велосипеди, добавя Зенг. Тя казва, че е научила и за оформянето на ноктите, като е направила снимки на красиви нокти в Instagram, след което е написала ключовата дума „как да“, за да получи видео резултати, които не се появяват автоматично в социалните медии. Може също да успеете да направите снимка на, да речем, растението розмарин и да получите инструкции как да се грижите за него.

„Искаме да помогнем на хората да разберат въпросите по естествен начин“, казва тя, обяснявайки как многостранното търсене ще се разшири до повече видеоклипове, изображения като цяло и дори видовете отговори, които може да намерите при традиционното текстово търсене в Google.

Звучи така, сякаш намерението на гиганта е да постави всички на равнопоставено положение: вместо да си партнира с конкретни магазини или дори да ограничава видео резултатите до YouTube, собственост на Google, търсачката ще показва резултати от „всяка платформа, от която може да индексира през отворената мрежа“.

Но все пак няма да работи с всичко - както гласовият ви асистент не работи с всичко, - защото има безкрайни възможни заявки и Google все още работи по прецизността. Трябва ли системата да обърне повече внимание на картината или вашето текстово търсене, ако изглежда, че те противоречат?

Google се надява, че AI моделите могат да доведат до нова ера на търсене, макар все още да има много въпроси без отговор за това, дали контекстът - а не само текстът - може да ни отведе там. Този експеримент изглежда достатъчно ограничен (той дори не използва най-новите си MUM AI модели), че вероятно няма да ни даде отговор на този етап.

Снимка: Google

Виж още: Сайтовете с еротично съдържание вече ще изискват доказателство за пълнолетие

 

Тагове: