На снощното събитие на Google компанията представи новите Pixel смартфони, Google Home, Daydream VR, Chromecast Ultra и Wi-Fi рутера. Но едно нещо ни направи по-силно впечатление – Google Assistant. Той работи в „сърцевината“ на Android и разбира в детайли вашите въпроси, за да ви отговаря изчерпателно.

Pixel и Pixel XL са първите телефони, които ще работят с Асистента на Google. Google Home също е задвижван от „Асистента“, който се активира с фразата OK Google, за да получите отговори на въпросите си.

Заедно с това Google представи програмата Actions on Google, която ще стартира през декември и ще позволи на разработчиците да създават „действия“ за „асистента“. Тези „действия“ ще бъдат два вида Direct Actions и Conversation Actions.

Direct Actions са тези, които познаваме и сега от гласовото търсене на Google. Докато Conversation Actions се отнасят за разбирането между „изкуствения интелект“ и човека.

На сцената на Google Скот Хъфман демонстрира един такъв „разговор“, като направи Uber заявка с Google Assistant, която премина в „разговор“ за изясняване и финализиране на заявката.

Google ще помогне на разработчиците да създават „разговори“ с conversational UX платформа API.AI. По-важното тук е, че създавайки тези „разговори“ за едно приложение, разработчиците ще се зарадват да видят, че техният код ще работи при всички устройства, поддържащи Google Assistant.

Освен това Google обеща да стартира и Embedded Google Assistant SDK, който ще позволи на ентусиастите да вграждат Google Assistant в Raspberry Pi. Така производителите на хардуер ще могат да добавят „Асистента“ в своите продукти - нещо, което вече се случва в екосистемата Alexa на Amazon.

 

 

Прочетете и това: Google нае ключов хардуерен експерт от Amazon, за да работи над новите Pixel смартфони