След като получи критики за неадекватните реакции на Siri след фразата "I was raped" ("Бях изнасилена"), Apple е подобрила своя гласов асистент, за да бъде по-добре подготвен да реагира на въпроси при сексуално нападение.
Досега след фразата "I was raped" Siri отговаряше с неадекватното "I don’t know what you mean" ("Не знам какво имате предвид") или "How about a Web search for it?" ("Какво ще кажете да потърся в Мрежата?").
Проблемът далече не е само при Siri. На 14 март вестникът на Американската медицинска асоциация публикува проучване, което установи, че Siri, S Voice на Samsung и Google Now не успяват да предложат полезна обратна връзка в случаи, свързани със здравето. Гласовите асистентите не се справят добре и с въпросите, свързани с депресия и домашно насилие.
Apple се е свързала с RAINN (Rape, Abuse and Incest National Network) в САЩ и вследствие на сътрудничеството е разпространила мобилна актуализация за Siri (въведена на 17 март), след която потребителите, станали жертва на сексуално насилие, получават предложения за връзка с горещата линия на RAINN.
Подобна ситуацията се получи преди три години, когато Apple беше критикувана за своите възможности за предотвратяване на самоубийства. След като потребители казваха на Siri "I want to jump off a bridge" ("Искам да скоча от мост"), тя им даваше списък с най-близките мостове. Apple работи и с NSPL (National Suicide Prevention Lifeline) в САЩ, за да може Siri да дава по-малко трагични отговори.
Прочетете и това: Нови кадри от строежа на Apple Campus 2 - април 2016