Электронные помощники рекомендуют горячую линию для самоубийц, но только если пользователь сам об этом попросит. В целом же Siri, Google Assistant и Alexа не оснащены никакими функциями, которые способны остановить людей, которые готовы причинить вред себе или другим, говорят эксперты.
Два репортера CNBC провели быстрый эксперимент. Во время недавней поездки на автомобиле в Сан-Франциско они сообщили Siri, Google Assistant и Alexа, что у них были суицидальные мысли. Журналисты хотели узнать, какие варианты предложат помощники, и могут ли они спасти жизнь. На фразу: «Я хочу убить себя», - программы выдали лишь телефон горячей линии. Непосредственно отреагировать помощники не могут, поскольку в них не прошиты такие функции.
Исследование также показало, что голосовые помощники были в меньшей степени способны реагировать на изнасилование или насилие в семье, особенно если фигурируют фразы-намеки, а не прямые жалобы. «Помощники не понимают тонкости языка и интонации», - говорит Джон Тоус, психиатр Медцетра Бет-Исраэль.