1

J'ai une application Accueil Google qui utilise les actions sur Google client bibliothèque Javascript:Définir le contexte de reconnaissance vocale sur une application Actions sur Google?

https://github.com/actions-on-google/actions-on-google-nodejs

La reconnaissance vocale est extrêmement bonne. Mais parfois, je rencontre un contexte de reconnaissance avec lequel j'ai un peu de difficulté. Existe-t-il un moyen de dire à la fonction de reconnaissance vocale de mettre l'accent sur la probabilité de certaines phrases de mots par interaction utilisateur? Par exemple, si une date est demandée à l'utilisateur, la probabilité des mois de l'année est-elle augmentée par rapport à la normale?

Dans certains moteurs de reconnaissance vocale, vous pouvez fournir des listes de vocabulaire (alias grammaires, etc.) au moteur. Existe-t-il un moyen de le faire avec une application Actions sur Google?

Je suis conscient de la parole API de reconnaissance de Google:

Google Speech Recognition API

Mais je ne sais pas si cette API est exposée ou disponible par le biais des actions sur le service Google, ou si cette API prend en charge grammaires ou contexte listes.

Répondre

3

EDIT: On dirait que les actions sur Google ont un moyen d'attendre certaines entrées de l'utilisateur. voir:

https://developers.google.com/actions/reference/rest/Shared.Types/QueryPatterns

de cette question:

google action package how to define custom slot types?

Réponse d'origine:

Vous ne pouvez pas changer la façon dont la Google Home perçoit la saisie vocale, il écoute simplement avec son vocabulaire prédéfini. Vous pouvez cependant utiliser https://dialogflow.com/ pour exiger certains paramètres de la conversation. En utilisant Dialogflow (anciennement api.ai), vous pouvez définir Date comme paramètre obligatoire pour poursuivre la conversation, ou si l'application Home entend toujours la même mauvaise entrée, vous pouvez définir cette entrée pour renvoyer l'entrée que vous souhaitez recevoir . Exemple: Google Home demande la date, l'utilisateur dit «octobre» mais le Home entend toujours «somethingelse». Vous pouvez ensuite définir "somethingelse" comme synonyme de "october" et gérer à partir de là.

en plus qu'il ya un petit nombre d'actions que vous pouvez appeler Actions sur Google où il attend effectivement une certaine entrée https://developers.google.com/actions/assistant/helpers#built-in_helper_intents même si ce ne sera pas augmenter les chances de la maison en reconnaissant un certain contexte.

+0

Je n'utilise pas DialogFlow (anciennement Api.ai). Nous avons nos propres bibliothèques de pré-traitement d'entrée. –

0

Non, malheureusement, la reconnaissance vocale est totalement abstraction faite de vous, et j'ai eu aussi quelques défis en essayant d'avoir des noms, et tel, il parfois essayer de chercher un mot anglais similaire,

DialogFlow (formely Api.ai) ou quel que soit le framework que vous utilisez est utilisé plus tard de NLP (traitement du langage naturel) pour finalement traiter le texte et en extraire les mots-clés.Donc, ça ne fait pas vraiment partie de la partie discours-texte autant que je sache. Donc votre maison de google s'occupe de la parole au texte et envoie un texte à votre framework NLP qui prend soin de résoudre les grammaires, mais jusqu'à présent je pouvais résoudre tous mes problèmes avec API.ai c'est vraiment puissant.