Aller au contenu

Tts Sur Son Nas


Messages recommandés

  • Réponses 145
  • Créé
  • Dernière réponse

Meilleurs contributeurs dans ce sujet

Meilleurs contributeurs dans ce sujet

J'ai pas réussit à la faire pour le Français, j'ai utiliser le truc par internet mais cela n'a pas fonctionner (je veux dire par la qu'il ne reconnait plus bonjour toi)...

Je ne sais pas si l'on peut procéder comme cela pour une autre langue que l'anglais. Le soucis c'est l'histoire du modèle acoustique c'est l'application du modèle qui prends du temps la recherche dans le dictionnaire va relativement vite (si tu le fait avec l'anglais 8k cela prends 1- 2 secondes), par contre j'ai cru comprendre je sais plus trop ou que le modèle acoustique anglais basique pouvait être utiliser pour une autre langue pour peux que l'on crée un dictionnaire spécifique (c'est un peu comme demander de faire la différence entre des mots français c'est pas super précis mais pour des ordre simple cela doit fonctionner)

PS : Alors contrairement à ce que je pensais l'installation du SSD dans l'iMAc c'est fait sans problème par cotre j'ai quelques difficulté à réinstaller correctement Lion ....

Lien vers le commentaire
Partager sur d’autres sites

D’après ce que j'ai lu, lmtool, l'outil online, se base sur un dict anglais (cmudict) pour recréer le lm depuis les phonèmes. Sur mon PC via Python ça prend un rien de temps de reconnaître "new e-mail", "open browser", etc. Je pense que sur Syno ça doit être assez rapide aussi.

Les données française que l'on trouve sur le net sont issues de l'exploitation de milliers d'heures de son enregistré sur des chaines infos françaises il me semble. Je pense que l'on peut trouver plus efficace comme des heures d'enregistrement vocale. Le projet voxforge est en cours mais on dirait qu'il n'y a pas ou peu de contributions donc c'est au point mort.

Lien vers le commentaire
Partager sur d’autres sites

@Sp@ro, je viens de tout recompiler pour mettre sur mon Syno. Quand je lance j'obtiens ça :


>>> import pocketsphinx

Traceback (most recent call last):

  File "<stdin>", line 1, in <module>

  File "sphinxbase.pxd", line 138, in init pocketsphinx (pocketsphinx.c:6844)

ValueError: PyCapsule_GetPointer called with invalid PyCapsule object

Une idée ? Tu as eu ça ?

Pas de souci quand je lance pocketsphinx_continuous, sauf qu'au bout j'ai un message qui me dit que j'ai pas de device audio valide. (Webcam USB avec micro branchée mais comment je peux savoir si elle est reconnue?)

Lien vers le commentaire
Partager sur d’autres sites

Pour info le message d'erreur que j'ai montré plus haut ne s'affiche qu'avec Python 2.7, je crois qu'ils ont changé un truc dans les pointeurs/objets en 2.7. 2.6 c'est nikel

http://docs.activestate.com/activepython/2.7/python/whatsnew/2.7.html Voir partie "Capsules"

Modifié par Diaoul
Lien vers le commentaire
Partager sur d’autres sites

Bon, un petit retour sur Julius: Ca marche nikel, juste avec le support OSS je peux faire de la reconaissance en live. Ca fait moins brouillon que pocketsphinx et c'est super rapide avec un petit dico.

La doc est aussi mieux faite et le mode serveur est vraiment intéressant.

D'ailleurs speechd permet d'avoir une interface unique entre la reconaissance vocale (julius) et la synthèse vocale (flite/espeak) ce qui est bien pratique.

Cependant j'ai quelques soucis à le faire fonctionner, la cross-compilation passe bien mais j'ai un segfault à l'exécution sur le Syno. Et comme il a beaucoup de dépendances (espeak/flite/glib) c'est pas facile d'identifier la cause.

Ce qui est super cool c'est qu'il a un module python qui permet de manipuler la totale simplement! Autrement dit, passé la configuration, tout est faisable via python ce qui est bien pratique pour la création d'une application.

Je vous tiens au courant de mon avancement, la prochaine étape étant d'arriver à faire fonctionner tout ce beau monde individuellement en incluant dans mon SPK de tests les fichiers de configuration et langage models.

Puis de relier tout ça avec speechd et un scripts de test en python

Puis de faire une appli python avec quelques modules comme "météo".

Lien vers le commentaire
Partager sur d’autres sites

Super Diaoul.

Désolé je ne suis plus trop actif sur le thread que j'ai initié mais en ce moment je surchauffe côté boulot, a peine le temps de manger ;-()

Si tu as besoin de testeur Diaoul, je suis la aussi avec mon petit DS109.

Bravo encore pour votre boulot les gars

Lien vers le commentaire
Partager sur d’autres sites

En fait le décodage continue se fait par phrases donc dans une bouillie de paroles ça ne saura pas identifier un mot clé. Ce n'est pas du keyword spotting!

En revanche, lorsque le volume sonore augmente (quelqu'un parle), julius commence sa détection et s'arrête lorsque le volume redescend (fin de la parole). Durant cette période, la voix est analysée, cette analyse est rapide avec un petit dictionnaire (20 mots, 4 grammaires (phrases type)) en anglais est est plutôt fiable.

Le temps que je termine la phrase et moins de 1 seconde plus tard j'ai la transcription en texte.

Dans un environnement calme et avec un bon dictionnaire, on peut immaginer quelque chose comme :

- Dobby!

- Oui?

- La météo de demain s'il te plait

- Blablabla

J'envisage de faire un script Python à base de regexp comme me l'a suggéré Piwi pour catcher "météo" et "demain": ".*(météo|temps).*demain.*"

Cette phrase serait reliée a des actions via une table SQLite et les déclencherait dans l'ordre.

Voilà pour le fonctionnement global de l'appli que j'envisage. Bien sûr dès que je commencerai ça ce sera sur GitHub mais comme je l'ai dis dans un premier temps je vais essayer de faire fonctionner ça ensemble sans appli hein smile.png

Je ne travail qu'en anglais pour l'instant, on verra le français plus tard. Je ne veux pas de faux bugs parce que le français n'est pas abouti et/ou mal configuré.

Modifié par Diaoul
Lien vers le commentaire
Partager sur d’autres sites

Les dernières nouvelles sur mon Syno :

  • espeak : OK
  • flite : OK
  • julius : OK
  • speech-dispatcher : Compile avec le support espeak et flite mais me fait un vilain "Segmentation Fault" à l'exécution. Je vais passer un coup de gdb là dedans pour voir si ça vient pas d'une erreur quelque part

Si quelqu'un veut essayer de cross-compiler speech-dispacher de son coté ça pourrait permettre de comparer nos résultats :)

Lien vers le commentaire
Partager sur d’autres sites

Rejoindre la conversation

Vous pouvez publier maintenant et vous inscrire plus tard. Si vous avez un compte, connectez-vous maintenant pour publier avec votre compte.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.


×
×
  • Créer...

Information importante

Nous avons placé des cookies sur votre appareil pour aider à améliorer ce site. Vous pouvez choisir d’ajuster vos paramètres de cookie, sinon nous supposerons que vous êtes d’accord pour continuer.