Hidden Markov Model - Conclusion

En bref

Les HMM sont des modèles statistiques très puissants qui trouvent des applications dans de multiples domaines.

Nous avons déjà évoqué la reconnaissance vocale : il s'agit de faire correspondre une séquence de phonèmes (la séquence d'observations) avec une séquence de mots (la séquence d'états cachés).

De façon générale, un HMM permet de retrouver des informations cachées que l'on sait liées à des informations observables. Voici quelques exemples d'applications :
    - L'analyse cryptographique ;
    - La traduction automatique ;
    - La recherche de virus polymorphe ;
    - La reconnaissance d'écriture manuscrite ;
    - La bio-informatique ;
    - L'analyse financière ;
Et bien d'autres...

Sources

Voici les 3 sources documentaires que j'ai utilisées pour construire ce site.
Ces sources vont beaucoup plus loin dans le coté mathématique et algorithmique des HMM, elle sont en anglais :
L'article Wikipedia(en) sur les HMM :
    http://en.wikipedia.org/wiki/Hidden_Markov_model
L'article Wikipedia(en) sur l'algorithme de Viterbi :
    http://en.wikipedia.org/wiki/Viterbi_algorithm
L'article d'un professeur de l'université de San José à propos des HMM, il contient entre autre le pseudo-code complet du Baum-Welch :
    http://www.cs.sjsu.edu/~stamp/RUA/HMM.pdf

De plus, vous pouvez télécharger la présentation de l'exposé d'origine (PDF)