J’ai rencontré le concept de Deep Writing en échangeant avec Max Deutsch après avoir découvert son site https://medium.com/deep-writing . Les articles sont en anglais mais il y parle de façon simple et intéressante de son expérience concernant la génération automatique de textes en utilisant un corpus de texte existant (input). Pour générer un texte nouveau, cette opération se passe en deux temps : traitement du corpus (train) puis génération d’un texte (sample), Max utilise le code source suivant : https://github.com/hunkim/word-rnn-tensorflow
Pour ma part et avant de trouver le site de Max Deutsch, j’avais utilisé les sources d’Andrej Karpathy. Il a été le chercheur à la base de la réflexion sur la génération automatique de textes en utilisant notamment les derniers travaux de recherche en Intelligence Artificielle – et dont on parle beaucoup en ce moment – les réseaux de neurones : Recurrent Neural Networks qu’on connaît sous l’abréviation RNNs (1) https://github.com/karpathy/char-rnn
Pour Max Deutsch, la qualité du texte en sortie dépend essentiellement de la taille du fichier de corpus qui est traité par les algorithmes, nous le verrons par la suite par la pratique. J’ai l’intuition que sa mise en forme participe également de cette qualité, à vérifier…
1) Les travaux de recherche d’Andej Karpathy sont passionnants, voir le document par lequel tout a commencé pour moi : http://karpathy.github.io/2015/05/21/rnn-effectiveness/
Contact Michel Pintaud : pintaudm.dwg@gmail.com