Même les chatbots les plus avancés ne peuvent pas tenir une conversation décente, mais les systèmes d’IA s’améliorent définitivement pour générer le mot écrit. Une nouvelle application Web fournit une preuve suffisante, permettant à quiconque d’entrer une invite de texte à laquelle le logiciel d’IA répondra automatiquement.
Entrez le début d’un article de presse inventé, et il le terminera pour vous. Posez-lui une question (en formatant votre entrée comme ceci: « Q: Que dois-je faire aujourd’hui? »), et il répondra avec plaisir.
Le site s’appelle TalkToTransformer.com , et c’est la création de l’ingénieur canadien Adam King. King a créé le site, mais la technologie sous-jacente provient du laboratoire de recherche OpenAI. Plus tôt cette année, OpenAI a dévoilé son nouveau système de langage d’IA, GPT-2, et TalkToTransformer est une version allégée et accessible de cette même technologie, qui a été rendue accessible uniquement à certains scientifiques et journalistes dans le passé. (Le nom « transformateur » fait référence au type de réseau neuronal utilisé par GPT-2 et d’autres systèmes.)
Si vous voulez en savoir plus sur la génération de langages IA, il n’y a pas de meilleur moyen de comprendre son énorme potentiel et ses graves limites qu’en jouant avec TalkToTransformer.
Du côté positif, le modèle est incroyablement flexible. Il est capable de reconnaître une grande variété d’entrées, des articles de presse et des histoires aux paroles de chansons, poèmes, recettes, code et HTML. Il peut même identifier des personnages familiers de franchises comme Harry Potter et Le Seigneur des anneaux.
En même temps, vous verrez bientôt que, à un niveau fondamental, le système ne comprend pas la langue ni le monde en général. Le texte qu’il génère a une cohérence au niveau de la surface mais pas de structure à long terme. Lorsqu’il écrit des histoires, par exemple, des personnages apparaissent et disparaissent au hasard, sans cohérence dans leurs besoins ou leurs actions. Lorsqu’il génère un dialogue, les conversations dérivent sans but d’un sujet à l’autre. S’il obtient plus que quelques réponses, cela semble être de la chance, pas de la compétence.
Pourtant, comme l’expliquait The Verge dans notre couverture originale de GPT-2, ce système est extrêmement impressionnant. Rappelez-vous: il s’agit d’un algorithme unique qui a appris à générer du texte en étudiant un énorme ensemble de données extrait du Web et d’autres sources. Il a appris en recherchant des modèles dans ces informations, et le résultat est un système étonnamment multitalent.
Il n’est peut-être pas difficile de trouver des lacunes dans les connaissances de GPT-2, mais il est impossible de savoir si vous avez exploré les limites de ce qu’il peut faire.