Cette semaine, j’ai eu envie d’innover un petit peu en testant GPT-3, l'un des plus gros modèles d’intelligence artificielle à ce jour en matière de génération de texte. C’est un modèle qui a été créé par la société américaine OpenAI en 2020 et qui ne compte pas moins de 175 milliards de paramètres !
Ce modèle a été entraîné avec du texte issu de partout sur le web (près de 500 mille milliards de mots !) et est capable de nombreuses tâches complexes comme, entre autres, générer du code informatique à la demande, proposer des idées, répondre à des questions philosophiques et même rédiger des articles sur tous types de sujets.
Je me suis donc demandé :
"Est-ce que ce modèle d’intelligence artificielle est capable de générer pour moi des articles de qualité sur l’investissement ?"
Et les résultats sont prometteurs, même si encore loin d'être suffisants à mes yeux.
Voici deux exemples de ce que j’ai pu obtenir simplement en écrivant le titre et en demandant au modèle de générer un article à partir de ce titre :
Exemple 1 généré par GPT-3 (OpenAI) :
Exemple 2 généré par GPT-3 (OpenAI) :
Pour le 1er exemple, il m’a répondu en anglais, ce qui est un peu bizarre mais montre bien sa capacité à passer d’une langue à l’autre. Le 2ème paragraphe est un peu hors de propos et il y a des imprécisions, comme par exemple le fait que la Suisse soit dans l’Union Européenne.
Pour le 2ème exemple, il a été capable de fournir une réponse intéressante, qu’il a dû apprendre de différentes sources sur le web en anglais, puisque la tournure du dernier paragraphe ressemble un peu à du Google Translate.
C’est à la fois effrayant et fascinant !
Les résultats ne sont pas encore suffisants à mes yeux pour générer de bons articles réellement intéressants car le modèle n’est pas capable de faire de raisonnement complexe. Il est seulement capable de restituer ses connaissances acquises au travers des informations disponibles sur internet.
Pour autant, il est assez difficile de discerner si c’est un humain ou une IA qui a écrit ces textes et on imagine que OpenAI et ses concurrents ne vont pas s’arrêter là et pousseront encore plus loin la technologie, ce qui donnera sûrement un jour la capacité à ce type de modèles à produire des raisonnements complexes.
Cela pose déjà de nombreux problèmes, à commencer par la prolifération de fake news ou encore des mauvaises recommandations : la start-up française Nabla a par exemple réalisé un chatbot médical avec GPT-3 et a constaté que le modèle recommandait aux patients simulés de se suicider...
Il faudra donc être extrêmement prudent avec ce genre d’outils et je vous invite à réfléchir aux conséquences de cette technologie.
Si vous souhaitez creuser le sujet, je vous recommande le livre AI 2041 du Dr. Kai-Fu Lee, un éminent chercheur en IA qui a travaillé pour Apple, Microsoft et Google avant de lancer son propre fonds de capital-risque en Chine.
Vous pouvez le commander ici : https://www.ai2041.com/
Cheers,
Flavien @ The Investor Group
Comments