Deux percées majeures dans le domaine du traitement du langage naturel ont attiré mon attention la semaine dernière. Ces développements annoncent la montée imminente des assistants numériques.
Facebook améliore l'apprentissage linguistique de l'IA
La première avancée est venue de Facebook. Le géant des médias sociaux a révélé une nouvelle méthode pour entraîner une intelligence artificielle (IA) à reconnaître et à comprendre la parole humaine sans supervision. Il s'agit d'une rupture majeure par rapport à la façon dont cela a été fait jusqu'à présent.
Historiquement, on apprenait à une IA à comprendre le langage parlé en jumelant des enregistrements vocaux avec une transcription écrite des mots prononcés. Cela permettait à l'IA de relier les deux et d'apprendre à comprendre le langage humain.
Bien qu'elle ait bien fonctionné, cette approche est très compliquée et prend beaucoup de temps. Elle exige que des personnes annotent et transcrivent manuellement les enregistrements vocaux. Ces enregistrements et transcriptions sont ensuite compilés dans des ensembles de données massifs dont le traitement nécessite une puissance de calcul incroyable.
La nouvelle approche de Facebook élimine ces problèmes. Elle permet à l'IA d'apprendre à reconnaître et à comprendre la parole à la volée. Et, bien sûr, l'IA s'améliore avec la pratique.
Google développe une IA qui s'adapte au langage
La deuxième avancée majeure de la semaine dernière est venue de Google. Il a révélé un nouveau modèle de langage appelé LaMDA. C'est l'abréviation de Language Model for Dialogue Applications.
Il aide l'IA à s'adapter aux conversations libres afin qu'elle apprenne à interagir avec les humains de manière organique.
Le LaMDA de Google est encore en phase de recherche et de développement, mais Google ne serait pas ouvert à ce sujet s'il n'était pas prêt à l'utiliser tout bientôt.
Si l'on combine les deux, on obtient la recette d'une explosion de la prolifération des assistants numériques. Nous parlons d'assistants numériques bien plus fonctionnels que ceux dont nous disposons aujourd'hui. C'était l'une de mes principales prédictions pour 2021.
Une nouvelle génération d'assistants numériques
À l'heure actuelle, Alexa d'Amazon, Siri d'Apple et d'autres assistants numériques ne peuvent effectuer que certaines tâches de base. Ils peuvent nous indiquer la météo. Ils peuvent jouer de la musique. Ils peuvent régler une alarme. Ils peuvent commander des produits pour nous et établir des rappels.
La fonctionnalité est large, mais elle n'est pas très sophistiquée.
Mais que se passerait-il si un assistant numérique pouvait faire des réservations à un restaurant à notre place ? Et s'il pouvait commander des fleurs ou des cadeaux pour les membres de notre famille en notre nom ?
Et s'il pouvait s'occuper de nos impôts ? Et s'il pouvait planifier, réserver et payer des vacances en famille sans que nous ayons à lever le petit doigt ?
C'est ce que nous réserve la prochaine génération d'assistants numériques. Ce sera comme si nous avions notre propre assistant personnel dans la vie réelle. Et ce jour arrive plus vite qu'on ne le pense.
En fait, je m'attends à voir des assistants numériques nouveaux et améliorés provenant d'entreprises comme Amazon, Apple, Facebook, Google et peut-être même Microsoft dans le courant de l'année.
Cela entraînera un profond changement dans notre qualité de vie. Les gens normaux pourront potentiellement libérer une heure ou deux par jour en se libérant de tâches fastidieuses dont la réalisation ne nécessite pas de grandes compétences.
Nos vies auront ainsi moins de frictions. Et nous aurons plus de temps pour nous détendre, faire de l'exercice ou nous engager dans d'autres activités productives.
J'ai hâte que ces produits arrivent sur le marché.