Le phénomène "deepfake" prend de l'ampleur
Les lecteurs de longue date de L'investisseur Tech connaissent bien l'essor de la technologie "deepfake" et son utilisation pour fomenter des mensonges et des faussetés.
Cette technologie est rendue possible par une forme d'IA appelée deep learning qui peut superposer un visage à celui d'une autre personne.
Mais comme nous l'avons déjà dit, lorsque ces vidéos truquées ne sont pas annoncées, elles sont presque impossibles à détecter par un œil non entraîné.
Une technologie impressionnante et effrayante
Et ce que j'ai vu ces derniers jours indique qu'il y a eu une percée dans la technologie, ce qui est à la fois impressionnant et effrayant.
Curieusement, la technologie peut être vue dans une explosion de faux Tom Cruise sur les médias sociaux diffusés ces derniers jours. Regardez ça :
Source : Youtube
Ce n'est qu'une des nombreuses vidéos de ce qui semble être Tom Cruise qui ont fait surface récemment. Et ces vidéos sont incroyables. Elles ressemblent à Tom Cruise, mais elles ont été générées par l'IA.
Il n'y a pas d'imperfections sur le visage. Il y a beaucoup de mouvement dans les vidéos. La voix est exactement comme celle de Tom Cruise, et on a juste l'impression que c'est lui. Je suis étonné de voir à quel point elles sont bonnes. Le seul indice c'est que Cruise semble beaucoup plus jeune qu'il ne l'est en réalité aujourd'hui.
À part cela, il est impossible pour quelqu'un qui regarde de dire que les vidéos sont fausses.
Il est clair que la technologie de deep learning utilisé par l'IA derrière les vidéos truquées a énormément progressé depuis la dernière fois que nous en avons parlé.
Comment faire face aux utilisations malveillantes ?
Ces faux Tom Cruise n'ont rien de malveillants, mais ils ne sont en aucun cas Tom Cruise. Et Cruise n'a certainement pas autorisé leur production.
Il est très facile de voir comment les deepfakes peuvent être utilisés pour diffamer des personnalités publiques, détruire des réputations et effrayer le public ou l'amener à se comporter de manière irrationnelle. Et c'est une idée effrayante.
Le pire, c'est que nous n'avons pas de solution parfaite aux faux.
Une solution partielle consiste à toujours vérifier que les vidéos que nous regardons sur les médias sociaux ont été postées par des comptes vérifiés. À ce stade, nous devrions supposer qu'une vidéo est fausse si elle provient d'une source non vérifiée.
Mais la réalité est que la plupart des gens ne penseront pas à faire cela. S'ils voient une vidéo qui semble réelle, ils supposeront qu'elle l'est.
Nous sommes donc dans le pétrin. Cela va exacerber le problème que nous avons déjà de savoir quelles informations sont exactes et lesquelles ne le sont pas.
J'espère que la communauté technologique mettra au point un format de vérification du contenu vidéo pour confirmer les vraies vidéos par rapport aux fausses.
C'est une chose sur laquelle nous devons désespérément nous concentrer.