L'IA de surveillance de données de Facebook est activé sur Instagram
Facebook vient d'annoncer qu'il a développé un nouveau système d'intelligence artificielle (IA) appelé le SEER. C'est un nom qui sonne plutôt mal si vous me demandez, surtout si nous comprenons ce qu'il fait.
Aujourd'hui, la plupart des IA ne peuvent apprendre qu'avec une supervision humaine. Elles doivent être "alimentées" par de grands ensembles de données structurées. Et les programmeurs utilisent essentiellement des garde-fous et fournissent des conseils pour éviter que l'IA ne s'écarte trop de sa trajectoire.
Pas SEER.
Une IA sans garde-fous
Cette IA fonctionne selon ce que l'on appelle un modèle d'apprentissage autosurveillé. Il n'y a pas du tout de garde-fous.
Et Facebook vient de diffuser SEER sur un milliard d'images publiques d'Instagram. Il s'agissait de photos aléatoires que les utilisateurs d'Instagram ont publiés. Aucune d'entre elles n'a été étiquetée ou conservée. Le but était de voir si l'IA pouvait étiqueter et classer les images avec précision par elle-même.
Et bien sûr, SEER a surpassé tous les autres modèles d'IA avec un score de 84,2% de précision de classification. Il s'agit d'un test courant dans l'industrie lorsqu'il s'agit d'identifier des images et des objets. En comparaison, les systèmes d'IA les mieux supervisés ne peuvent atteindre qu'une précision de classification d'environ 80 %.
Il s'agit là d'une avancée majeure dans le domaine de l'IA.
Comment Facebook développe la surveillance de données de masse légalement ?
Les modèles d'IA autosupervisés suscitent l’intérêt des industries depuis des décennies. L'idée est que si les IA peuvent apprendre par elles-mêmes et se gouverner elles-mêmes, elles seront beaucoup plus efficaces. Et elles pourront potentiellement résoudre des problèmes d'une manière originale à laquelle les humains n'auraient pas pensé. C'est un objectif louable si elles sont utilisées à bon escient.
Mais arrêtons-nous une minute ici et posons-nous une question.
Facebook a-t-il obtenu l'autorisation des centaines de millions de personnes qui ont publié leurs photos pour aider à former son IA et, en fin de compte, en tirer profit ? Facebook les a-t-il même avertis de ce qui se passait ?
Bien sûr que non. Dans le contrat d'utilisation d'Instagram, il y a une clause qui dit que Facebook peut faire à peu près tout ce qu'il veut avec le contenu que les utilisateurs publient.
Il n'est pas difficile de voir comment les abus sont possibles ici.
La surveillance de données de masse est amorcée
L'idée que des entreprises comme Facebook - qui s'est avéré être un piètre gestionnaire des données de ses clients - puissent libérer des IA auto-supervisées sur nos données et nos photos est très effrayante. Cela pourrait porter les pratiques de surveillance des données, déjà troublantes, à un tout autre niveau.
Imaginez une IA qui exploite toutes les photos que quelqu'un a postées de nous sur une plateforme de médias sociaux, en utilisant la reconnaissance faciale, et génère des informations sur notre comportement. Il pourrait même s'agir d'une photo prise par quelqu'un il y a dix ans et que nous avons oubliée depuis longtemps.
Il n'est pas difficile de voir comment cela pourrait devenir incontrôlable.
Vers un nouveau modèle d'IA autosupervisées pour la surveillance de données ?
D’autres entreprises vont s'inspirer de ce modèle d'intelligence artificielle pour lancer leurs propres IA autosupervisées. Espérons qu'elles le feront à des fins bienveillantes et non en bafouant la vie privée de leurs clients.
La bonne nouvelle est que ce type d'approche de l'IA peut être utilisé pour résoudre des problèmes très complexes, et pas seulement pour vendre de la publicité en surveillant la vie des clients.
Comme je l'ai déjà dit, le cadre éthique entourant l'utilisation de la technologie de l'IA sera l'une des discussions les plus importantes de cette décennie. Et ceci est un excellent exemple de la raison pour laquelle il est essentiel d'aborder le rôle croissant que l'IA jouera dans nos vies.