L’IA et la fable de l’apprenti sorcier

Scientifique Francais
Scientifique français MidJourney 1. septembre 2022

L’IA pourrait-elle un jour dépasser son maître, c’est-à-dire les humains qui l’ont créé. Cette menace,  autant réelle et que fantasme fait dire à certains chercheurs qu’un moratoire s’impose. Pour Jean-Louis Fréchin, l’IA a surtout besoin d’une régulation mondiale.

Les productions des intelligences artificielles génératives suscitent fascination et inquiétude. L’analogie du poème de Goethe, où un apprenti sorcier délègue le remplissage d’une bassine à un balai magique qui ne s’arrête plus, provoquant une inondation, illustre la crainte que les créateurs soient dépassés par leur propre création.

L’intelligence artificielle (IA) se divise en deux types : les IA de Machine Learning, qui analysent des bases de données conséquentes, permettant aux ordinateurs d’apprendre par analogie statistique, sont par nature inexplicables et dépendantes de la qualité de leurs jeux de données. Les IA comme MidJourney ou Chat GPT, inexplicables, elles aussi, proposent un mimétisme statistique de l’image ou du langage. Le second type regroupe les IA symboliques qui ont pour hypothèse la reproduction du raisonnement humain au moyen de règles scientifiques, sociales ou culturelles programmées, permettant à la machine de prendre des décisions avec un résultat précis et explicable.

Une arme de falsification massive

Notre apprenti sorcier semble aujourd’hui dépassé par la rapidité avec laquelle ces intelligences se développent, l’absence de garde-fou, leurs nombreuses erreurs (hallucinations) et le manque de contrôle démocratique. Sam Altman, fondateur d’Open AI, s’interroge. Et une pétition mondiale lancée par des acteurs de l’IA, dont Elon Musk , demande un moratoire sur la recherche en IA.

Il est impératif de se poser des questions sur les pratiques et les dangers potentiels de l’IA. Soulignons d’abord les usages positifs dans la santé, l’éducation, l’industrie, les finances et l’audiovisuel. Mais les effets négatifs existent aussi, notamment sur les métiers intellectuels , tels que les professions artistiques, qui sont très vulnérables. La production de contenu par l’IA semble, à court terme, la plus dangereuse, car elle pourrait devenir une arme de falsification massive. Les journalistes, eux-mêmes fragilisés, pourront-ils lutter contre la propagation de ces infox diffusées sur les plateformes sociales mondiales ?

Il serait illusoire de tenter d’arrêter ces technologies, étant donné leur potentialité et les enjeux financiers et géopolitiques qu’elles représentent. Cependant, il est primordial de favoriser les débats publics, la connaissance et la définition de limites.

 Un organisme mondial

Nous devons définir des règles éthiques, sociales, législatives, environnementales et économiques au niveau européen et mondial pour prévenir les effets négatifs de l’IA. Par exemple, nous pourrions certifier les technologies, comme on le fait pour la santé ou l’aéronautique, valoriser la dimension explicable des IA, identifier la provenance et la nature des jeux de données, ainsi que la dimension open source des technologies utilisées.

Nous devons également encourager des exemples de design transparent, responsable et partenaire des utilisateurs comme celui proposé par Adobe avec son IA Firefly, dont la source d’image est publique et connue, mais aussi Bloom, le plus grand modèle linguistique multilingue ouvert pour le monde de la recherche. Enfin, un organisme mondial pour contrôler l’IA est peut-être nécessaire, a l’exemple de l’AIEA pour le nucléaire. Alors peut-être les apprentis sorciers de l’IA deviendront des sages informés et responsables.

Jean-Louis Fréchin est directeur de l’agence Nodesign.

 

Publication originale dans les Echos
4 Avril 2023 | Jean-Louis Frechin | Économie & société, science & prospective | Innovation | Tribune |

Be Sociable, Share!