fbk lkn
Édito Actualité Économie Diplomatie Entreprenariat Tribune Dossier Interview
Actualité INTELLIGENCE ARTIFICIELLE : LE CRI D’ALARME D’ELON MUSK ET DES EXPERTS DE LA TECH

Le patron de Twitter et des centaines de spécialistes ont signé un appel à une pause de six mois dans la recherche sur les intelligences artificielles plus puissantes que la dernière version de ChatGPT. Ils s’inquiètent des menaces sur l’emploi, de la désinformation et du risque de perdre le contrôle de notre civilisation. 

L ’IA nous conduit-elle à notre perte ? C’est la question de fond que posent Elon Musk et d’autres experts de l’intelligence artificielle. Dans un courrier signé par plus de 1 100 signataires diffusé mercredi matin, dont le milliardaire patron de Twitter, mais aussi Steve Wozniak, cofondateur d’Apple, Gary Marcus, professeur spé- cialiste de l’IA, Yoshua Bengio, un universitaire réputé, Noam Shazeer, fondateur de Character. AI, Emad Mostaque, fondateur de Stability AI, parmi bien d’autres, les spécialistes appellent les laboratoires d’IA à faire une pause. 

Précisément, ils proposent d’interrompre immédiatement, pendant au moins six mois, la formation de systèmes d’IA plus puissants que GPT-4, la dernière version du robot conversationnel d’OpenAI, qui a révélé le pouvoir de l’intelligence artificielle. « Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clés. Si une telle pause ne peut être mise en place rapidement, les gouvernements doivent intervenir et instaurer un moratoire », écrivent-ils. La réaction de Microsoft, qui a lourdement investi dans OpenAI, sera intéressante. 

Les experts du secteur, études académiques à l’appui, s’inquiètent que l’on aille trop loin. « Les systèmes d’IA dotés d’une intelligence compétitive avec celle de l’homme peuvent présenter des risques profonds pour la société et l’humanité, comme le montrent des recherches approfondies. [...] L’IA avancée pourrait représenter un changement profond dans l’hitoire de la vie sur Terre et devrait être planifiée et gérée avec l’attention et les ressources nécessaires », expliquent-ils dans ce courrier disponible sur le site de Future of Life Institute, une organisation à but non lucratif étudiant les risques et apports de la technologie. Ils évoquent une course incontrôlée des laboratoires « pour développer et déployer des systèmes numériques toujours plus puissants, que personne – pas même leurs créateurs – ne peut comprendre, prédire ou contrôler de manière fiable ». 

Les signataires posent plusieurs questions fondamentales. Devons-nous laisser les machines inonder nos canaux « de propagande et de mensonges » ? Ce qui fait écho à plusieurs études sur les risques de l’IA en termes de « fake news ». Devrions-nous automatiser tous les emplois ? s’interrogent-ils encore. Ce qui, là aussi, rappelle les craintes, appuyées par des études comme celle, récente, de Goldman Sachs sur le fait que l’IA pourrait menacer 300 millions d’emplois dans le monde. 

Protocoles de sécurité 

Comme dans les scénarios de films de science-fiction, ils vont même jusqu’à s’interroger : devons-nous développer des systèmes non humains qui pourraient un jour être plus nombreux, plus intelligents, et nous remplacer ? « Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus. Les systèmes d’IA puissants ne doivent être développés que lorsque nous sommes convaincus que leurs effets seront positifs et que leurs risques seront gérables », précise la lettre. 

Les tenants de cette interruption proposent que les laboratoires d’IA profitent de ce temps pour élaborer un ensemble de protocoles de sécurité partagés pour la conception et le développement d’IA avancées, rigoureusement contrôlés et supervisés par des experts indépendants. 

Le dirigeant d’OpenAI lui-même “un peu effrayé” 

La lettre arrive à un moment où les inquiétudes sont de plus en plus fortes, alors que l’IA avance à une vitesse impressionnante – GPT-4 est sorti en mars, quelques mois à peine après la précédente version de ChatGPT qui avait fait le buzz. Déjà, Elon Musk – à l’origine investisseur d’OpenAI et qui aurait cherché à en avoir le contrôle en vain, selon Semafor – avait fait part de ses réserves sur les menaces possibles de l’IA. Et Sam Altman, le patron d’OpenAI, concepteur de ChatGPT, a lui-même reconnu être « un petit peu effrayé » par sa création si elle était utilisée pour de « la dé- sinformation à grande échelle ou des cyberattaques ». « La société a besoin de temps pour s’adapter », avait-il déclaré à ABCNews mi- mars, même s’il n’est pas signataire de la lettre. À ce propos, selon le « FT », aucun expert se revendiquant d’OpenAI n’a signé ce courrier. 

En outre, cette semaine, l’agence de police européenne Europol a averti sur le risque que les criminels tirent parti de l’IA, notamment dans la cybercriminalité. En face, la réglementation sur l’IA n’en est qu’à ses débuts. Un projet de règlement européen est dans les tuyaux. « Ce courrier est de nature à accélérer la régulation », note Jonathan Rofé, avocat chez DLA Piper. La lettre de Musk et d’autres experts contraste en tout cas avec celle de Bill Gates, il y a quelques jours. Tout en relevant les menaces potentielles de l’IA, le cofondateur de Microsoft affirmait que ChatGPT était la plus grande révolution technologique depuis les années 1980 et mettait en avant son apport potentiel pour réduire les inégalités. 

UN CASSE-TÊTE POUR LES RÉGULATEURS 

L’utilisation de l’IA dans une myriade de secteurs, sa complexité et son adoption très rapide rendent toute régulation très difficile. L’Europe et certains États américains commencent à s’attaquer au problème. 

Comment réguler l’intelligence artificielle (IA) ? La rapidité avec laquelle les entreprises annoncent depuis quelques mois vouloir se saisir de robots conversationnels tels que ChatGPT pose la question. Le débat était déjà monté d’un cran ces dernières semaines, notamment avec la prolifération de fausses images, comme celle du pape en doudoune blanche, créées par des logiciels d’IA générative type Dall-E ou Midjourney. Comme souvent en matière d’innovations, les entreprises s’emparent des technologies et la réglementation suit. 

Mais les pouvoirs transformants des dernières avancées de l’IA posent des problèmes à une toute autre échelle. Au point que mercredi, des experts et personnalités de cette industrie emmenés par Elon Musk ont appelé, dans une lettre ouverte (lire ci-contre), à geler pendant six mois les développements de l’IA, le temps de régler ses problèmes éthiques et sociétaux. 

Vide juridique 

Aujourd’hui, l’IA prospère dans un certain vide juridique. Certes, « il y a des poches de régulation », explique Winston Maxwell, directeur d’études Droit et Numérique à Télécom Paris. Par exemple, les logiciels d’IA qui moulinent des données personnelles doivent respecter le RGPD européen. Dans la santé, l’automobile ou encore la banque, son utilisation commence aussi à être encadrée. Mais pour autant, « toute régulation chapeau est très compliquée », reprend l’expert. 

Car contrairement à d’autres technologies, comme la 5G ou le cloud, il n’y a pas une IA mais des IA. Et les usages sont multiples : la reconnaissance faciale pour déverrouiller son smartphone ne pose pas les mêmes enjeux que la construction d’algorithmes « biaisés ». « Certains usages n’ont pas besoin d’être régulés », estime Virginie Mathivet, docteure en intelligence artificielle. Par ailleurs, la recherche dans le domaine progresse très rapidement. En quatre mois, OpenAI a fait des pas de géant avec son célèbre robot conversationnel ChatGPT. Le risque, comme souvent dans le numérique, est donc de mettre au point une régulation vite dépassée. 

Une approche au cas par cas 

Malgré ces difficultés, les régulateurs commencent à se saisir du dossier. « Depuis un an, ça bouillonne », confirme Virginie Mathivet. À ce stade, l’Europe, avec le futur règlement AI Act présenté en avril 2021, est le seul continent à avoir bien avancé. Il s’agit d’une approche au cas par cas, centrée sur les risques les plus problé- mati- ques de l’IA. Le règlement devrait être discuté dans les tout prochains mois pour une application en 2025. Précisément, le projet de règlement prévoit d’encadrer les systèmes d’IA en fonction des risques. Le texte distingue plusieurs catégories : les risques inacceptables – menace pour la sécurité, les droits des personnes, etc., pour lesquels les outils d’IA sont interdits –, les risques élevés, les risques limités et les risques minimes (applications de l’IA dans des jeux vidéo...). L’IA générative comme ChatGPT devrait entrer dans la catégrie des hauts risques, selon les amendements déposés à ce stade. Si cela est confirmé, « cela induirait un nombre important d’obligations et de contraintes à la charge de l’ensemble des acteurs de la chaîne et notamment du fournisseur d’IA générative [comme OpenAI, NDLR] », explique Jeanne Dauzier, avocate chez DLA Piper. Ce dernier devra s’assurer que son système présente toutes les garanties né- cessaires en termes notamment de transparence, de sécurité, de fiabilité, et obtenir une validation par la Commission européenne. 

Concrètement, « la Commission européenne ne va pas déclarer conforme un outil s’il y a des biais », explique la spécialiste. « On pourrait imaginer qu’ils doivent utiliser des systèmes de modération automatique évitant les informations problé- matiques », ajoutent Matthieu Lucchesi et Julien Guinot-Deléry, chez Gide. Parallèlement, les entreprises intégrant des logiciels d’IA (un cabinet d’avocats, un média, etc.) devront arrêter de les utiliser en cas de suspicion. « Ce qui va les contraindre à mettre en place des procédures précises », reprennent les deux experts. Le projet de règlement est accompagné de deux directives qui, elles, sont axées sur les responsabilités applicables, en cas de dommages notamment. Pas de consensus au niveau fédéral aux États-Unis, 

 

Aux États-Unis en revanche, la régulation de l’IA est encore balbutiante. La Maison-Blanche a publié un « AI Bill of Rights » mais qui n’est pas contraignant pour l’instant. Au niveau fédéral, précisent des experts, il est peu probable que le Congrès se mette d’accord sur un texte global sur l’IA, sur le modèle du texte de loi européen. Ce qui n’a pas empêché des élus de déposer des propositions de loi visant à en réguler certains aspects, dont la reconnaissance faciale. 

En attendant, plusieurs États ont voté des lois limitant l’utilisation de cette technologie dans des cas précis : ainsi, l’État du Colorado restreint l’usage de la reconnaissance faciale par les services de l’Etat. Dans l’Illinois, les entreprises qui utilisent l’IA pour recruter doivent partager des données sur l’ethnicité des personnes qui ont été embauchées et celles qui ont été rejetées. En Californie, une tentative de législation vise, de même, à rendre légalement responsables les entreprises qui utilisent l’intelligence artificielle pour trier les candidats à un poste. L’État, où sont implantées de nombreuses entreprises travaillant à des outils de pointe utilisant l’IA, veut aussi mieux contrôler l’usage de cette technologie par le secteur public. 

le 23 avril 2023

La rédaction

Intelligence artificielle, Technologie, ChatGPT


Plus d’articles dans Actualité Qui possède les câbles sous-marins reliés au continent ?

Actualité par Jeune Afrique

Internet en Afrique 

27 novembre 2023


Programme Air France à compter de novembre

Actualité par La rédaction

L’Airbus A350 arrive en force à Libreville

20 novembre 2023


En moins de deux ans, + de 1 000 véhicules et + de 200 clients

Actualité par Anne-Marie Jobin

Interview de Loïc Kapitho, cofondateur et directeur général de Pozi

8 novembre 2023

© 2023. Les Échos de l'Éco. Tous droits réservés
Mentions légales