Devrions-nous arrêter de former une IA avancée ?
Commeintelligence artificielle (IA)continue d'avancer, certaines personnalités clés du domaine appellent désormais à la suspension de la formation à l'IA en raison du risque qu'elle fait peser sur l'humanité. Le PDG de Twitter, Elon Musk, le co-fondateur d'Apple, Steve Wozniak, et certains chercheurs de DeepMind ont signé une lettre ouverte du Future of Life Institute demandant la suspension temporaire du développement de l'IA au-delà d'une certaine capacité, avertissant des risques potentiels posés par des systèmes plus avancés. . La lettre affirme que ces derniers mois ont vu les laboratoires d'IA enfermés dans une course incontrôlable pour développer des esprits numériques plus puissants, que même leurs créateurs ne peuvent pas comprendre, prédire ou contrôler.
L'Institut du futur de la vie est une organisation à but non lucratif qui vise à éloigner les technologies transformatrices des risques extrêmes à grande échelle et à profiter à la vie. Dans sa lettre ouverte, l'organisation déclare que les systèmes d'IA dotés d'une intelligence compétitive humaine posent de graves risques pour la société et l'humanité. La lettre avertit que de tels systèmes pourraient inonder les canaux d'information de désinformation et remplacer les emplois par l'automatisation. Les IA avancées doivent être développées avec soin, mais au lieu de cela, ces derniers mois, les laboratoires se sont précipités pour déployer des systèmes toujours plus puissants.
La banque d'investissement Goldman Sachs a récemment publié un rapport indiquant que même si l'IA augmentera probablement la productivité, des millions d'emplois pourraient devenir automatisés. Cependant, d'autres experts affirment que l'effet de l'IA sur le marché du travail est difficile à prévoir. Dans la lettre, le Future of Life Institute demande : « Devrions-nous développer des esprits non humains qui pourraient éventuellement être plus nombreux, plus intelligents, obsolètes [sic] et nous remplacer ? Le professeur Stuart Russell de l'Université de Californie à Berkeley, et signataire de la lettre, a déclaré à BBC News que les systèmes d'IA présentent des risques importants pour la démocratie par la désinformation militarisée, pour l'emploi par le déplacement des compétences humaines et pour l'éducation par le plagiat et la démotivation.
La lettre met également en garde contre la menace future potentielle pour le contrôle humain sur notre civilisation par les IA avancées, mais le professeur d'informatique de Princeton, Arvind Narayanan, a critiqué la lettre pour avoir ignoré la version du problème qui nuit déjà aux gens. Il a accusé la lettre de se concentrer sur "un risque spéculatif et futuriste". OpenAI, la société à l'origine de ChatGPT, a récemment lancé GPT-4, une technologie de pointe qui a impressionné les observateurs par sa capacité à effectuer des tâches telles que répondre à des questions sur des objets dans des images.OpenAIn'a pas commenté publiquement la lettre.
Compte tenu des risques potentiels associés aux progrès rapides de l'IA, les experts appellent à une plus grande prudence dans le développement de l'IA. En particulier, ils exhortent les laboratoires à suspendre immédiatement pendant au moins six mois la formation des systèmes d'IA plus puissants que GPT-4. Alors que l'IA a le potentiel de transformer la société, les experts affirment qu'une telle transformation ne devrait pas se faire au détriment de la sécurité et du contrôle humains.
À long terme, prendre des précautions raisonnables est un petit prix à payer pour atténuer les risques posés par les IA avancées. Cependant, les experts affirment également que les risques sont difficiles à prévoir et que nous devons procéder avec prudence pour éviter des conséquences imprévues. Le Future of Life Institute exhorte les développeurs d'IA à considérer les implications futures potentielles de leur travail et à s'assurer que les IA avancées sont développées avec soin.
Dans l'ensemble, l'appel à suspendre la formation en IA au-delà d'une certaine capacité reflète une inquiétude croissante concernant les risques posés par les IA avancées. Bien qu'il y ait encore beaucoup de choses que nous ignorons sur les implications à long terme de l'IA, les experts appellent à la prudence pour éviter tout dommage potentiel à la société et à l'humanité. Le rythme rapide du développement de l'IA au cours des dernières années a laissé de nombreux experts inquiets que la technologie puisse être hors de contrôle et que nous risquions de créer des systèmes que nous ne pouvons pas comprendre ou contrôler. En tant que tel, l'appel à suspendre le développement de l'IA est une étape nécessaire pour garantir que nous pouvons exploiter le potentiel de l'IA de manière sûre et responsable.