Technologie
1 mai 2023 | 3h34
Bien avant qu’Elon Musk et le co-fondateur d’Apple, Steve Wozniak, ne signent une lettre avertissant que l’intelligence artificielle pose des « risques profonds » pour l’humanité, le physicien théoricien britannique Stephen Hawking a mis en garde contre la croissance rapide de la technologie.
« Le développement de l’intelligence artificielle complète pourrait signifier la fin de la race humaine », a déclaré Hawking à la BBC en 2014.
Hawking est décédé en 2018 à l’âge de 76 ans après avoir souffert de sclérose latérale amyotrophique (SLA) pendant plus de 55 ans. Bien qu’il ait des opinions critiques sur l’IA, il utilise également une forme de base de la technologie pour communiquer. Sa maladie, qui affaiblit ses muscles et oblige Hocking à utiliser un fauteuil roulant.
En 1985, Hawking était incapable de parler et s’appuyait sur divers moyens de communication, y compris un dispositif de génération de parole alimenté par Intel qui lui permettait d’utiliser des mouvements faciaux pour sélectionner des mots ou des lettres intégrés dans la parole.
Les commentaires de Hawking à la BBC en 2014 répondaient à une question sur la révision de la technologie vocale, qui, selon lui, pourrait sonner le glas de la race humaine. Il a déclaré à la BBC que les formes les plus élémentaires d’IA se sont déjà révélées puissantes, mais que la construction de systèmes qui rivalisent ou surpassent l’intelligence humaine serait catastrophique pour la race humaine.
« Il décolle et se remodèle à un rythme de plus en plus rapide », a-t-il déclaré.
« Les humains, limités par une évolution biologique lente, ne peuvent pas rivaliser et seront surpassés », a ajouté Hawking.
Quelques mois après sa mort, le dernier livre de Hawking est arrivé sur le marché. Son livre intitulé « Brief Answers to Big Questions » a fourni aux lecteurs des réponses à ses questions les plus fréquemment posées. Le livre Science a révélé l’argument de Hawking contre l’existence de Dieu, comment les humains pourraient un jour vivre dans l’espace, et ses craintes concernant le génie génétique et le réchauffement climatique.
L’intelligence artificielle était en tête de sa liste de « grandes questions », arguant que d’ici 100 ans, les ordinateurs « dépasseraient les humains en matière d’intelligence ».
« Nous sommes peut-être confrontés à une explosion de l’intelligence qui se traduira par une intelligence des machines dépassant celle des escargots », a-t-il écrit.
Il a fait valoir que les ordinateurs devraient être formés pour se connecter avec des cibles humaines, et que ne pas prendre au sérieux les risques associés à l’IA était « notre pire erreur ».
« Il est tentant de rejeter l’idée de machines superintelligentes comme de la simple science-fiction, mais c’est une erreur – et c’est notre pire erreur de tous les temps. »
Les commentaires de Hawking ont été repris cette année dans une lettre publiée en mars par le géant de la technologie Elon Musk et le co-fondateur d’Apple, Steve Wozniak. Les deux leaders technologiques, ainsi que des milliers d’autres experts, ont signé une lettre appelant à un moratoire d’au moins six mois sur le développement de systèmes d’IA plus puissants que le chatbot GPT-4 d’OpenAI.
« Les systèmes d’IA dotés d’une intelligence concurrente de l’homme pourraient poser de graves risques pour la société et l’humanité, comme le montrent des recherches approfondies et reconnus par les meilleurs laboratoires d’IA », indique la lettre publiée par l’association à but non lucratif Future of Life.
Le ChatGPT d’OpenAI est devenu la base d’utilisateurs à la croissance la plus rapide en janvier avec 100 millions d’utilisateurs actifs par mois alors que les gens du monde entier se précipitaient pour adopter le chatbot, qui simule des conversations de type humain en fonction de stimuli donnés. Le laboratoire a publié la dernière itération de la plate-forme, GPT-4, en mars.
Malgré les appels à suspendre la recherche dans les laboratoires d’IA travaillant sur une technologie qui surpasse GPT-4, la sortie du système a servi de moment décisif qui s’est répercuté sur l’industrie technologique et a incité diverses entreprises à se faire concurrence pour développer leurs propres systèmes d’IA.
Google réorganise également son moteur de recherche et en crée un nouveau qui s’appuie sur l’IA ; Microsoft a créé un « nouveau moteur de recherche Bing » décrit comme le « copilote alimenté par l’IA pour le Web » des utilisateurs ; Et Musk a déclaré qu’il lançait un système d’IA rival qu’il a décrit comme « recherchant un maximum de vérité ».
Au cours de l’année précédant sa mort, Hawking a conseillé au monde « d’apprendre à se préparer et à éviter les risques potentiels » associés à l’IA, arguant que les systèmes « pourraient être le pire événement de l’histoire de notre civilisation ». Cependant, il a noté que l’avenir est encore inconnu et que l’IA peut être utile à l’humanité si elle est correctement formée.
« Le succès dans la création d’une IA compétente pourrait être le plus grand événement de l’histoire de notre civilisation. Ou le pire. Nous ne savons pas. Par conséquent, nous ne pouvons pas savoir si nous serons infiniment aidés par l’IA, ou ignorés, marginalisés ou même en théorie détruit », a déclaré Hawking en 2017. lors d’un discours lors de la conférence technique du Web Summit au Portugal.
Accepter plus…
{{#isDisplay}}
{{/isDisplay}}{{#isAniviewVideo}}
{{/isAniviewVideo}}{{#isSRVideo}}
{{/isSRVideo}}