Spread the love

Un expert de TOP AI a émis un avertissement sévère pour nous tous sur l’extinction mondiale potentielle que la technologie d’intelligence artificielle surhumaine apportera.

Eliezer Yudkowsky est un chercheur de premier plan en IA et il affirme que “tout le monde sur terre mourra” à moins que nous n’arrêtions le développement de systèmes d’intelligence surhumains.

Yudkowsky pense que l'IA surhumaine nous tuera tous à moins que nous

3

Yudkowsky pense que l’IA surhumaine nous tuera tous à moins que nous “fermions tout”Crédit : Getty

3

“Nous ne sommes pas préparés”, prévient l’expert, et si nous continuons à former l’IA, les conséquences seront inimaginablesCrédit : Getty

L’homme de 43 ans est co-fondateur du Machine Intelligence Research Institute and (MIRI) et sait exactement à quel point cette technologie est “horriblement dangereuse”.

Il craint que lorsqu’il s’agit d’humains contre une intelligence plus intelligente qu’humaine, le résultat soit une “perte totale”, écrit-il dans TIME.

En tant que métaphore, dit-il, ce serait comme un “11e siècle essayant de combattre le 21e siècle”. En bref, les humains perdraient dramatiquement.

Le 29 mars, d’éminents experts d’OpenAI ont soumis une lettre ouverte intitulée “Pause Giant AI Experiments” qui exigeait une interdiction immédiate de six mois de la formation de puissants systèmes d’IA pendant six mois.

L'Italie devient le premier pays occidental à interdire le programme d'IA ChatGPT
Les

Il a été signé par des personnes comme le cofondateur d’Apple, Steve Wozniak, et Elon Musk.

Cependant, le théoricien américain dit avoir refusé de signer cette pétition car elle “demande trop peu pour la résoudre”.

La menace est si grande qu’il soutient que l’extinction par l’IA devrait être “considérée comme une priorité avant d’empêcher un échange nucléaire complet”.

Il prévient que le résultat le plus probable de la science robotique est que nous créerons “une IA qui ne fait pas ce que nous voulons et ne se soucie pas de nous ni de la vie sensible en général”.

Nous ne sommes pas prêts, admet Yudkowsky, à enseigner à l’IA comment être attentionné car nous “ne savons pas actuellement comment”.

Au lieu de cela, la dure réalité est que dans l’esprit d’un robot “vous êtes fait d’atomes qu’il peut utiliser pour autre chose”.

“Si quelqu’un construit une IA trop puissante, dans les conditions actuelles, je m’attends à ce que chaque membre de l’espèce humaine et toute vie biologique sur Terre meurent peu de temps après.”

Yudkowsky tient à souligner qu’actuellement “nous n’avons aucune idée de comment déterminer si les systèmes d’IA sont conscients d’eux-mêmes”.

Cela signifie que les scientifiques pourraient accidentellement créer des “esprits numériques qui sont vraiment conscients”, puis cela se glisse dans toutes sortes de dilemmes moraux selon lesquels les êtres conscients devraient avoir des droits et non être possédés.

Notre ignorance, implore-t-il, sera notre perte.

Comme les chercheurs ne savent pas s’ils créent une IA consciente de soi, alors, dit-il, “vous n’avez aucune idée de ce que vous faites et c’est dangereux et vous devriez arrêter”.

Yudkowsky affirme que cela pourrait nous prendre des décennies pour résoudre le problème de la sécurité dans l’intelligence surhumaine – cette sécurité étant “ne pas tuer littéralement tout le monde” – et pendant ce temps, nous pourrions tous être morts.

Le point central de l’expert est le suivant : “Nous ne sommes pas préparés. Nous ne sommes pas sur la bonne voie pour être prêts dans un laps de temps raisonnable. Il n’y a pas de plan.

“Les progrès dans les capacités de l’IA sont largement, largement en avance sur les progrès… dans la compréhension de ce qui se passe à l’intérieur de ces systèmes. Si nous faisons réellement cela, nous allons tous mourir.”

Pour éviter cette catastrophe bouleversante, Yudkowsky pense que le seul moyen est d’arrêter toute nouvelle formation sur la technologie de l’IA dans le monde entier sans “aucune exception, y compris le gouvernement et l’armée”.

Si quelqu’un rompt cet accord, l’expert en intelligence artificielle prouve son sérieux en disant que les gouvernements devraient “être prêts à détruire un centre de données voyou par une frappe aérienne”.

« Qu’il soit clair que quiconque parle de courses aux armements est un imbécile. Que nous vivions ou mourons tous comme un seul, en cela, n’est pas une politique mais un fait naturel.

Les fans de mode affluent vers Primark pour les dupes Birkenstock qui coûtent presque 60 £ moins cher
Je suis architecte d'intérieur - les règles des six chambres auxquelles vous devez vous tenir

En martelant son point, Yudkowsky termine par : « Si nous continuons sur ce point, tout le monde mourra ».

“Ferme-le.”

3

“Si nous allons de l’avant, tout le monde mourra”, déclare YudkowskyCrédit : Getty

Leave a Reply

Your email address will not be published.