L'humanité est menacée d'extinction à cause de l'intelligence artificielle - comment l'arrêter ?

Une fois de plus, un groupe d'éminents chercheurs et experts dans le domaine de l'intelligence artificielle et des entreprises technologiques ont averti que le développement rapide actuel de l'intelligence artificielle pourrait être catastrophique pour l'humanité.

Les risques comprennent les conflits nucléaires, les maladies, la désinformation et l'intelligence artificielle galopante qui manque de surveillance, qui constituent tous une menace directe pour la survie humaine. Vérifier Quel est le problème de l'augmentation des trombones et quelle est leur relation avec l'intelligence artificielle ?

L’image de l’humanité est en danger d’extinction à cause de l’intelligence artificielle – comment pouvons-nous l’arrêter ? | 1MotzviUKcc_X91VfH4ZiZQ-DzTechs

Mais gardez à l'esprit que bon nombre de ces avertissements proviennent des mêmes personnes qui sont à l'origine du développement de l'IA et des outils et logiciels d'IA dans leurs entreprises.

Pourquoi les entreprises technologiques et les experts mettent-ils en garde contre les dangers de l'intelligence artificielle ?

Le 30 mai 2023, plus de 350 chercheurs, développeurs et ingénieurs en IA ont publié une déclaration consolidée mettant en garde contre la menace que l'IA représente pour l'humanité.

L'atténuation de la menace d'extinction de l'humanité due à l'IA devrait être une priorité mondiale, au même titre que d'autres risques sociétaux tels que les pandémies et la guerre nucléaire.

des personnes qui ont signé la déclaration Sûr.ai Le PDG d'OpenAI Sam Altman, le PDG de Google DeepMind Demis Hassabis et le PDG d'Anthropic Dario Amodi, ainsi que les lauréats du prix Turing Jeffrey Hinton et Joshua Bengio (bien que Yan Likun, qui a également remporté le même prix, ait négligé de signer). La liste est à peu près le who's who du développement de l'IA - les personnes qui ouvrent la voie aux startups de l'IA - mais ici, ils se réunissent, avertissant que l'IA pourrait être catastrophique pour l'humanité.

Il s'agit d'une courte déclaration décrivant les menaces et mentionnant spécifiquement deux domaines majeurs qui pourraient menacer le monde tel que nous le connaissons : la guerre nucléaire et les problèmes de santé mondiaux. Alors que la menace d'un conflit nucléaire est une préoccupation, la menace d'une pandémie est une menace plus tangible pour la plupart des gens.

Cependant, ce n'est pas seulement une pandémie mondiale qui peut causer des problèmes de santé liés à l'IA. signalé Le journal The Guardian Il existe de nombreux autres problèmes de santé liés à l'IA qui pourraient affecter les humains s'ils ne sont pas étudiés avant une utilisation généralisée. Un exemple concernait l'utilisation d'oxymètres alimentés par l'IA qui "surestimaient les niveaux d'oxygène dans le sang chez les patients à la peau foncée, gérant mal leur hypoxie".

De plus, ce n'est pas la première fois qu'un groupe de leaders technologiques appelle à une pause ou à une réévaluation sérieuse du développement de l'IA. En mars 2023, Elon Musk et d'autres chercheurs en IA ont signé un appel à l'action similaire demandant que le développement de l'IA soit interrompu jusqu'à ce que davantage de réglementations soient mises en œuvre pour aider à guider le processus. Vérifier ChatGPT apprend-il des conversations des utilisateurs ?

Quels sont les risques de l'intelligence artificielle ?

La plupart des risques associés à l'IA, du moins dans ce contexte, sont liés au développement d'une technologie d'IA galopante qui dépasse les capacités des humains, qui finit par alimenter son créateur et éradiquer la vie telle que nous la connaissons. C'est une histoire qui a été couverte d'innombrables fois dans des livres de science-fiction, mais la réalité est maintenant plus proche que nous ne le pensons.

Les capacités des grands modèles de langage (qui prennent en charge des outils comme ChatGPT) connaissent une croissance exponentielle. Cependant, des outils comme ChatGPT présentent de nombreux problèmes, tels que des préjugés inhérents, des problèmes de confidentialité et des hallucinations d'IA, sans parler de leur capacité à jailbreaker pour fonctionner en dehors des limites des termes et conditions programmés.

Avec des modèles de langage plus volumineux et plus de points de données à contacter, ainsi qu'un accès à Internet et une meilleure compréhension des événements actuels, les chercheurs en IA craignent qu'un jour, selon les mots du PDG d'OpenAI, "les choses aillent mal".

Comment les gouvernements réglementent-ils le développement de l'intelligence artificielle pour stopper les risques ?

La régulation de l'intelligence artificielle est essentielle pour prévenir les risques. Début mai 2023, Sam Altman a appelé à davantage de réglementation de l'IA, déclarant que "l'intervention réglementaire des gouvernements sera essentielle pour atténuer les risques de modèles de plus en plus puissants".

Par la suite, l'UE a annoncé la loi sur l'intelligence artificielle, un règlement conçu pour fournir un cadre beaucoup plus solide pour le développement de l'IA dans l'UE (avec de nombreuses réglementations s'étendant à d'autres juridictions). Altmann a d'abord menacé de retirer OpenAI de l'Union européenne, mais a ensuite retiré sa menace et a accepté que l'entreprise adhère à la réglementation sur l'IA qu'il avait précédemment demandée.

Quoi qu'il en soit, il est clair qu'il est important de réglementer le développement et les utilisations de l'intelligence artificielle. Vérifier ChatGPT va-t-il devenir une menace pour la cybersécurité ? Voici ce qu'il faut surveiller.

L'intelligence artificielle va-t-elle détruire l'humanité ?

Parce qu'une grande partie de la discussion sur ce sujet est basée sur des hypothèses sur la force des futures versions de l'IA, il y a des problèmes concernant la longévité et la force que toute organisation d'IA peut avoir. Comment organiser au mieux une industrie qui bouge déjà très vite et fait des percées de développement chaque jour ?

De plus, il existe encore un certain scepticisme quant aux capacités de l'IA en général et à son aboutissement. Alors que tous ceux qui craignent le pire soulignent que l'IA est devenue humaine, d'autres soulignent le fait que les versions actuelles de l'IA ne peuvent même pas apporter de réponses aux questions informatiques de base et que les voitures autonomes restent encore loin.

Il est difficile de ne pas être d'accord avec tous ceux qui regardent vers l'avenir. Beaucoup de gens qui crient à haute voix à propos des problèmes que l'IA pourrait causer sont aux commandes, regardant vers où nous pourrions nous diriger. Si ce sont eux qui appellent à réglementer l'intelligence artificielle pour nous protéger d'un avenir apocalyptique, il est peut-être temps de bouger. Vous pouvez voir maintenant Quelques raisons de ne pas faire aveuglément confiance à l'IA.

Aller au bouton supérieur