Façons dont les gouvernements peuvent réglementer les outils d'IA

Qu'il devrait y avoir des réglementations dédiées pour réglementer les technologies d'IA est une notion courante. La plupart des gouvernements, des développeurs de produits d'IA et même des utilisateurs ordinaires l'acceptent. Malheureusement, la meilleure façon d'organiser ce domaine en croissance rapide est une énigme qui n'a pas encore été résolue.

Si elles ne sont pas contrôlées, les technologies de l'IA peuvent avoir un impact négatif sur notre mode de vie et menacer notre existence même. Mais comment les gouvernements peuvent-ils naviguer dans le dédale des défis qui accompagnent ce domaine en évolution rapide et faire face aux obstacles qui les attendent ? Vérifier L'humanité est menacée d'extinction à cause de l'intelligence artificielle - comment l'arrêter ?

Intelligence artificielle | Outils d'intelligence artificielle 1 | 1ajn7JXu35Tz JigsCRdb5Q DzTechs

1. Règles de confidentialité et de protection des données

Intelligence artificielle | Outils d'intelligence artificielle 2 | 1vT3rJk8miwMqA9VpnWoihA DzTechs

La confidentialité et la sécurité des données sont l'une des principales préoccupations des technologies d'IA. Les systèmes d'intelligence artificielle sont des modèles avides d'accès à diverses données. Ils ont besoin de données pour fournir des réponses appropriées et accomplir diverses tâches, pour être efficaces et pour améliorer leurs capacités. Bien que ce ne soit apparemment pas un problème, la manière dont ces données sont obtenues, leur nature et la manière dont elles sont traitées et stockées est l'un des plus grands sujets de débat concernant la réglementation de l'IA.

Compte tenu de cela, la voie logique à suivre est de mettre en place des réglementations strictes en matière de confidentialité des données qui régissent la manière dont les données sont collectées, stockées et traitées, ainsi que les droits des individus - dont les données sont utilisées - à les contrôler. Les questions auxquelles ces réglementations sont susceptibles de répondre sont les suivantes :

  1. Quel type de données peut-on collecter ?
  2. Faut-il considérer certaines données privées parmi celles auxquelles l'IA ne devrait pas accéder ?
  3. Comment les entreprises d'IA doivent-elles gérer les données personnelles sensibles, telles que les dossiers de santé ou les informations biométriques ?
  4. Les entreprises d'IA devraient-elles mettre en place des mécanismes permettant aux individus de demander facilement la suppression ou la correction de leurs données personnelles ?
  5. Quelles sont les conséquences pour les entreprises d'IA qui ne respectent pas les réglementations sur la confidentialité des données ? Comment la conformité doit-elle être contrôlée et comment l'application doit-elle être assurée ?
  6. Peut-être plus important encore, quelle norme les entreprises d'IA devraient-elles appliquer pour garantir l'intégrité de la nature sensible des informations qu'elles détiennent ?

Ces questions et quelques autres ont été au cœur de la raison pour laquelle ChatGPT a été temporairement interdit en Italie. Si ces préoccupations ne sont pas résolues, le domaine de l'IA pourrait être le fléau de la confidentialité des données, et l'interdiction de l'Italie pourrait se transformer en un modèle d'interdiction adopté par d'autres pays du monde. Vérifier Quelques mythes courants sur l'intelligence artificielle qui ne sont pas vrais.

2. Développer un cadre éthique pour l'IA

Intelligence artificielle | Outils d'intelligence artificielle 3 | 1Hih3Ft9DYQY48Q3O6buyGg DzTechs

Les entreprises d'IA sont souvent fières d'adhérer à des directives éthiques dans le développement de systèmes d'IA. Au moins sur le papier, ils sont tous partisans du développement responsable et éthique de l'IA. Dans les médias, les dirigeants de Google ont souligné à quel point l'entreprise prend très au sérieux la sécurité et l'éthique de l'IA. De même, « IA sûre et éthique » est la devise du PDG d'OpenAI, Sam Altman. Ce qui est très louable.

Mais qui établit les règles ? Qui décide quelles directives éthiques en matière d'IA sont suffisamment bonnes ? Qui décide à quoi ressemble le développement d'une IA sûre ? À l'heure actuelle, il semble que chaque entreprise d'IA ait son propre rôle dans le développement d'une IA responsable et éthique. OpenAI, Anthropic, Google, Meta, Microsoft, tout le monde. Se fier simplement aux entreprises d'IA pour faire ce qu'il faut est dangereux.

Les conséquences d'un espace d'IA non supervisé pourraient être catastrophiques. Permettre aux entreprises individuelles de décider quelles directives éthiques adopter et lesquelles éviter, c'est comme faire du somnambulisme sur la route de l'apocalypse de l'IA. la solution? Un cadre éthique clair pour l'IA garantit :

  1. Les systèmes d'IA ne nuisent pas ou ne discriminent pas injustement certains individus ou groupes sur la base de la race, du sexe ou du statut socio-économique.
  2. Les systèmes d'IA sont sûrs et fiables et minimisent le risque de conséquences imprévues ou de comportements nuisibles.
  3. Les systèmes d'IA sont conçus en gardant à l'esprit l'impact sociétal plus large des technologies d'IA.
  4. Que les humains conservent le contrôle ultime sur les systèmes d'IA et prennent leurs décisions de manière transparente.
  5. Les systèmes d'IA sont intentionnellement limités de manière à être bénéfiques pour les humains.

Vérifier Les raisons pour lesquelles les problèmes de sécurité de l'IA générative s'aggravent.

3. Une agence de régulation dédiée

Intelligence artificielle | Outils d'intelligence artificielle 4 | 1dGxgQldglPKNujCXhDu9XA DzTechs

En raison de son impact potentiel sur la civilisation humaine, la discussion sur la sécurité de l'IA est généralement parallèle à la menace d'une crise sanitaire ou d'une catastrophe nucléaire. Éviter d'éventuels accidents nucléaires nécessitait une agence dédiée telle que la NRC (Nuclear Regulatory Commission) américaine. Alors qu'afin d'éviter les risques de graves crises sanitaires a nécessité la mise en place de la Food and Drug Administration (FDA)

De même, pour s'assurer que l'IA ne se trompe pas, une agence dédiée semblable à la Food and Drug Administration et au Comité norvégien pour les réfugiés est essentielle, car l'IA continue de faire de grands progrès dans tous les domaines de notre vie. Malheureusement, la question de la réglementation de l'IA dans le pays est difficile. Le fonctionnement d'une agence de régulation dédiée risque d'être très difficile sans coopération transfrontalière. Tout comme la Nuclear Regulatory Commission (NRC) des États-Unis doit travailler aux côtés de l'Agence internationale de l'énergie atomique (AIEA) pour être à son meilleur, toute agence de réglementation dédiée à l'IA dans le pays a également besoin d'un homologue international.

Cette agence sera chargée de :

  1. Développer des systèmes d'intelligence artificielle.
  2. Assurer la conformité et l'application.
  3. Superviser le processus d'examen éthique des projets d'IA.
  4. Collaboration transnationale sur la sécurité et l'éthique de l'IA.

4. Aborder les questions de droit d'auteur et de propriété intellectuelle

Intelligence artificielle | Outils d'intelligence artificielle 5 | 1U MIrIlZJvZ3j2iHKubjtg DzTechs

Les lois sur le droit d'auteur et les cadres juridiques existants s'effondrent face à l'IA. La façon dont les outils d'IA, en particulier les outils d'IA générative, sont conçus donne l'impression qu'il s'agit d'une machine de violation du droit d'auteur sanctionnée publiquement contre laquelle vous ne pouvez rien faire.

comment ? Eh bien, de nombreux systèmes d'IA d'aujourd'hui sont formés à l'aide de matériaux protégés par le droit d'auteur. Vous savez, les articles protégés par le droit d'auteur, les chansons protégées par le droit d'auteur, les images protégées par le droit d'auteur, etc. C'est ainsi que des outils comme ChatGPT, Bing AI et Google Bard peuvent faire les choses intéressantes qu'ils font.

Bien que ces systèmes tirent clairement parti de la propriété intellectuelle des personnes, la façon dont ces systèmes d'IA le font n'est pas différente de celle d'un humain lisant un livre protégé par le droit d'auteur, écoutant des chansons protégées par le droit d'auteur ou regardant des images protégées par le droit d'auteur.

Vous pouvez lire un livre protégé par le droit d'auteur, en apprendre de nouveaux faits et utiliser ces faits comme base pour votre propre livre. Vous pouvez également écouter une chanson protégée par des droits d'auteur pour vous inspirer pour créer votre propre musique. Dans chaque cas, j'ai utilisé du matériel protégé par le droit d'auteur, mais cela ne signifie pas nécessairement que le produit dérivé enfreint le droit d'auteur de l'original.

Bien qu'il s'agisse d'une explication logique du chaos que les technologies de l'IA causent aux lois sur le droit d'auteur, cela nuit toujours aux titulaires de droits d'auteur et de propriété intellectuelle. Dans ce contexte, la réglementation est nécessaire pour :

  1. Définir clairement la responsabilité et les responsabilités de toutes les parties impliquées dans le cycle de vie d'un système d'IA. Cela comprend la clarification des rôles de chaque partie, des développeurs d'IA aux utilisateurs finaux, afin de s'assurer que les parties responsables sont tenues responsables de toute violation du droit d'auteur ou d'autres violations de la propriété intellectuelle commises par les systèmes d'IA.
  2. Renforcer les cadres de droit d'auteur existants et éventuellement introduire des lois sur le droit d'auteur pour l'IA.
  3. Pour garantir l'innovation dans l'IA tout en protégeant les droits des créateurs originaux, la réglementation de l'IA doit redéfinir les concepts d'utilisation équitable et de travail de transformation dans le contexte du contenu généré par l'IA. Des définitions et des lignes directrices plus claires sont nécessaires pour garantir que l'espace de l'IA puisse continuer à s'améliorer tout en respectant les limites du droit d'auteur. Il est nécessaire de trouver un équilibre entre l'innovation et la préservation des droits des créateurs de contenu.
  4. Des voies claires pour la coopération avec les titulaires de droits. Si les systèmes d'IA doivent de toute façon utiliser la propriété intellectuelle des personnes, il doit y avoir des voies ou des cadres clairs pour que les développeurs d'IA et les titulaires de droits collaborent, en particulier en termes de compensation monétaire, si des travaux dérivés de cette propriété intellectuelle sont un jour commercialisés.

Vérifier Qui détient les droits d'auteur sur les créations d'IA ? Comment fonctionne le droit d'auteur pour ces œuvres ?

La réglementation de l'IA est une solution indispensable

Alors que l'IA est apparue comme une solution prometteuse à bon nombre de nos problèmes de société, l'IA elle-même devient rapidement un problème qui nécessite une solution urgente. Il est temps de prendre du recul, de réfléchir et de faire les réformes nécessaires pour assurer l'impact positif de l'IA sur la société. Nous avons désespérément besoin d'un recalibrage urgent de notre approche de la construction et de l'utilisation des systèmes d'IA. Vous pouvez voir maintenant Facteurs clés à prendre en compte lors du test de précision des chatbots IA.

DzTech

Je suis ingénieur d'état avec une vaste expérience dans les domaines de la programmation, de la création de sites internet, du référencement et de la rédaction technique. Je suis passionné par la technologie et me consacre à fournir des informations de qualité au public. Je peux devenir une ressource plus précieuse pour les utilisateurs qui recherchent des informations précises et fiables sur les critiques de produits et les applications spécialisées dans divers domaines. Mon engagement inébranlable envers la qualité et l’exactitude garantit que les informations fournies sont dignes de confiance et utiles au public. La recherche constante de connaissances me pousse à me tenir au courant des dernières évolutions technologiques, en veillant à ce que les idées partagées soient véhiculées de manière claire et accessible.
Aller au bouton supérieur