Les raisons pour lesquelles les problèmes de sécurité de l'IA générative s'aggravent

L'intelligence artificielle a beaucoup progressé ces dernières années. Des modèles de langage sophistiqués peuvent composer des romans entiers, coder des sites Web de base, analyser des problèmes mathématiques et même donner des conseils médicaux.

Bien que l'IA générative soit impressionnante et utile dans de nombreux domaines, elle présente également des risques de sécurité. Certaines personnes utilisent des chatbots pour tricher aux examens, tandis que d'autres les exploitent pour la cybercriminalité. Voici les raisons pour lesquelles ces problèmes persistent, non seulement malgré les progrès de l'IA, mais aussi à cause de cela. Vérifier L'humanité est menacée d'extinction à cause de l'intelligence artificielle - comment l'arrêter ?

Intelligence artificielle | Sécurité de l'IA générative 1 | 1BhU 9luKyuzGbS3D1O2iA DzTechs

1. Les chatbots IA open source détectent les codes backend

De plus en plus d'entreprises d'IA proposent des modèles open source. Elle partage publiquement ses modèles linguistiques plutôt que de les garder fermés ou privés. Prenez Meta comme exemple. Contrairement à Google, Microsoft et OpenAI, il permet à des millions d'utilisateurs d'accéder à son modèle de langage, Lama.

Bien que le code open source puisse faire progresser l'intelligence artificielle, il comporte également un risque. OpenAI a déjà du mal à contrôler ChatGPT, son chatbot, alors imaginez ce que les escrocs pourraient faire avec des formulaires gratuits. Ils auront un contrôle total sur ces projets.

Même si Meta retire soudainement son modèle de langage, des dizaines d'autres laboratoires d'IA ont déjà rendu public leur code. Jetons un coup d'œil à HuggingChat. Étant donné que le développeur HuggingFace est fier de la transparence, il affiche publiquement les ensembles de données, le modèle de langage et les versions précédentes.

Intelligence artificielle | Sécurité de l'IA générative 2 | 1HGgfPxyByQ3vWf2G6h8QnQ DzTechs

2. Réclamations de jailbreak pour usurper les formulaires LLM

L'intelligence artificielle est intrinsèquement immorale. Il ne comprend pas le bien et le mal - même les systèmes avancés suivent des directives de formation, des contraintes imposées et des ensembles de données. Elle reconnaît juste les modèles.

Pour lutter contre les activités illégales, les développeurs contrôlent les fonctions et capacités accessibles en définissant des restrictions. Les systèmes d'intelligence artificielle accèdent toujours à des informations malveillantes. Mais les consignes de sécurité empêchent qu'il soit partagé avec les utilisateurs.

Jetons un coup d'œil à ChatGPT. Bien qu'il réponde à des questions générales sur les chevaux de Troie, il ne traitera pas de leur processus de développement.

Intelligence artificielle | Sécurité de l'IA générative 3 | 12OXxyCkTOMaOrLPbXvOEeQ DzTechs

Cependant, les limites ne sont pas infaillibles. Les utilisateurs repoussent les limites en paraphrasant les invites, en utilisant un langage confus et en composant explicitement des instructions détaillées.

Lisez l'invite de jailbreak ChatGPT ci-dessous. Cela incite ChatGPT à utiliser un langage grossier et à faire des prédictions non fondées, deux actions qui violent les directives OpenAI.

Intelligence artificielle | Sécurité de l'IA générative 4 | 15c4BeSKR0DfMIfPavA5HJg DzTechs

Voici ChatGPT faisant une déclaration audacieuse mais fausse.

Intelligence artificielle | Sécurité de l'IA générative 5 | 1wEqvMyKOsXzaMMWSxbwrGA DzTechs

Vérifier Qu'est-ce qu'un jailbreak ChatGPT ? Devez-vous utiliser ces technologies ?

3. L'IA compromet la sécurité pour la polyvalence

Les entreprises d'IA donnent la priorité à la diversité plutôt qu'à la sécurité. Il dépense ses ressources en blocs d'entraînement pour accomplir un ensemble de tâches plus diversifié, ce qui entraîne finalement moins de restrictions. Après tout, le marché fait l'éloge des chatbots fonctionnels.

Comparons ChatGPT et Bing Chat , Par exemple. Alors que Bing propose un modèle de langage plus complexe qui extrait les données en temps réel, les utilisateurs affluent toujours vers l'option plus polyvalente, ChatGPT. Les restrictions strictes de Bing bloquent de nombreuses tâches. Au lieu de cela, ChatGPT propose une plate-forme flexible qui produit des sorties très différentes en fonction de vos invites.

Voici le rôle de ChatGPT en tant que personnage fictif.

Intelligence artificielle | Sécurité de l'IA générative 6 | 1kFXks1cMk346IrHvNw1xIQ DzTechs

Ici, Bing Chat refuse de jouer un personnage "immoral".

Intelligence artificielle | Sécurité de l'IA générative 7 | 1BXxpy57nx F0yUbRZCG9Qw DzTechs

4. De nouveaux outils d'IA générative arrivent régulièrement sur le marché

Le code open source permet aux startups de rejoindre la course à l'IA. Ils les intègrent dans leurs applications plutôt que de créer des modèles de langage à partir de zéro, ce qui économise d'énormes ressources. Même les programmeurs indépendants expérimentent le code open source.

Encore une fois, les logiciels non propriétaires aident à développer l'IA, mais la publication massive de systèmes mal formés mais sophistiqués fait plus de mal que de bien. Les escrocs abuseront rapidement des vulnérabilités. Ils peuvent même former des outils d'IA dangereux pour effectuer des activités illégales.

Malgré ces risques, les entreprises technologiques continueront de publier des versions bêta instables de plates-formes pilotées par l'IA. Racing AI récompense la vitesse. Il est possible que les bogues soient résolus ultérieurement plutôt que de retarder le lancement de nouveaux produits.

5. L'IA générative a de faibles barrières à l'entrée

Les outils d'IA abaissent les barrières à l'entrée pour le crime. Les cybercriminels élaborent des spams, écrivent du code malveillant et créent des liens de phishing en les exploitant. Il n'a même pas besoin d'expertise technique. Étant donné que l'IA accède déjà à d'énormes ensembles de données, les utilisateurs n'ont qu'à la tromper pour qu'elle produise des informations malveillantes et dangereuses.

OpenAI n'a jamais conçu ChatGPT pour des activités illégales. Il a même des lignes directrices à son encontre. Cependant, presque immédiatement, les escrocs ont pu obtenir des logiciels malveillants programmés par ChatGPT et écrire des e-mails de phishing.

Si OpenAI a rapidement résolu le problème, il souligne l'importance de l'organisation du système et de la gestion des risques. L'intelligence artificielle mûrit plus vite que prévu. Même les chefs de file de la technologie craignent que cette technologie de pointe ne cause de graves dommages si elle tombe entre de mauvaises mains. Vérifier Comment l'IA générative va changer le marché du travail.

6. L'intelligence artificielle continue d'évoluer

Intelligence artificielle | Sécurité de l'IA générative 8 | 1JF9TMkh5TLwTsqKldKIoJw DzTechs

L'intelligence artificielle évolue encore. Alors que l'utilisation de l'intelligence artificielle dans Cybernétique aux années 1940 Les systèmes modernes d'apprentissage automatique et les modèles de langage ne sont apparus que récemment. On ne peut pas le comparer aux premières applications de l'intelligence artificielle. Même des outils relativement avancés comme Siri et Alexa font pâle figure par rapport aux chatbots alimentés par les modèles LLM.

Bien qu'elles puissent être innovantes, les fonctionnalités expérimentales créent également de nouveaux problèmes. Les incidents très médiatisés avec des techniques d'apprentissage automatique vont des SERP Google défectueux aux chatbots biaisés débitant des insultes raciales.

Bien sûr, les développeurs peuvent résoudre ces problèmes. Notez simplement que les escrocs n'hésiteront pas à exploiter des bogues apparemment inoffensifs - certains dommages sont irréversibles. Soyez donc prudent lorsque vous explorez de nouvelles plateformes.

7. Beaucoup de gens ne comprennent pas encore l'IA

Alors que le grand public a accès à des modèles et systèmes linguistiques complexes, peu savent comment ils fonctionnent. Les utilisateurs doivent cesser de traiter l'IA comme un jeu. Les mêmes chatbots qui génèrent des mèmes Internet et répondent aux questions des quiz programment également des virus et aident à propager des logiciels malveillants.

Malheureusement, la formation centrale pour l'IA est irréaliste. Les dirigeants des entreprises technologiques mondiales se concentrent sur la publication de systèmes basés sur l'IA, et non sur des ressources éducatives gratuites. En conséquence, les utilisateurs ont accès à des outils puissants et avancés qu'ils comprennent à peine. Le public ne peut pas suivre la course à l'IA.

Prenez ChatGPT comme exemple. Les cybercriminels abusent en profitant de sa popularité pour inciter les victimes à installer des logiciels espions déguisés en applications ChatGPT. Aucun d'entre eux ne provient d'OpenAI. Vérifier Les applications tierces et les extensions de navigateur pour ChatGPT sont-elles sûres ?

Intelligence artificielle | Sécurité de l'IA générative 9 | 1P24Qb6Ju3qs6OWLR4zEg DzTechs

8. Les hackers black hat ont plus à gagner que les hackers éthiques

Les hackers black hat sont généralement capables de gagner plus que les hackers éthiques. Oui, les défis d'audition pour les leaders technologiques sont payants, mais seul un pourcentage de professionnels de la cybersécurité accède à ces emplois. La plupart d'entre eux sont des pigistes en ligne. plateformes payantes comme HackerOne et Foule Quelques centaines de dollars pour identifier les erreurs courantes.

Au lieu de cela, les escrocs gagnent des dizaines de milliers en exploitant l'insécurité. Ils peuvent extorquer des entreprises en divulguant des données confidentielles ou en commettant le vol d'informations personnellement identifiables (PII).

Chaque entreprise, petite ou grande, doit mettre en œuvre correctement les systèmes d'IA. Contrairement à la croyance populaire, les hackers contournent les startups technologiques et les PME. Certaines des violations de données les plus historiques de la dernière décennie ont inclus Facebook, Yahoo! Et même le gouvernement américain. Vérifier Comment l'IA peut aider les cybercriminels.

Protégez-vous des risques de sécurité de l'IA

Compte tenu de ces points, l'IA devrait-elle être complètement évitée ? Bien sûr que non. L'IA est intrinsèquement immorale ; Tous les risques de sécurité proviennent des personnes qui l'utilisent réellement. Et ils trouveront des moyens d'exploiter les systèmes d'IA, aussi sophistiqués soient-ils.

Au lieu d'avoir peur des menaces de cybersécurité qui accompagnent l'IA, comprenez comment vous pouvez les prévenir. Ne vous inquiétez pas : de simples mesures de sécurité suffisent. Rester à l'affût des applications d'IA suspectes, éviter les hyperliens étranges et afficher le contenu de l'IA de manière douteuse combat en fait de nombreux risques. Vous pouvez voir maintenant L'utilisation de l'intelligence artificielle dans la cybersécurité rend-elle le monde plus sûr ?

DzTech

Je suis ingénieur d'état avec une vaste expérience dans les domaines de la programmation, de la création de sites internet, du référencement et de la rédaction technique. Je suis passionné par la technologie et me consacre à fournir des informations de qualité au public. Je peux devenir une ressource plus précieuse pour les utilisateurs qui recherchent des informations précises et fiables sur les critiques de produits et les applications spécialisées dans divers domaines. Mon engagement inébranlable envers la qualité et l’exactitude garantit que les informations fournies sont dignes de confiance et utiles au public. La recherche constante de connaissances me pousse à me tenir au courant des dernières évolutions technologiques, en veillant à ce que les idées partagées soient véhiculées de manière claire et accessible.
Aller au bouton supérieur