- Retour au menu
- Retour au menuTarifs
- Retour au menuRecherche
- Retour au menuConsensus
- Retour au menu
- Retour au menu
- Retour au menu
- Retour au menuWebinaires et Événements
Comment la Crypto peut contribuer à sécuriser l'IA
Les progrès rapides de l'intelligence artificielle posent des défis de sécurité uniques. Les compétences et les approches développées par la communauté Crypto peuvent-elles contribuer à rendre l'IA sûre pour l'humanité ?
La Crypto et l’IA ont toutes deux connu des progrès remarquables au cours des dernières années.
Crypto a célébré des succès comme DeFi, et plus récemmentDeSci.
L'IA a célébré des succès commeAlphaFold2, et plus récemmentChatGPT.
En 2018, Peter Thielpointu à la tension entre les forces décentralisatrices de la Crypto et les forces centralisatrices de l'IA, forgeant l'expression «La Crypto est libertaire, l'IA est communiste ». Ici, je veux soutenir que nous pouvons Guides quelque chose en combinant les deux.
Pourquoi ? Parce que les compétences et les approches développées par la communauté de la sécurité et des Crypto ont le potentiel de débloquer des applications utiles de l'IA et d'atténuer les risques liés à l'IA.
Allison Duettmann est présidente-directrice générale du Foresight Institute. Elle dirige leCoopération intelligente,Machines moléculaires,Biotechnologie et vulgarisation sanitaire,Neurotechnologie, et Espace Programmes, bourses, prix et arbres technologiques, et partage ce travail avec le public.
Allons-nous tous mourir ?
Eliezer Yudkowsky, une figure éminente de la sécurité de l'IA, a récemment fait une apparition surprenante sur lePodcast Bankless, un podcast résolument Web3.
C'était surprenant pour deux raisons :
Premièrement, Eliezer pense que nous sommes sur la voie rapide du développement d’une intelligence artificielle générale (IAG) capable d’effectuer pratiquement toutes les tâches des humains, et qu’une telle IAG nous tuera très probablement tous.
Deuxièmement, lorsqu’on lui a demandé s’il y avait quelque chose que ONEon pouvait faire pour augmenter nos faibles chances de survie, il a encouragé les personnes axées sur la sécurité et la cryptographie, dotées d’un fort esprit de sécurité, à s’impliquer dans l’alignement de l’IA.
Décryptons cela. Nous commencerons par expliquer pourquoi l'AGI devrait nous inquiéter, avant d'examiner les promesses de la communauté Crypto et de la sécurité pour atténuer certains des dangers de l'AGI.
La sécurité de l’IA : plus difficile que vous ne le pensez ?
Comme le confirmera quiconque a suivi l'actualité récemment, il ne se passe pas une semaine sans que les progrès de l'IA ne s'accélèrent considérablement. Au cas où vous les auriez manqués, voici trois avancées cruciales :
Premièrement, il y a eu une tendance à une plus grande centralisation de l’IA, par exemple avec l’investissement de Microsoft dans OpenAI, l’investissement de Google dans le concurrent d’OpenAI, Anthropic, et la fusion de DeepMind et Google Brain en une ONE organisation.
Sur le même sujet : Michael J. Casey - Pourquoi le Web3 et l'IA-Internet vont de pair
Deuxièmement, on observe une volonté d'IA plus généralisée. Le récent article «GPT4 : Des étincelles d'intelligence artificielle générale« a montré comment GPT-4 démontre déjà les premiers exemples de théorie de l'esprit, une mesure généralement utilisée pour évaluer l'intelligence Human .
Troisièmement, il y a eu une poussée vers plus d’agence dans les systèmes d’IA, AutoGPT devenant plus agentif en se réinvitant à accomplir des tâches plus complexes.
En décembre,Métaculus, une plateforme de prévision, a prédit l'arrivée de l'AGI vers 2039. Aujourd'hui, en mai, la date est fixée à 2031, soit une baisse de huit ans dans les cinq mois suivant les progrès de l'IA.
Si nous prenons ces développements comme des signes que nous sommes sur la voie de l’intelligence artificielle générale, la question suivante est de savoir pourquoi la sécurité de l’AGI est considérée comme si difficile ?
On peut sans doute décomposer le problème de la sécurité de l’AGI en trois sous-problèmes :
Alignement : Comment pouvons-nous aligner l’IA sur les valeurs Human ?
L'alignement de l'IA est la simple question de savoir comment l'aligner sur nos valeurs. Or, on oublie facilement que nous ne sommes même T d'accord sur ce que sont nos valeurs. Depuis l'aube de la civilisation, philosophes et simples mortels ont débattu de l'éthique, avec des arguments convaincants de tous côtés. C'est pourquoi notre civilisation actuelle est arrivée, pour l'essentiel, au pluralisme des valeurs (l'idée d'êtres humains aux valeurs contradictoires coexistant pacifiquement). Ce principe est applicable à une diversité de valeurs Human , mais il est difficile à mettre en œuvre dans un ONE agent d'intelligence artificielle.
Imaginons un instant que nous connaissions, approximativement, les valeurs morales à inculquer à l'IAG. Il nous faut ensuite communiquer ces valeurs Human à une entité basée sur le silicium qui T partage ni l'évolution, ni l'architecture mentale, ni le contexte Human . Lorsque les humains se coordonnent entre eux, nous pouvons compter sur de nombreuses connaissances implicites partagées, puisque nous partageons la biologie, l'histoire évolutive et souvent même un certain contexte culturel de notre espèce. Avec l'IA, nous ne pouvons pas nous appuyer sur un tel contexte commun.
Sur le même sujet : Michael J. Casey - La leçon du Web2 pour l'IA : décentraliser pour protéger l'humanité
Un autre problème est que, pour atteindre un objectif, il est généralement utile d'être en vie et d'acquérir davantage de ressources. Cela signifie qu'une IA chargée d'un objectif spécifique pourrait résister à l'arrêt et rechercher toujours plus de ressources. Compte tenu des innombrables possibilités qu'une IA pourrait exploiter pour atteindre des objectifs tels que les blessures, la négligence, la tromperie, etc., et compte tenu de la difficulté de prévoir et de spécifier toutes ces contraintes à l'avance de manière fiable, la tâche d'alignement technique est ardue.
Ordinateur sécurité
Même si les humains s'accordent sur un ensemble de valeurs et parviennent à aligner techniquement une IAG sur celles-ci, on T peut s'attendre à ce qu'elle fonctionne de manière fiable sans preuve de la fiabilité du logiciel et du matériel sous-jacents. Compte tenu de l'avantage considérable que l'IAG confère à ses créateurs, des pirates informatiques malveillants pourraient la saboter ou la reprogrammer.
Plus loin, un bug involontaire pourrait interférer avec l’exécution des objectifs de l’AGI ou l’AGI pourrait elle-même exploiter les vulnérabilités de son propre code, par exemple en se reprogrammant de manière dangereuse.
Malheureusement, nous avons bâti l'écosystème actuel, qui pèse plusieurs milliards de dollars, sur des bases cybernétiques fragiles. La plupart de nos infrastructures physiques reposent sur des systèmes piratables, comme le réseau électrique et nos Technologies nucléaires. À l'avenir, même les voitures autonomes et les drones autonomes, peu sûrs, pourraient être piratés et transformés en robots tueurs. Les cyberattaques, telles que celles de Sputnick ou de Solarwinds, sont de plus en plus graves, mais pourraient être bénignes comparées aux futures attaques potentielles utilisant des IA. Notre manque de réponse significative à ces attaques suggère que nous ne sommes pas à la hauteur d'une sécurité compatible avec les IA, ce qui pourrait nécessiter la reconstruction d'une grande partie de nos infrastructures fragiles.
En tirant parti des technologies et des compétences des communautés de sécurité et de cryptographie, nous pourrions être en mesure de poursuivre un scénario de superintelligence multipolaire.
Coordination
Progresser en matière d'alignement et de sécurité de l'IAG peut prendre du temps, d'où l'importance pour les acteurs qui la construisent de se coordonner tout au long du processus. Malheureusement, inciter les principaux acteurs de l'IA (qu'il s'agisse de coopérations ou d'États-nations) à coopérer et à éviter d'alimenter une course aux armements pour parvenir en premier à l'IAG n'est pas si simple. Une catastrophe peut survenir lorsqu'un ONE acteur se dérobe à un accord, ce qui signifie que même si tous les autres coopèrent, si ONE prend les devants, il s'assure un avantage décisif. Cet avantage du précurseur persiste jusqu'à ce que l'IAG soit construite et que le déploiement unitaire du système IAG confère à son propriétaire le pouvoir que ce dernier peut conférer à son propriétaire, et il est difficile pour ce dernier de renoncer.
IA multipolaire sécurisée
Vous avez peut-être compris jusqu'ici : oui, bien sûr, la sécurité de l'IA est très complexe. Mais qu'est-ce que la Crypto a à voir avec tout ça ?
Étant donné le rythme rapide des progrès de l’IA et les difficultés à la rendre sûre, la préoccupation traditionnelle est que nous nous dirigions vers un scénario d’IAG unique, dans lequel une IAG remplace la civilisation Human en tant que cadre global de pertinence pour l’intelligence et domine le monde, tuant potentiellement l’humanité en cours de route.
En tirant parti des technologies et des compétences des communautés de sécurité et de cryptographie, nous pourrions être en mesure de changer de cap pour poursuivre plutôt un scénario de superintelligence multipolaire, dans lequel des réseaux d’humains et d’IA coopèrent en toute sécurité pour composer leurs connaissances locales dans la superintelligence collective de la civilisation.
Il s’agit d’une affirmation vaste et abstraite, alors examinons comment les communautés de Crypto et de sécurité pourraient aider à maîtriser les risques liés à l’IA et à libérer la beauté de l’IA en débloquant de nouvelles applications.

Comment la sécurité et la cryptographie peuvent-elles maîtriser les risques liés à l’IA ?
Équipe rouge
Paul Christiano, un chercheur réputé en matière de sécurité de l'IA,suggère queL'IA a désespérément besoin de davantage de « red-teaming », terme généralement utilisé en sécurité informatique pour désigner les cyberattaques simulées. Dans le contexte de l'IA, les « red-teams » pourraient, par exemple, être utilisées pour rechercher les entrées provoquant des comportements catastrophiques dans les systèmes d'apprentissage automatique.
Le red-teaming est également une pratique courante au sein de la communauté Crypto . Bitcoin et Ethereum évoluent tous deux dans un environnement soumis à des attaques constantes, car les projets non sécurisés représentent l'équivalent de « bug bounties » de Cryptomonnaie valant plusieurs millions de dollars.
Les systèmes non blindés sont éliminés, ne laissant que des systèmes plus blindés au sein de l'écosystème. Les projets Crypto sont soumis à un niveau de tests contradictoires qui peut servir d'inspiration pour des systèmes capables de résister à des cyberattaques dévastatrices pour les logiciels conventionnels.
Anti-collusion
Un deuxième problème de l'IA est que plusieurs IA émergentes pourraient éventuellement s'entendre pour renverser l'humanité. Par exemple, « La sécurité de l'IA par le débat« Une stratégie d'alignement populaire » repose sur deux IA qui débattent de sujets, un juge Human étant impliqué dans le processus de décision. Cependant, le juge Human ne peut exclure que les deux IA complotent contre elle, ONE ne favorisant le véritable résultat.
Encore une fois, la Crypto a l’expérience nécessaire pour éviter les problèmes de collusion, tels que Attaque de Sybil, qui utilise un seul nœud pour exploiter de nombreuses fausses identités actives afin d'obtenir secrètement la majorité de l'influence sur le réseau. Pour éviter cela, de nombreux travaux sur la conception de mécanismes émergent dans le domaine de la Crypto, et certains pourraient également être utiles pour la collusion avec l'IA.
Freins et contrepoids
Une autre approche de sécurité prometteuse actuellement explorée par le concurrent d'OpenAI, Anthropic, est «IA constitutionnelle”, dans lequel une IA supervise une autre IA en utilisant des règles et des principes donnés par un Human. Ce système s'inspire de la Constitution américaine, qui établit des conflits d'intérêts et des moyens limités dans un système de freins et contrepoids.
Là encore, les communautés de sécurité et de cryptographie sont rompues aux mécanismes de contrôle et d'équilibre constitutionnels. Par exemple, le principe de sécurité POLA (Principe de Moindre Autorité) exige qu'une entité n'ait accès qu'au minimum d'informations et de ressources nécessaires à l'accomplissement de sa mission. Un principe utile à prendre en compte lors de la conception de systèmes d'IA plus avancés.
Ce ne sont là que trois exemples parmi tant d’autres, qui donnent un aperçu de la manière dont le type d’état d’esprit de sécurité qui prévaut dans les communautés de sécurité et de Crypto pourrait contribuer à relever les défis d’alignement de l’IA.
Comment la Crypto et la sécurité peuvent-elles libérer la beauté de l’IA ?
En plus des problèmes de sécurité de l'IA que vous pouvez essayer de résoudre, examinons quelques cas dans lesquels les innovations en matière de sécurité Crypto ne peuvent pas seulement aider à apprivoiser l'IA, mais aussi à libérer sa beauté, par exemple en permettant de nouvelles applications bénéfiques.
IA préservant la confidentialité
Il existe quelques domaines que l'IA traditionnelle ne peut T vraiment aborder, en particulier la résolution de problèmes qui nécessitent des données sensibles comme les informations de santé des individus ou les données financières qui ont de fortes contraintes de Politique de confidentialité .
Heureusement, comme indiqué Selon le chercheur en cryptographie Georgios Kaissis, ce sont des domaines dans lesquels les approches cryptographiques et auxiliaires, telles que l'apprentissage fédéré, la Politique de confidentialité différentielle, le chiffrement homomorphe et bien d'autres, brillent. Ces approches informatiques émergentes peuvent traiter de grands ensembles de données sensibles tout en préservant la Politique de confidentialité, et présentent ainsi un avantage comparatif par rapport à l'IA centralisée.
Tirer parti des connaissances locales
Un autre domaine dans lequel l’IA traditionnelle rencontre des difficultés est l’obtention des connaissances locales qui sont souvent nécessaires pour résoudre les cas limites de l’apprentissage automatique (ML) que les big data ne peuvent pas comprendre.
L'écosystème Crypto pourrait contribuer à la fourniture de données locales en créant des places de marché où les développeurs pourraient utiliser des incitations pour attirer de meilleures données locales pour leurs algorithmes. Par exemple, Fred Ehrsam, cofondateur de Coinbase. suggèreCombiner le ML privé permettant l'apprentissage de données sensibles avec des incitations basées sur la blockchain pour attirer de meilleures données sur les marchés de données et de ML basés sur la blockchain. Bien qu'il ne soit pas réalisable ou sûr de rendre open source l'apprentissage des modèles de ML, les marchés de données pourraient rémunérer les créateurs pour leur juste part de données.
IA cryptée
À plus long terme, il pourrait même être possible d’exploiter des approches cryptographiques pour créer des systèmes d’IA à la fois plus sûrs et plus puissants.
Par exemple, le chercheur en cryptographie Andrew TrasksuggèreUtiliser le chiffrement homomorphe pour chiffrer intégralement un réseau neuronal. Si possible, cela signifie que l'intelligence du réseau serait protégée contre le vol, permettant aux acteurs de coopérer sur des problèmes spécifiques en utilisant leurs modèles et leurs données, sans révéler les entrées.
Plus important encore, si l'IA est chiffrée de manière homomorphe, le monde extérieur est perçu comme tel par elle. L' Human qui contrôle la clé Secret pourrait débloquer les prédictions individuelles de l'IA, plutôt que de la laisser se déchaîner.
Encore une fois, ce ne sont là que trois exemples parmi tant d’autres dans lesquels la Crypto peut ouvrir la voie à de nouveaux cas d’utilisation pour l’IA.
Les exemples de mèmes contrôlant d'autres mèmes et d'institutions contrôlant des institutions suggèrent également que les systèmes d'IA peuvent contrôler les systèmes d'IA.
Assembler les pièces
L'IA centralisée souffre de points de défaillance uniques. Non seulement elle condenserait le pluralisme complexe des valeurs Human en une ONE fonction objective, mais elle serait également sujette aux erreurs, à la corruption interne et aux attaques externes. Les systèmes multipolaires sécurisés, tels que ceux développés par les communautés de la sécurité et de la cryptographie, en revanche, sont très prometteurs ; ils soutiennent le pluralisme des valeurs, peuvent assurer la gestion des équipes rouges, l'équilibre des pouvoirs et sont antifragiles.
Les systèmes cryptographiques présentent également de nombreux inconvénients. Par exemple, la cryptographie nécessite des progrès en matière de stockage décentralisé des données, de chiffrement fonctionnel, de tests contradictoires et de goulots d'étranglement informatiques, ce qui rend ces approches encore excessivement lentes et coûteuses. De plus, les systèmes décentralisés sont moins stables que les systèmes centralisés et vulnérables aux attaques d'acteurs malveillants, toujours incités à s'entendre ou à les renverser pour les dominer.
Néanmoins, compte tenu de la rapidité de l’IA et du manque relatif de personnes soucieuses de la sécurité et de la cryptographie dans le domaine de l’IA, il n’est peut-être pas trop tôt pour se demander si vous pourriez contribuer de manière significative à l’IA, en apportant certains des avantages évoqués ici.
La promesse d’une IA multipolaire sécurisée étaitbien résumé par Eric Drexler, un pionnier de la Technologies , en 1986 : « Les exemples de mèmes contrôlant d'autres mèmes et d'institutions contrôlant des institutions suggèrent également que les systèmes d'IA peuvent contrôler les systèmes d'IA. »
Remarque : Les opinions exprimées dans cette colonne sont celles de l'auteur et ne reflètent pas nécessairement celles de CoinDesk, Inc. ou de ses propriétaires et affiliés.
Allison Duettmann
Allison Duettmann est présidente-directrice générale du Foresight Institute. Elle dirige les programmes, bourses, prix et arbres technologiques dans les domaines de la coopération intelligente, des machines moléculaires, de la vulgarisation biotechnologique et sanitaire, des neurotechnologies et de l'espace, et partage ces travaux avec le public. Elle a fondé Existentialhope.com, coédité Superintelligence : Coordination & Strategy, coécrit Gaming the Future et co-initié le Prix de la longévité. Elle conseille des entreprises et des organisations, telles que le Consortium for Space Health, et siège au comité exécutif du Biomarker Consortium. Elle est titulaire d'un master en philosophie et Juridique publiques de la London School of Economics, spécialisé en sécurité de l'IA.
