- Volver al menú
- Volver al menúPrecios
- Volver al menúInvestigación
- Volver al menúConsenso
- Volver al menú
- Volver al menú
- Volver al menú
- Volver al menúWebinars y Eventos
Cómo las Cripto pueden ayudar a proteger la IA
Los rápidos avances en inteligencia artificial plantean desafíos de seguridad únicos. ¿Pueden las habilidades y los enfoques perfeccionados por la comunidad Cripto contribuir a que la IA sea segura para la humanidad?
Tanto las Cripto como la IA han experimentado un progreso notable en los últimos años.
Cripto celebró éxitos como DeFi, y más recientementeDeSci.
AI celebró éxitos comoAlphaFold2, y más recientementeChatGPT.
En 2018, Peter Thielpuntiagudo A la tensión entre las fuerzas descentralizadoras de las Cripto y las fuerzas centralizadoras de la IA, acuñé el término «Las Cripto son libertarias, la IA es comunista». Aquí quiero argumentar que podemos Aprende algo al combinar ambas.
¿Por qué? Porque las habilidades y los enfoques perfeccionados por la comunidad de seguridad y Cripto tienen el potencial de desbloquear aplicaciones útiles de la IA y mitigar sus riesgos.
Allison Duettmann es presidenta y directora ejecutiva del Foresight Institute. Dirige el...Cooperación inteligente,Máquinas moleculares,Extensión de Biotecnología y Salud,Neurotecnología, y Espacio Programas, becas, premios y árboles tecnológicos, y comparte este trabajo con el público.
¿Todos vamos a morir?
Eliezer Yudkowsky, una figura eminente en seguridad de IA, hizo recientemente una aparición sorprendente enPodcast sin bancos, un podcast claramente Web3.
Fue sorprendente por dos razones:
En primer lugar, Eliezer cree que estamos en un camino rápido hacia el desarrollo de una Inteligencia Artificial General (IAG) que puede realizar prácticamente todas las tareas que realizan los humanos, y que dicha IAG muy probablemente nos matará a todos.
En segundo lugar, cuando se le preguntó si hay algo que ONE pueda hacer para aumentar la pequeña posibilidad de que sobrevivamos, alentó a las personas con una mentalidad fuerte en materia de seguridad y criptografía a participar en la alineación de la IA.
Analicemos esto. Primero, analizaremos por qué deberíamos preocuparnos por la IAG, antes de profundizar en las promesas que la comunidad de Cripto y seguridad tiene para mitigar algunos de los peligros de la IAG.
Seguridad de la IA: ¿más difícil de lo que crees?
Como puede atestiguar cualquiera que haya visto las noticias recientemente, no pasa una semana sin que el progreso en IA se acelere drásticamente. Por si no lo sabías, aquí tienes tres avances cruciales:
En primer lugar, ha habido un impulso hacia una mayor centralización de la IA, por ejemplo, con la inversión de Microsoft en OpenAI, la inversión de Google en el competidor de OpenAI, Anthropic, y la fusión de DeepMind y Google Brain en una ONE organización.
Sigue leyendo: Michael J. Casey - Por qué la Web3 y la IA en Internet van de la mano
En segundo lugar, se ha impulsado una IA más generalizada. El reciente artículo “GPT4: Destellos de Inteligencia Artificial General” mostró cómo GPT-4 ya demuestra los primeros ejemplos de la teoría de la mente, una medida usualmente utilizada para evaluar la inteligencia Human .
En tercer lugar, ha habido un impulso hacia una mayor agencia en los sistemas de IA, y AutoGPT se ha vuelto más agente al volver a impulsarse a sí mismo para lograr tareas más complejas.
En diciembre,Metáculo, una plataforma de pronóstico, predijo la llegada de la IA aproximadamente en el año 2039. Ahora, en mayo, la fecha es 2031, es decir, un retraso de ocho años en cinco meses en el progreso de la IA.
Si tomamos estos avances como señales de que estamos en el camino hacia la Inteligencia Artificial General, la siguiente pregunta es ¿por qué se considera tan difícil la seguridad de la IAG?
Podríamos decir que podemos dividir el problema de la seguridad de la IAG en tres subproblemas:
Alineación: ¿Cómo podemos alinear la IA con los valores Human ?
La alineación de la IA es la simple cuestión de cómo lograr que las IA se alineen con nuestros valores. Pero es fácil olvidar que T siquiera estamos de acuerdo en cuáles son nuestros valores. Desde los albores de la civilización, tanto filósofos como simples mortales han debatido sobre ética, con argumentos convincentes para todos. Por eso, nuestra civilización actual llegó, principalmente, al pluralismo de valores (la idea de que humanos con valores contrapuestos coexistan pacíficamente). Esto funciona para una diversidad de valores Human , pero es difícil de implementar en un ONE agente de inteligencia artificial.
Imaginemos por un instante que supiéramos, a grandes rasgos, con qué valores morales equipar la IA general. A continuación, necesitamos comunicar estos valores Human a una entidad basada en silicio que no comparte la evolución, la arquitectura mental ni el contexto Human . Cuando los humanos se coordinan entre sí, podemos confiar en un amplio conocimiento implícito compartido, ya que compartimos la biología, la historia evolutiva y, a menudo, incluso cierto contexto cultural de nuestra especie. Con la IA, no podemos depender de un contexto tan común.
Sigue leyendo: Michael J. Casey - La lección de la Web2 para la IA: descentralizar para proteger a la humanidad
Otro problema es que, para alcanzar cualquier objetivo, suele ser instrumentalmente útil estar vivo y adquirir más recursos. Esto significa que una IA configurada para perseguir un objetivo específico podría resistirse a ser desactivada y buscar cada vez más recursos. Dadas las innumerables posibilidades en las que una IA podría lograr objetivos que incluyen lesiones Human , negligencia, engaño y más, y dada la dificultad de predecir y especificar todas esas restricciones con antelación de forma fiable, la tarea de alineación técnica resulta abrumadora.
Computadora seguridad
Incluso si los humanos concordamos en un conjunto de valores y descubrimos cómo alinear técnicamente una IA general con ellos, no podemos esperar que funcione de forma fiable sin demostrar que el software y el hardware subyacentes son en sí mismos fiables. Dada la considerable ventaja que la IA general ofrece a sus creadores, hackers maliciosos podrían sabotearla o reprogramarla.
Además, un error no intencional podría interferir con la ejecución de los objetivos de la AGI o la AGI podría explotar vulnerabilidades en su propio código, por ejemplo reprogramándose de maneras peligrosas.
Desafortunadamente, hemos construido todo el ecosistema multimillonario actual sobre cimientos cibernéticos inseguros. La mayor parte de nuestra infraestructura física se basa en sistemas vulnerables a ataques informáticos, como la red eléctrica y nuestra Tecnología de armas nucleares. En el futuro, incluso los coches autónomos y los drones autónomos, aunque inseguros, podrían ser hackeados para convertirse en bots asesinos. Los crecientes ciberataques, como Sputnick o Solarwinds, son graves, pero podrían ser benignos en comparación con posibles ataques futuros basados en la IA. Nuestra falta de una respuesta significativa a estos ataques sugiere que no estamos a la altura de la seguridad para la IA, lo que podría requerir la reconstrucción de gran parte de nuestra infraestructura insegura.
Al aprovechar las tecnologías y habilidades de las comunidades de seguridad y criptografía, podríamos lograr un escenario de superinteligencia multipolar.
Coordinación
Avanzar en la alineación y seguridad de la IAG puede llevar tiempo, por lo que es fundamental que los actores que la desarrollan se coordinen a lo largo del camino. Desafortunadamente, incentivar a los principales actores de la IA (ya sean cooperaciones o estados nacionales) a cooperar y evitar la dinámica de la carrera armamentista para llegar primero a la IAG no es tan sencillo. Para que una catástrofe sea posible, basta con que un actor abandone un acuerdo, lo que significa que, incluso si todos los demás cooperan, si ONE se adelanta, se asegura una ventaja decisiva. Esta ventaja de pionero persiste hasta que se construye la IAG y se le otorga el poder que la implementación unitaria del sistema de IAG puede otorgar a su propietario, y es una tentación difícil de renunciar para el propietario.
IA multipolar segura
Quizás ya hayas asentido: Sí, claro, la seguridad de la IA es muy difícil. Pero ¿qué tienen que ver las Cripto con eso?
Dado el rápido ritmo del progreso de la IA y las dificultades para hacerla segura, la preocupación tradicional es que estamos corriendo hacia un escenario único de IAG, en el que una IAG desplace a la civilización Human como marco general de relevancia para la inteligencia y domine el mundo, matando potencialmente a la humanidad en el camino.
Al aprovechar las tecnologías y habilidades de las comunidades de seguridad y criptografía, podremos cambiar el rumbo y buscar un escenario de superinteligencia multipolar, en el que redes de humanos e IA cooperen de forma segura para componer su conocimiento local en la superinteligencia colectiva de la civilización.
Esta es una afirmación grande y abstracta, por lo que analizaremos exactamente cómo las comunidades de Cripto y seguridad podrían ayudar a controlar los riesgos de la IA y liberar la belleza de la IA desbloqueando nuevas aplicaciones.

¿Cómo pueden la seguridad y la criptografía controlar los riesgos de la IA?
Equipo rojo
Paul Christiano, un reputado investigador en seguridad de la IA,sugiere queLa IA necesita urgentemente más equipos rojos, un término que se suele usar en seguridad informática para referirse a ciberataques simulados. En el contexto de la IA, los equipos rojos podrían utilizarse, por ejemplo, para buscar entradas que provoquen comportamientos catastróficos en los sistemas de aprendizaje automático.
La comunidad Cripto también tiene experiencia en el uso de equipos rojos. Tanto Bitcoin como Ethereum se desarrollan en un entorno sometido a continuos ataques adversarios, ya que los proyectos inseguros representan el equivalente a recompensas multimillonarias por errores en Criptomonedas .
Se eliminan los sistemas no blindados, dejando solo sistemas más blindados dentro del ecosistema. Los proyectos de Cripto se someten a un nivel de pruebas adversarias que puede servir de inspiración para sistemas capaces de resistir ciberataques que devastarían el software convencional.
Anticolusión
Un segundo problema de la IA es que múltiples IA emergentes podrían eventualmente conspirar para derrocar a la humanidad. Por ejemplo, "La seguridad de la IA a través del debate”, una estrategia de alineamiento popular, se basa en dos IA que debaten temas entre sí, con un juez Human presente que decide quién gana. Sin embargo, ONE que el juez Human no puede descartar es que ambas IA se confabulen en su contra, sin que ninguna promueva el resultado real.
Nuevamente, las Cripto tienen experiencia en evitar problemas de colusión, como el Ataque de sibila, que utiliza un solo nodo para operar numerosas identidades falsas activas y obtener de forma encubierta la mayor parte de la influencia en la red. Para evitar esto, se está desarrollando una cantidad significativa de trabajo en el diseño de mecanismos dentro del Cripto, y algunos también podrían aportar lecciones útiles para la colusión de la IA.
Controles y equilibrios
Otro enfoque de seguridad prometedor que actualmente explora Anthropic, competidor de OpenAI, es “IA constitucional”, en el que una IA supervisa a otra IA mediante reglas y principios establecidos por un Human. Esto se inspira en el diseño de la Constitución de los Estados Unidos, que establece intereses contrapuestos y recursos limitados en un sistema de pesos y contrapesos.
Nuevamente, las comunidades de seguridad y criptografía tienen amplia experiencia con sistemas de control y equilibrio similares a los de una constitución. Por ejemplo, el principio de seguridad POLA (Principio de Mínima Autoridad) exige que una entidad tenga acceso únicamente a la mínima información y recursos necesarios para realizar su trabajo. Este principio también es útil al desarrollar sistemas de IA más avanzados.
Estos son solo tres ejemplos de muchos, que dan una idea de cómo el tipo de mentalidad de seguridad que es prominente en las comunidades de seguridad y Cripto podría ayudar con los desafíos de alineación de la IA.
¿Cómo pueden las Cripto y la seguridad liberar la belleza de la IA?
Además de los problemas de seguridad de la IA que puedes intentar resolver, veamos algunos casos en los que las innovaciones en seguridad Cripto no solo pueden ayudar a dominar la IA, sino también a liberar su belleza, por ejemplo, al permitir nuevas aplicaciones beneficiosas.
IA que preserva la privacidad
Hay algunas áreas que la IA tradicional realmente no puede abordar, en particular la solución de problemas que requieren datos sensibles, como información de salud de personas o datos financieros que tienen fuertes restricciones de Privacidad .
Afortunadamente, como se señaló Según el investigador en criptografía Georgios Kaissis, estas son áreas en las que destacan los enfoques criptográficos y auxiliares, como el aprendizaje federado, la Privacidad diferencial, el cifrado homomórfico y otros. Estos enfoques emergentes de computación permiten gestionar grandes conjuntos de datos sensibles manteniendo la Privacidad y, por lo tanto, presentan una ventaja comparativa sobre la IA centralizada.
Aprovechar el conocimiento local
Otro aspecto en el que la IA tradicional tiene dificultades es la obtención del conocimiento local que a menudo se requiere para resolver casos extremos en el aprendizaje automático (ML) que el big data no puede comprender.
El ecosistema Cripto podría contribuir al suministro de datos locales mediante el establecimiento de mercados donde los desarrolladores puedan usar incentivos para atraer mejores datos locales para sus algoritmos. Por ejemplo, el cofundador de Coinbase, Fred Ehrsam. sugiereCombinando el aprendizaje automático privado que permite el entrenamiento de datos sensibles con incentivos basados en blockchain que atraen datos de mayor calidad a los mercados de datos y aprendizaje automático basados en blockchain. Si bien puede no ser viable ni seguro abrir el código fuente del entrenamiento de los modelos de aprendizaje automático, los mercados de datos podrían pagar a los creadores una parte justa de sus contribuciones.
IA encriptada
Mirando a más largo plazo, incluso podría ser posible aprovechar enfoques criptográficos para construir sistemas de IA que sean más seguros y potentes.
Por ejemplo, el investigador de criptografía Andrew TrasksugiereUtilizar cifrado homomórfico para cifrar completamente una red neuronal. De ser posible, esto significa que la inteligencia de la red estaría protegida contra el robo, lo que permitiría a los actores cooperar en problemas específicos utilizando sus modelos y datos, sin revelar las entradas.
Pero lo más importante es que, si la IA está encriptada homomórficamente, percibe el mundo exterior como encriptado. El Human que controla la clave Secret podría descifrar las predicciones individuales de la IA, en lugar de permitir que la IA se desarrolle por sí sola.
Nuevamente, estos son solo tres ejemplos de muchos potenciales, en los que las Cripto pueden desbloquear nuevos casos de uso para la IA.
Los ejemplos de memes que controlan memes y de instituciones que controlan instituciones también sugieren que los sistemas de IA pueden controlar sistemas de IA.
Juntando las piezas
La IA centralizada adolece de puntos únicos de fallo. No solo comprimiría el complejo pluralismo de valores Human en una ONE función objetiva, sino que también es propensa a errores, corrupción interna y ataques externos. Por otro lado, los sistemas multipolares seguros, como los desarrollados por la comunidad de seguridad y criptografía, son muy prometedores; promueven el pluralismo de valores, pueden proporcionar equipos rojos, controles y equilibrios, y son antifrágiles.
Los sistemas criptográficos también presentan numerosas desventajas. Por ejemplo, la criptografía requiere avances en el almacenamiento descentralizado de datos, el cifrado funcional, las pruebas adversarias y cuellos de botella computacionales que hacen que estos enfoques sigan siendo prohibitivamente lentos y costosos. Además, los sistemas descentralizados son menos estables que los centralizados y susceptibles a actores deshonestos que siempre tienen incentivos para coludir o desmantelar el sistema para dominarlo.
Sin embargo, dada la rápida velocidad de la IA y la relativa falta de personas con conocimientos de seguridad y criptografía en IA, tal vez no sea demasiado pronto para considerar si usted podría contribuir significativamente a la IA, aportando algunos de los beneficios discutidos aquí.
La promesa de una IA multipolar segura fuebien resumido por Eric Drexler, un pionero de la Tecnología , en 1986: “Los ejemplos de memes que controlan memes y de instituciones que controlan instituciones también sugieren que los sistemas de IA pueden controlar sistemas de IA”.
Nota: Las opiniones expresadas en esta columna son las del autor y no necesariamente reflejan las de CoinDesk, Inc. o sus propietarios y afiliados.
Allison Duettmann
Allison Duettmann es presidenta y directora ejecutiva del Foresight Institute. Dirige los programas de Cooperación Inteligente, Máquinas Moleculares, Extensión de Biotecnología y Salud, Neurotecnología y Espacio, así como las Becas, Premios y Árboles Tecnológicos, y comparte su trabajo con el público. Fundó Existentialhope.com, coeditó Superinteligencia: Coordinación y Estrategia, fue coautora de Gaming the Future y cofundó el Premio a la Longevidad. Asesora a empresas y organizaciones, como el Consorcio para la Salud Espacial, y forma parte del Comité Ejecutivo del Consorcio de Biomarcadores. Tiene una maestría en Filosofía y Regulación Públicas de la London School of Economics, especializada en Seguridad de la IA.
