- Volver al menú
- Volver al menúPrecios
- Volver al menúInvestigación
- Volver al menúConsenso
- Volver al menú
- Volver al menú
- Volver al menú
- Volver al menúWebinars y Eventos
¿Podremos confiar alguna vez en los agentes de IA?
La IA descentralizada nos brinda un camino para confiar en los agentes que pronto poblarán nuestras vidas digitales, afirma Marko Stokic, director de IA en Oasis.
El renombrado psicólogo de Harvard, BF Skinner, opinó una vez que «el verdadero problema no es si las máquinas piensan, sino si los hombres lo hacen». Esta ingeniosa observación subraya un punto que antes era crucial: que nuestra confianza en la Tecnología depende del juicio Human . No es la inteligencia artificial lo que debería preocuparnos, sino la sabiduría y la responsabilidad de quienes la controlan. O al menos eso. erael caso.
Con software como ChatGPT ahora integrado en la vida laboral de muchos, la perspectiva de Skinner resulta casi pintoresca. El auge meteórico de los agentes de IA (entidades de software capaces de percibir su entorno y actuar para alcanzar objetivos específicos) ha cambiado radicalmente el paradigma. Estos asistentes digitales, surgidos del auge de la IA de consumo a principios de la década de 2020, ahora permean nuestra vida digital, gestionando tareas que van desde programar citas hasta tomar decisiones de inversión.
¿Qué son los agentes de IA?
Los agentes de IA difieren significativamente de los grandes modelos de lenguaje (LLM) como ChatGPT en su capacidad de acción autónoma. Mientras que los LLM procesan y generan principalmente texto, los agentes de IA están diseñados para percibir su entorno, tomar decisiones y actuar para alcanzar objetivos específicos. Estos agentes combinan diversas tecnologías de IA, como el procesamiento del lenguaje natural, la visión artificial y el aprendizaje por refuerzo, lo que les permite adaptarse y Aprende de sus experiencias.
Pero a medida que los agentes de IA proliferan y se renuevan, también crece una inquietud persistente. ¿Podremos realmente confiar en estas entidades digitales? La pregunta no es para nada académica. Los agentes de IA operan en entornos complejos, tomando decisiones basadas en vastos conjuntos de datos y algoritmos intrincados que incluso a sus creadores les cuesta comprender por completo. Esta opacidad inherente genera desconfianza. Cuando un agente de IA recomienda un tratamiento médico o predice las tendencias del mercado, ¿cómo podemos estar seguros del razonamiento que sustenta sus decisiones?
Las consecuencias de confiar indebidamente en los agentes de IA podrían ser nefastas. Imagine un asesor financiero impulsado por IA que, sin darse cuenta, desplome los Mercados debido a la interpretación errónea de un dato, o una IA sanitaria que recomiende tratamientos incorrectos basándose en datos de entrenamiento sesgados. El potencial de daño no se limita a sectores individuales; a medida que los agentes de IA se integran más en nuestra vida diaria, su influencia crece exponencialmente. Un paso en falso podría tener repercusiones en toda la sociedad, afectando a todo, desde la Privacidad personal hasta la economía global.
En el corazón de esta falta de confianza se encuentra un problema fundamental: la centralización. El desarrollo y la implementación de modelos de IA han sido, en gran medida, competencia de un puñado de gigantes tecnológicos. Estos modelos de IA centralizados funcionan como cajas negras, con sus procesos de toma de decisiones ocultos al escrutinio público. Esta falta de transparencia hace prácticamente imposible confiar en sus decisiones en operaciones de alto riesgo. ¿Cómo podemos confiar en que un agente de IA tome decisiones cruciales si no podemos comprender ni verificar su razonamiento?
La descentralización como respuesta
Sin embargo, existe una solución a estas preocupaciones: la IA descentralizada. Un paradigma que ofrece un camino hacia agentes de IA más transparentes y confiables. Este enfoque aprovecha las fortalezas de la Tecnología blockchain y otros sistemas descentralizados para crear modelos de IA que no solo son potentes, sino también responsables.
Las herramientas para generar confianza en los agentes de IA ya existen. Las cadenas de bloques permiten la computación verificable, garantizando que las acciones de la IA sean auditables y rastreables. Cada decisión que toma un agente de IA podría registrarse en un libro de contabilidad público, lo que permite una transparencia sin precedentes. Al mismo tiempo, técnicas criptográficas avanzadas como el aprendizaje automático en entornos de ejecución confiables (TeeML) pueden proteger datos confidenciales y mantener la integridad del modelo, logrando transparencia y Privacidad.
A medida que los agentes de IA operan cada vez más junto a las cadenas de bloques públicas o directamente en ellas, el concepto de verificabilidad se vuelve crucial. Los modelos de IA tradicionales pueden tener dificultades para demostrar la integridad de sus operaciones, pero los agentes de IA basados en cadenas de bloques pueden ofrecer garantías criptográficas de su comportamiento. Esta verificabilidad no es solo una sutileza técnica; es un requisito fundamental para la confianza en entornos de alto riesgo.
Las técnicas de computación confidencial, en particular los entornos de ejecución confiables (TEE), ofrecen una importante capa de seguridad. Los TEE proporcionan un enclave seguro donde pueden realizarse los cálculos de IA, aislados de posibles interferencias. Esta Tecnología garantiza que ni siquiera los operadores del sistema de IA puedan manipular ni espiar el proceso de toma de decisiones del agente, lo que refuerza aún más la confianza.
Marcos como la Lógica Fuera de Cadena en Tiempo de Ejecución (ROFL) de Oasis Network representan la vanguardia de este enfoque, permitiendo la integración fluida de la computación verificable de IA con la auditabilidad y transparencia en cadena. Estas innovaciones amplían las posibilidades de las aplicaciones basadas en IA, manteniendo al mismo tiempo los más altos estándares de confianza y transparencia.
Hacia un futuro de IA confiable
El camino hacia agentes de IA confiables no está exento de desafíos. Persisten obstáculos técnicos, y la adopción generalizada de sistemas de IA descentralizados requerirá un cambio tanto en las prácticas del sector como en la comprensión pública. Sin embargo, las recompensas potenciales son inmensas. Imagine un mundo donde los agentes de IA toman decisiones cruciales con total transparencia, donde sus acciones pueden ser verificadas y auditadas por cualquier persona, y donde el poder de la inteligencia artificial está distribuido en lugar de concentrado en manos de unas pocas corporaciones.
También existe la posibilidad de generar un crecimiento económico significativo. ONE 2023 estudiarUn estudio de Pekín reveló que un aumento del 1 % en la penetración de la IA se traduce en un aumento del 14,2 % en la productividad total de los factores (PTF). Sin embargo, la mayoría de los estudios sobre productividad de la IA se centran en los LLM generales, no en los agentes de IA. Los agentes de IA autónomos, capaces de realizar múltiples tareas de forma independiente, podrían generar mayores ganancias de productividad. Los agentes de IA fiables y auditables probablemente serían aún más eficaces.
Quizás sea hora de actualizar la famosa cita de Skinner. El verdadero problema ya no es si las máquinas piensan, sino si podemos confiar en sus pensamientos. Con la IA descentralizada y la cadena de bloques, tenemos las herramientas para generar esa confianza. La pregunta ahora es si tenemos la sabiduría para usarlas.
Nota: Las opiniones expresadas en esta columna son las del autor y no reflejan necesariamente las de CoinDesk, Inc. o sus propietarios y afiliados.
Nota: Las opiniones expresadas en esta columna son las del autor y no necesariamente reflejan las de CoinDesk, Inc. o sus propietarios y afiliados.
Marko Stokic
Marko Stokic es el Director de IA en Oasis Protocol Foundation, donde trabaja con un equipo enfocado en desarrollar aplicaciones de IA de vanguardia integradas con Tecnología blockchain. Con experiencia en negocios, el interés de Marko en las Cripto fue despertado por Bitcoin en 2017 y se profundizó a través de sus experiencias durante la caída del mercado de 2018. Cursó una maestría y adquirió experiencia en capital de riesgo, concentrándose en nuevas empresas de IA empresarial antes de hacer la transición a una nueva empresa de identidad descentralizada, donde desarrolló soluciones que preservan la privacidad. En Oasis, fusiona la visión estratégica con el conocimiento técnico para defender la IA descentralizada y la computación confidencial, educando al mercado sobre las capacidades únicas de Oasis y fomentando asociaciones que empoderan a los desarrolladores. Como orador público atractivo, Marko comparte ideas sobre el futuro de la IA, la Privacidad y la seguridad en Eventos de la industria, posicionando a Oasis como líder en innovación responsable de IA.
