Compartilhe este artigo

Como a Cripto Pode Ajudar a Proteger a IA

Avanços rápidos em inteligência artificial criam desafios de segurança únicos. Habilidades e abordagens aprimoradas pela comunidade Cripto podem ajudar a tornar a IA segura para a humanidade?

Tanto as Cripto quanto a IA tiveram um progresso notável nos últimos anos.

A Cripto comemorou sucessos como DeFi, e mais recentementeDeSci.

A História Continua abaixo
Não perca outra história.Inscreva-se na Newsletter The Node hoje. Ver Todas as Newsletters

A IA comemorou sucessos comoAlphaFold2, e mais recentementeBate-papoGPT.

Em 2018, Peter Thielpontiagudo para a tensão entre as forças descentralizadoras da Cripto e as forças centralizadoras da IA, cunhando o termo “A Cripto é libertária, a IA é comunista”. Aqui, quero argumentar que podemos Aprenda algo combinando os dois.

Por quê? Porque habilidades e abordagens aprimoradas pela comunidade de segurança e Cripto têm o potencial de desbloquear aplicações úteis de IA e mitigar riscos de IA.

Allison Duettmann é presidente e CEO do Foresight Institute. Ela dirige oCooperação Inteligente,Máquinas Moleculares,Biotecnologia e extensão da saúde,Neurotecnologia, e EspaçoProgramas, bolsas, prêmios e árvores tecnológicas e compartilha esse trabalho com o público.

Vamos todos morrer?

Eliezer Yudkowsky, uma figura eminente na segurança da IA, fez recentemente uma aparição surpreendente noPodcast sem banco, um podcast distintamente Web3.

Foi surpreendente por dois motivos:

Primeiro, Eliezer acredita que estamos em um caminho rápido para desenvolver Inteligência Artificial Geral (IAG) que pode executar praticamente todas as tarefas que os humanos realizam, e que tal IA muito provavelmente nos matará a todos.

Em segundo lugar, quando perguntado se havia algo que ONE pudesse fazer para aumentar a pequena chance de sobrevivermos, ele encorajou pessoas com foco em segurança e criptografia e com uma forte mentalidade de segurança a participarem do alinhamento da IA.

Vamos desempacotar isso. Primeiro, discutiremos por que devemos nos preocupar com AGI, antes de dar um zoom nas promessas que a comunidade de Cripto (aqui significando principalmente criptografia) e segurança tem para mitigar alguns dos perigos de AGI.

Segurança da IA: mais difícil do que você pensa?

Como qualquer um que tenha lido as notícias recentemente pode atestar, nenhuma semana passa sem que o progresso em IA acelere dramaticamente. Caso você tenha perdido, aqui estão apenas três desenvolvimentos cruciais:

Primeiro, houve um impulso em direção a uma maior centralização da IA, por exemplo, com o investimento da Microsoft na OpenAI, o investimento do Google na concorrente da OpenAI, a Anthropic, e a fusão da DeepMind e do Google Brain em uma ONE organização.

Leia Mais: Michael J. Casey - Por que a Web3 e a IA-Internet andam juntas

Em segundo lugar, houve um impulso para uma IA mais generalizada. O artigo recente “GPT4: Centelhas de Inteligência Artificial Geral"mostrou como o GPT-4 já demonstra as primeiras instâncias da teoria da mente, uma medida geralmente usada para avaliar a inteligência Human .

Terceiro, tem havido um esforço por mais agência em sistemas de IA, com o AutoGPT se tornando mais agente ao se reorientar para realizar tarefas mais complexas.

Em dezembro,Metaculus, uma plataforma de previsão, previu a chegada da AGI aproximadamente no ano de 2039. Agora, em maio, a data é 2031 – em outras palavras, uma queda de oito anos no cronograma dentro de cinco meses do progresso da IA.

Se considerarmos esses desenvolvimentos como sinais de que estamos no caminho em direção à Inteligência Artificial Geral, a próxima pergunta é: por que a segurança da AGI é considerada tão difícil?

Pode-se argumentar que podemos dividir o problema da segurança da IAG em três subproblemas:

Alinhamento: Como podemos alinhar a IA com os valores Human ?

O alinhamento da IA ​​é a questão simples de como fazemos com que as IAs se alinhem com nossos valores. Mas é fácil esquecer que T concordamos sobre quais são nossos valores. Desde o início da civilização, filósofos e meros mortais têm discutido sobre ética, com pontos convincentes de todos os lados. É por isso que nossa civilização atual chegou, principalmente, ao pluralismo de valores (a ideia de humanos com valores conflitantes coexistindo pacificamente). Isso funciona para uma diversidade de valores Human , mas é algo difícil de implementar em um agente artificialmente inteligente.

Vamos imaginar por um doce minuto que soubéssemos, aproximadamente, com quais valores morais equipar a AGI. Em seguida, precisamos comunicar esses valores Human a uma entidade baseada em silício que T compartilha a evolução Human , arquitetura mental ou contexto. Quando humanos se coordenam com outros humanos, podemos confiar em bastante conhecimento de fundo implícito compartilhado, já que compartilhamos a biologia de nossa espécie, a história evolutiva e, muitas vezes, até mesmo algum contexto cultural. Com a IA, não podemos confiar em um contexto tão comum.

Leia Mais: Michael J. Casey - Lição da Web2 para IA: Descentralizar para proteger a humanidade

Outro problema é que, para a busca de qualquer objetivo, é geralmente instrumentalmente útil estar vivo e adquirir mais recursos. Isso significa que uma IA definida para perseguir um objetivo específico pode resistir a ser desligada e buscar mais e mais recursos. Dadas as inúmeras possibilidades nas quais uma IA pode atingir objetivos que incluem ferimentos Human , negligência, engano e mais, e dado o quão difícil é prever e especificar todas essas restrições com antecedência de forma confiável, o trabalho de alinhamento técnico é assustador.

Computador segurança

Mesmo que os humanos concordem com um conjunto de valores e descubram como alinhar tecnicamente uma AGI com eles, ainda T podemos esperar que ela aja de forma confiável sem provas de que o software e o hardware subjacentes são confiáveis. Dada a vantagem considerável que a AGI transmite aos seus criadores, hackers maliciosos podem sabotar ou reprogramar a AGI.

Além disso, um bug não intencional poderia interferir na execução do objetivo da AGI ou a própria AGI poderia explorar vulnerabilidades em seu próprio código, por exemplo, reprogramando-se de maneiras perigosas.

Infelizmente, construímos todo o ecossistema multitrilionário de hoje em bases cibernéticas inseguras. A maior parte da nossa infraestrutura física é baseada em sistemas hackeáveis, como a rede elétrica, nossa Tecnologia de armas nucleares. No futuro, até mesmo carros autônomos inseguros e drones autônomos podem ser hackeados para se transformarem em robôs assassinos. Ataques cibernéticos crescentes como Sputnick ou Solarwinds são graves, mas podem ser benignos quando comparados a potenciais ataques futuros habilitados para AG. Nossa falta de resposta significativa a esses ataques sugere que não estamos à altura da tarefa de segurança segura para AGI, o que pode exigir a reconstrução de grande parte da nossa infraestrutura insegura.

Ao alavancar tecnologias e habilidades nas comunidades de segurança e criptografia, podemos ser capazes de buscar um cenário de superinteligência multipolar

Coordenação

Fazer progresso no alinhamento e segurança da AGI pode levar tempo, o que torna importante que os atores que constroem a AGI se coordenem ao longo do caminho. Infelizmente, incentivar os principais atores de IA (podem ser cooperações ou estados-nação) a cooperar e evitar estimular a dinâmica da corrida armamentista para chegar à AGI primeiro não é tão simples. A catástrofe leva apenas um ator a desertar de um acordo, o que significa que, mesmo que todos os outros cooperem, se um correr na frente, ele garante uma vantagem decisiva. Essa vantagem de pioneiro persiste até que a AGI seja construída e receba o poder que a implantação unitária do sistema AGI pode transmitir ao seu proprietário, e é uma tentação difícil para o proprietário abrir mão.

IA multipolar segura

Talvez você tenha concordado até agora: Sim, claro, a segurança da IA ​​é realmente difícil. Mas o que no mundo a Cripto tem a ver com isso?

Dado o ritmo acelerado do progresso da IA ​​e as dificuldades em torná-la segura, a preocupação tradicional é que estamos correndo em direção a um cenário de AGI singleton, no qual uma AGI substitui a civilização Human como a estrutura geral de relevância para a inteligência e domina o mundo, potencialmente matando a humanidade ao longo do caminho.

Ao alavancar tecnologias e habilidades nas comunidades de segurança e criptografia, podemos mudar de rumo e buscar um cenário de superinteligência multipolar, no qual redes de humanos e IAs cooperam com segurança para compor seu conhecimento local na superinteligência coletiva da civilização.

Essa é uma afirmação grande e abstrata, então vamos analisar como exatamente as comunidades de Cripto e segurança podem ajudar a domar os riscos da IA ​​e liberar a beleza da IA ​​desbloqueando novas aplicações.

(ArtemisDiana/GettyImages)
(ArtemisDiana/GettyImages)

Como a segurança e a criptografia podem controlar os riscos da IA?

Equipe vermelha

Paul Christiano, um renomado pesquisador de segurança de IA,sugere queA IA precisa desesperadamente de mais red-teaming, geralmente um termo usado em segurança de computadores para se referir a ataques cibernéticos simulados. Red-teams no contexto da IA poderiam, por exemplo, ser usados para procurar entradas que causam comportamentos catastróficos em sistemas de aprendizado de máquina.

Red-teaming também é algo com que a comunidade Cripto tem experiência. Tanto o Bitcoin quanto o Ethereum estão se desenvolvendo em um ambiente que está sob ataque adversário contínuo, porque projetos inseguros representam o equivalente a “bug bounties” de Criptomoeda multimilionárias.

Sistemas não à prova de balas são eliminados, deixando apenas sistemas mais à prova de balas dentro do ecossistema. Projetos de Cripto passam por um nível de testes adversários que podem ser uma boa inspiração para sistemas capazes de suportar ataques cibernéticos que devastariam o software convencional.

Anti-conluio

Um segundo problema na IA é que múltiplas IAs emergentes podem eventualmente conspirar para derrubar a humanidade. Por exemplo, “Segurança da IA via debate,” uma estratégia de alinhamento popular, depende de duas IAs debatendo tópicos entre si, com um juiz Human no circuito decidindo quem vence. No entanto, uma coisa que o juiz Human pode não ser capaz de excluir é que ambas as IAs estão conspirando contra ela, sem nenhuma promovendo o resultado verdadeiro.

Mais uma vez, a Cripto tem experiência em evitar problemas de conluio, como o Ataque Sybil, que usa um único nó para operar muitas identidades falsas ativas para ganhar secretamente a maioria da influência na rede. Para evitar isso, uma quantidade significativa de trabalho sobre design de mecanismo está surgindo dentro da Cripto, e alguns podem ter lições úteis para conluio de IA também.

Cheques e contrapesos

Outra abordagem de segurança promissora atualmente explorada pelo concorrente da OpenAI, Anthropic, é “IA constitucional,” em que uma IA supervisiona outra IA usando regras e princípios dados por um Human. Isso é inspirado no design da Constituição dos EUA, que estabelece interesses conflitantes e meios limitados em um sistema de freios e contrapesos.

Novamente, comunidades de segurança e criptografia são bem experientes com verificações e arranjos de equilíbrio semelhantes a constitucionais. Por exemplo, o princípio de segurança, POLA – Princípio da Autoridade Mínima – exige que uma entidade tenha acesso apenas à menor quantidade de informações e recursos necessários para fazer seu trabalho. Um princípio útil a ser considerado ao construir sistemas de IA mais avançados também.

Esses são apenas três exemplos entre muitos, que dão uma ideia de como o tipo de mentalidade de segurança que é proeminente nas comunidades de segurança e Cripto pode ajudar nos desafios de alinhamento da IA.

Como as Cripto e a segurança podem revelar a beleza da IA?

Além dos problemas de segurança da IA ​​que você pode tentar resolver, vamos analisar alguns casos em que as inovações em segurança de Cripto não só ajudam a domar a IA, mas também a revelar sua beleza, por exemplo, permitindo novas aplicações benéficas.

IA que preserva a privacidade

Existem algumas áreas que a IA tradicional T consegue realmente abordar, em particular a resolução de problemas que exigem dados confidenciais, como informações de saúde de indivíduos ou dados financeiros que têm fortes restrições de Política de Privacidade .

Felizmente, como apontado pelo pesquisador de criptografia Georgios Kaissis, essas são áreas nas quais abordagens criptográficas e auxiliares, como aprendizado federado, Política de Privacidade diferencial, criptografia homomórfica e mais, brilham. Essas abordagens emergentes para computação podem lidar com grandes conjuntos de dados sensíveis, mantendo a Política de Privacidade e, portanto, têm uma vantagem comparativa sobre a IA centralizada.

Aproveitando o conhecimento local

Outra área com a qual a IA tradicional enfrenta dificuldades é obter o conhecimento local que geralmente é necessário para resolver casos extremos de aprendizado de máquina (ML) que os big data não conseguem entender.

O ecossistema Cripto poderia auxiliar com o fornecimento de dados locais ao estabelecer mercados nos quais os desenvolvedores podem usar incentivos para atrair melhores dados locais para seus algoritmos. Por exemplo, o cofundador da Coinbase, Fred Ehrsam sugerecombinando ML privado que permite o treinamento de dados sensíveis com incentivos baseados em blockchain que atraem melhores dados para mercados de dados e ML baseados em blockchain. Embora possa não ser viável ou seguro tornar o treinamento real de modelos de ML de código aberto, os mercados de dados poderiam pagar aos criadores pela parcela justa de suas contribuições de dados.

IA criptografada

Olhando para o longo prazo, pode até ser possível aproveitar abordagens criptográficas para construir sistemas de IA que sejam mais seguros e poderosos.

Por exemplo, o pesquisador de criptografia Andrew Trasksugereusando criptografia homomórfica para criptografar completamente uma rede neural. Se possível, isso significa que a inteligência da rede seria protegida contra roubo, permitindo que os atores cooperassem em problemas específicos usando seus modelos e dados, sem revelar as entradas.

Mais importante, porém, se a IA for criptografada homomorficamente, então o mundo externo é percebido por ela como criptografado. O Human que controla a chave Secret poderia desbloquear previsões individuais que a IA faz, em vez de deixar a IA sair por aí sozinha.

Novamente, esses são apenas três exemplos de muitos potenciais, nos quais as Cripto podem desbloquear novos casos de uso para IA.

Os exemplos de memes controlando memes e de instituições controlando instituições também sugerem que os sistemas de IA podem controlar os sistemas de IA

Juntando as peças

A IA centralizada sofre de pontos únicos de falha. Ela não apenas comprimiria o pluralismo complexo de valores Human em uma função objetiva. Ela também é propensa a erros, corrupção interna e ataque externo. Sistemas multipolares seguros, como construídos pela comunidade de segurança e criptografia, por outro lado, têm muitas promessas; eles suportam o pluralismo de valores, podem fornecer red-teaming, verificações e balanços e são antifrágeis.

Também há muitas desvantagens nos sistemas criptográficos. Por exemplo, a criptografia requer progresso no armazenamento de dados descentralizado, criptografia funcional, testes adversários e gargalos computacionais que tornam essas abordagens ainda proibitivamente lentas e caras. Além disso, os sistemas descentralizados também são menos estáveis do que os sistemas centralizados e suscetíveis a atores desonestos que sempre têm um incentivo para conspirar ou derrubar o sistema para dominá-lo.

No entanto, dada a rápida velocidade da IA e a relativa falta de pessoas com mentalidade de segurança e criptografia na IA, talvez não seja muito cedo para considerar se você pode contribuir significativamente para a IA, trazendo alguns dos benefícios discutidos aqui para a mesa.

A promessa de uma IA multipolar segura foibem resumido por Eric Drexler, um pioneiro da Tecnologia , em 1986: “Os exemplos de memes controlando memes e de instituições controlando instituições também sugerem que os sistemas de IA podem controlar os sistemas de IA.”

Nota: As opiniões expressas nesta coluna são do autor e não refletem necessariamente as da CoinDesk, Inc. ou de seus proprietários e afiliados.

Allison Duettmann

Allison Duettmann é presidente e CEO do Foresight Institute. Ela dirige os programas Intelligent Cooperation, Molecular Machines, Biotech & Health Extension, Neurotech e Space, Fellowships, Prizes e Tech Trees, e compartilha esse trabalho com o público. Ela fundou o Existentialhope.com, coeditou o Superintelligence: Coordination & Strategy, foi coautora do Gaming the Future e coiniciou o The Longevity Prize. Ela aconselha empresas e organizações, como o Consortium for Space Health, e está no Comitê Executivo do Biomarker Consortium. Ela possui mestrado em Filosofia e Política Públicas pela London School of Economics, com foco em Segurança de IA.

Allison Duettmann