- Torna al menu
- Torna al menuPrezzi
- Torna al menuRicerca
- Torna al menuConsenso
- Torna al menu
- Torna al menu
- Torna al menu
- Torna al menuWebinar ed Eventi
Come le Cripto possono aiutare a proteggere l'intelligenza artificiale
I rapidi progressi nell'intelligenza artificiale creano sfide di sicurezza uniche. Le competenze e gli approcci affinati dalla comunità Cripto possono contribuire a rendere l'IA sicura per l'umanità?
Sia le Cripto che l'intelligenza artificiale hanno fatto notevoli progressi negli ultimi anni.
Cripto ha celebrato successi come DeFie più recentementeDescizione.
L'intelligenza artificiale ha celebrato successi comeAlfaFold2e più recentementeChatGPT.
Nel 2018, Peter Thielappuntito alla tensione tra le forze decentralizzanti della Cripto e le forze centralizzanti dell'intelligenza artificiale, coniando il termine "La Cripto è libertaria, l'intelligenza artificiale è comunista". Qui voglio sostenere che potremmo Imparare qualcosa combinando le due cose.
Perché? Perché le competenze e gli approcci affinati dalla comunità della sicurezza e Cripto hanno il potenziale per sbloccare applicazioni utili dell'IA e mitigare i rischi dell'IA.
Allison Duettmann è presidente e CEO del Foresight Institute. Dirige ilCooperazione intelligente,Macchine molecolari,Estensione biotecnologica e sanitaria,Neurotecnologia, E SpazioProgrammi, borse di studio, premi e alberi tecnologici e condivide questo lavoro con il pubblico.
Moriremo tutti?
Eliezer Yudkowsky, una figura eminente nel campo della sicurezza dell'intelligenza artificiale, ha recentemente fatto una sorprendente apparizione suPodcast senza banca, un podcast tipicamente Web3.
È stato sorprendente per due motivi:
In primo luogo, Eliezer ritiene che siamo sulla buona strada per sviluppare un'Intelligenza Artificiale Generale (AGI) in grado di svolgere praticamente tutti i compiti degli esseri umani, e che molto probabilmente tale AGI ci ucciderà tutti.
In secondo luogo, quando gli è stato chiesto se ci fosse qualcosa ONE potesse fare per aumentare le nostre scarse possibilità di sopravvivenza, ha incoraggiato le persone orientate alla sicurezza e alla crittografia con una forte mentalità in materia di sicurezza a provare ad allineare l'intelligenza artificiale.
Analizziamolo. Innanzitutto, discuteremo perché dovremmo preoccuparci dell'AGI, prima di concentrarci sulle promesse che la comunità della Cripto (qui intendendo principalmente crittografia) e della sicurezza ha fatto per mitigare alcuni dei pericoli dell'AGI.
Sicurezza dell'intelligenza artificiale: più difficile di quanto pensi?
Come chiunque abbia intravisto le notizie di recente può testimoniare, non passa settimana senza che i progressi nell'intelligenza artificiale accelerino drasticamente. Nel caso te li fossi persi, ecco solo tre sviluppi cruciali:
In primo luogo, si è assistito a una spinta verso una maggiore centralizzazione dell'intelligenza artificiale, ad esempio con l'investimento di Microsoft in OpenAI, di Google nel concorrente di OpenAI, Anthropic, e con la fusione di DeepMind e Google Brain in ONE organizzazione.
Continua a leggere: Michael J. Casey - Perché Web3 e AI-Internet vanno di pari passo
In secondo luogo, c'è stata una spinta verso un'IA più generalizzata. Il recente articolo "GPT4: Scintille di Intelligenza Artificiale Generale" ha mostrato come GPT-4 dimostri già i primi esempi di teoria della mente, una misura solitamente utilizzata per valutare l'intelligenza Human .
In terzo luogo, si è assistito a una spinta verso una maggiore agenzia nei sistemi di intelligenza artificiale, con AutoGPT che sta diventando più agentivo, sollecitandosi nuovamente per portare a termine compiti più complessi.
A dicembre,Metacolo, una piattaforma di previsione, ha previsto l'arrivo dell'AGI all'incirca nell'anno 2039. Ora, a maggio, la data è il 2031, in altre parole, un calo temporale di otto anni in cinque mesi di progressi dell'IA.
Se prendiamo questi sviluppi come segnali che siamo sulla strada verso l'intelligenza artificiale generale, la domanda successiva è: perché la sicurezza dell'AGI è considerata così difficile?
Si può sostenere che il problema della sicurezza dell'AGI possa essere suddiviso in tre sottoproblemi:
Allineamento: come possiamo allineare l'intelligenza artificiale ai valori Human ?
L'allineamento dell'IA è la semplice questione di come facciamo ad allineare le IA con i nostri valori. Ma è facile dimenticare che T siamo nemmeno d'accordo su quali siano i nostri valori. Fin dall'alba della civiltà, filosofi e semplici mortali hanno discusso di etica, con argomenti convincenti da tutte le parti. Ecco perché la nostra civiltà attuale è arrivata, per lo più, al pluralismo dei valori (l'idea di esseri umani con valori contrastanti che coesistono pacificamente). Ciò funziona per una diversità di valori Human , ma è una cosa difficile da implementare in ONE agente artificialmente intelligente.
Immaginiamo per un minuto di sapere, più o meno, di quali valori morali dotare l'AGI. Poi, dobbiamo comunicare questi valori Human a un'entità basata sul silicio che T condivide l'evoluzione Human , l'architettura mentale o il contesto. Quando gli umani si coordinano con altri umani, possiamo contare su un sacco di conoscenze implicite di base condivise, poiché condividiamo la biologia della nostra specie, la storia evolutiva e spesso anche un po' di contesto culturale. Con l'IA, non possiamo contare su un contesto così comune.
Continua a leggere: Michael J. Casey - La lezione di Web2 per l’intelligenza artificiale: decentralizzare per proteggere l’umanità
Un altro problema è che, per il perseguimento di qualsiasi obiettivo, è generalmente strumentalmente utile essere vivi e acquisire più risorse. Ciò significa che un'IA impostata per perseguire un obiettivo specifico potrebbe resistere all'essere spenta e cercare sempre più risorse. Date le innumerevoli possibilità in cui un'IA potrebbe raggiungere obiettivi che includono lesioni Human , negligenza, inganno e altro, e data la difficoltà di prevedere e specificare tutti questi vincoli in anticipo in modo affidabile, il lavoro di allineamento tecnico è scoraggiante.
Computersicurezza
Anche se gli esseri umani concordano su un insieme di valori e capiscono come allineare tecnicamente un'AGI con essi, T possiamo comunque aspettarci che agisca in modo affidabile senza la prova che il software e l'hardware sottostanti siano di per sé affidabili. Dato il notevole vantaggio che l'AGI trasmette ai suoi creatori, gli hacker malintenzionati potrebbero sabotare o riprogrammare l'AGI.
In un secondo momento, un bug involontario potrebbe interferire con l’esecuzione dell’obiettivo dell’AGI oppure l’AGI stessa potrebbe sfruttare le vulnerabilità nel proprio codice, ad esempio riprogrammandosi in modi pericolosi.
Sfortunatamente, abbiamo costruito l'intero ecosistema multimiliardario di oggi su fondamenta informatiche insicure. La maggior parte della nostra infrastruttura fisica si basa su sistemi hackerabili, come la rete elettrica, la nostra Tecnologie delle armi nucleari. In futuro, anche le auto a guida autonoma insicure e i droni autonomi potrebbero essere hackerati e trasformati in robot killer. I crescenti attacchi informatici come Sputnick o Solarwinds sono gravi ma potrebbero essere benigni se confrontati con potenziali futuri attacchi abilitati da AG. La nostra mancanza di risposta significativa a questi attacchi suggerisce che non siamo all'altezza del compito di una sicurezza AGI-safe che potrebbe richiedere la ricostruzione di gran parte della nostra infrastruttura insicura.
Sfruttando tecnologie e competenze nelle comunità di sicurezza e crittografia, potremmo essere in grado di perseguire uno scenario di superintelligenza multipolare
Coordinamento
Fare progressi nell'allineamento e nella sicurezza dell'AGI potrebbe richiedere tempo, il che rende importante per gli attori che costruiscono l'AGI coordinarsi lungo il percorso. Sfortunatamente, incentivare i principali attori dell'IA (potrebbero essere cooperazioni o stati nazionali) a cooperare ed evitare di stimolare dinamiche di corsa agli armamenti per arrivare per primi all'AGI non è così semplice. La catastrofe richiede che solo ONE attore diserti un accordo, il che significa che anche se tutti gli altri cooperano, se ONE corre avanti, si assicura un vantaggio decisivo. Questo vantaggio del primo arrivato persiste finché l'AGI non viene costruita e non le viene dato il potere che l'implementazione unitaria del sistema AGI può conferire al suo proprietario, ed è una tentazione difficile da rinunciare per il proprietario.
AI multipolare sicura
Forse finora avete annuito: sì, certo, la sicurezza dell'IA è davvero dura. Ma cosa diavolo c'entra la Cripto ?
Considerati il rapido ritmo dei progressi dell'intelligenza artificiale e le difficoltà nel renderla sicura, la preoccupazione tradizionale è che stiamo correndo verso uno scenario singleton di AGI, in cui un'AGI sostituisce la civiltà Human come quadro generale di rilevanza per l'intelligenza e domina il mondo, potenzialmente uccidendo l'umanità lungo il percorso.
Sfruttando tecnologie e competenze nelle comunità della sicurezza e della crittografia, potremmo essere in grado di cambiare rotta e puntare invece a uno scenario di superintelligenza multipolare, in cui reti di esseri umani e IA cooperano in modo sicuro per comporre la loro conoscenza locale nella superintelligenza collettiva della civiltà.
Si tratta di un'affermazione importante e astratta, quindi cerchiamo di capire esattamente in che modo le comunità Cripto e sicurezza potrebbero contribuire a domare i rischi dell'intelligenza artificiale e a liberarne la bellezza sbloccando nuove applicazioni.

Come possono la sicurezza e la crittografia domare i rischi dell'intelligenza artificiale?
Squadra rossa
Paul Christiano, un rinomato ricercatore sulla sicurezza dell'intelligenza artificiale,suggerisce cheL'IA ha disperatamente bisogno di più red-teaming, termine solitamente utilizzato nella sicurezza informatica per riferirsi ad attacchi informatici simulati. I red-team nel contesto dell'IA potrebbero, ad esempio, essere utilizzati per cercare input che causano comportamenti catastrofici nei sistemi di apprendimento automatico.
Anche il red-teaming è qualcosa con cui la comunità Cripto ha esperienza. Sia Bitcoin che Ethereum si stanno sviluppando in un ambiente che è sotto continuo attacco avversario, perché i progetti non sicuri rappresentano l'equivalente di "bug bounty" Criptovaluta multimilionarie.
I sistemi non a prova di proiettile vengono eliminati, lasciando solo più sistemi a prova di proiettile all'interno dell'ecosistema. I progetti Cripto vengono sottoposti a un livello di test avversari che può essere una buona ispirazione per sistemi in grado di resistere a cyberattacchi che devasterebbero il software convenzionale.
Anti-collusion
Un secondo problema nell'IA è che molteplici IA emergenti potrebbero alla fine colludere per rovesciare l'umanità. Ad esempio, "Sicurezza dell'intelligenza artificiale attraverso il dibattito,” una strategia di allineamento popolare, si basa su due IA che discutono di argomenti tra loro, con un giudice Human nel ciclo che decide chi vince. Tuttavia, ONE cosa che il giudice Human potrebbe non essere in grado di escludere è che entrambe le IA siano colluse contro di lei, senza che nessuna promuova il vero risultato.
Ancora una volta, la Cripto ha esperienza nell'evitare problemi di collusione, come l' Attacco di Sibilla, che utilizza un singolo nodo per gestire molte false identità attive per ottenere segretamente la maggior parte dell'influenza nella rete. Per evitare ciò, sta emergendo una notevole quantità di lavoro sulla progettazione dei meccanismi all'interno Cripto, e alcuni potrebbero avere utili lezioni anche per la collusione dell'IA.
Controlli ed equilibri
Un altro promettente approccio alla sicurezza attualmente esplorato dal concorrente di OpenAI Anthropic è “AI costituzionale,” in cui ONE supervisiona un'altra IA utilizzando regole e principi forniti da un Human. Ciò è ispirato al design della Costituzione degli Stati Uniti, che stabilisce interessi contrastanti e mezzi limitati in un sistema di controlli ed equilibri.
Di nuovo, le comunità di sicurezza e crittografia hanno una buona esperienza con accordi di controllo e bilanciamento simili a quelli costituzionali. Ad esempio, il principio di sicurezza, POLA (Principio di minima autorità), richiede che un'entità abbia accesso solo alla minima quantità di informazioni e risorse necessarie per svolgere il proprio lavoro. Un principio utile da considerare anche quando si costruiscono sistemi di intelligenza artificiale più avanzati.
Questi sono solo tre esempi tra i tanti, che danno un'idea di come il tipo di mentalità orientata alla sicurezza prevalente nelle comunità della sicurezza e Cripto possa aiutare ad affrontare le sfide dell'allineamento dell'intelligenza artificiale.
In che modo Cripto e sicurezza possono liberare la bellezza dell'intelligenza artificiale?
Oltre ai problemi di sicurezza dell'intelligenza artificiale con cui potresti cimentarti, diamo un'occhiata ad alcuni casi in cui le innovazioni in materia di sicurezza Cripto non solo possono aiutare a domare l'intelligenza artificiale, ma anche a liberarne la bellezza, ad esempio abilitando nuove applicazioni vantaggiose.
Intelligenza artificiale che tutela la privacy
Ci sono alcuni ambiti che l'intelligenza artificiale tradizionale T può realmente toccare, in particolare la risoluzione di problemi che richiedono dati sensibili, come le informazioni sanitarie degli individui o dati finanziari che hanno forti vincoli Privacy .
Fortunatamente,come sottolineato dal ricercatore di crittografia Georgios Kaissis, queste sono aree in cui gli approcci crittografici e ausiliari, come l'apprendimento federato, la Privacy differenziale, la crittografia omomorfica e altro, brillano. Questi approcci emergenti al calcolo possono affrontare grandi set di dati sensibili mantenendo la Privacy e quindi hanno un vantaggio comparativo rispetto all'IA centralizzata.
Sfruttare la conoscenza locale
Un altro ambito in cui l'intelligenza artificiale tradizionale incontra difficoltà è l'approvvigionamento delle conoscenze locali spesso necessarie per risolvere casi limite nell'apprendimento automatico (ML) che i big data non riescono a comprendere.
L'ecosistema Cripto potrebbe aiutare con la fornitura di dati locali creando mercati in cui gli sviluppatori possono usare incentivi per attrarre dati locali migliori per i loro algoritmi. Ad esempio, il co-fondatore di Coinbase Fred Ehrsam suggeriscecombinando ML privato che consente la formazione di dati sensibili con incentivi basati su blockchain che attraggono dati migliori nei marketplace di dati e ML basati su blockchain. Sebbene potrebbe non essere fattibile o sicuro rendere open source la formazione effettiva dei modelli ML, i marketplace di dati potrebbero pagare i creatori per la giusta quota dei loro contributi di dati.
AI crittografata
In un'ottica più a lungo termine, potrebbe addirittura essere possibile sfruttare approcci crittografici per creare sistemi di intelligenza artificiale più sicuri e potenti.
Ad esempio, il ricercatore di crittografia Andrew Trasksuggerisceutilizzando la crittografia omomorfica per crittografare completamente una rete neurale. Se possibile, ciò significa che l'intelligenza della rete sarebbe salvaguardata contro i furti, consentendo agli attori di cooperare su problemi specifici utilizzando i loro modelli e dati, senza rivelare gli input.
Ma, cosa ancora più importante, se l'IA è crittografata in modo omomorfico, allora il mondo esterno viene percepito come crittografato. L' Human che controlla la chiave Secret potrebbe sbloccare le singole previsioni che l'IA fa, piuttosto che lasciare che l'IA stessa si scateni in libertà.
Di nuovo, questi sono solo tre esempi tra i molti possibili, in cui le Cripto possono sbloccare nuovi casi d'uso per l'intelligenza artificiale.
Gli esempi di meme che controllano meme e di istituzioni che controllano istituzioni suggeriscono anche che i sistemi di intelligenza artificiale possono controllare i sistemi di intelligenza artificiale.
Mettere insieme i pezzi
L'IA centralizzata soffre di singoli punti di errore. Non solo comprimerebbe il complesso pluralismo di valori Human in ONE funzione obiettivo. È anche soggetta a errori, corruzione interna e attacchi esterni. I sistemi multipolari sicuri, come quelli costruiti dalla comunità della sicurezza e della crittografia, d'altro canto, hanno molte promesse; supportano il pluralismo di valori, possono fornire red-teaming, controlli ed equilibri e sono antifragili.
Ci sono anche molti svantaggi nei sistemi crittografici. Ad esempio, la crittografia richiede progressi nell'archiviazione decentralizzata dei dati, nella crittografia funzionale, nei test avversari e nei colli di bottiglia computazionali che rendono questi approcci ancora proibitivamente lenti e costosi. Inoltre, i sistemi decentralizzati sono anche meno stabili dei sistemi centralizzati e suscettibili ad attori canaglia che hanno sempre un incentivo a colludere o altrimenti rovesciare il sistema per dominarlo.
Tuttavia, data la rapida velocità dell'intelligenza artificiale e la relativa mancanza di persone attente alla sicurezza e alla crittografia nell'intelligenza artificiale, forse non è troppo presto per considerare se sia possibile contribuire in modo significativo all'intelligenza artificiale, apportando alcuni dei vantaggi discussi qui.
La promessa di un'intelligenza artificiale multipolare sicura eraben riassunto di Eric Drexler, un pioniere Tecnologie , nel 1986: "Gli esempi di meme che controllano meme e di istituzioni che controllano istituzioni suggeriscono anche che i sistemi di intelligenza artificiale possono controllare i sistemi di intelligenza artificiale".
Nota: Le opinioni espresse in questa rubrica sono quelle dell'autore e non riflettono necessariamente quelle di CoinDesk, Inc. o dei suoi proprietari e affiliati.
Allison Duettmann
Allison Duettmann è presidente e CEO del Foresight Institute. Dirige Intelligent Cooperation, Molecular Machines, Biotech & Health Extension, Neurotech e Space Programs, Fellowships, Prizes e Tech Trees e condivide questo lavoro con il pubblico. Ha fondato Existentialhope.com, è stata co-curatrice di Superintelligence: Coordination & Strategy, co-autrice di Gaming the Future e co-iniziatrice di The Longevity Prize. Offre consulenza ad aziende e organizzazioni, come il Consortium for Space Health, ed è nel comitato esecutivo del Biomarker Consortium. Ha conseguito un Master in filosofia e Politiche pubbliche presso la London School of Economics, concentrandosi sulla sicurezza dell'IA.
