- Torna al menu
- Torna al menuPrezzi
- Torna al menuRicerca
- Torna al menuConsenso
- Torna al menu
- Torna al menu
- Torna al menu
- Torna al menuWebinar ed Eventi
Cosa può Imparare la governance dell'intelligenza artificiale dall'etica della decentralizzazione delle criptovalute
I principali critici dello sviluppo dell'IA chiedono l'intervento del governo per scongiurare la minaccia dell'estinzione Human . Ma abbiamo bisogno di più di una regolamentazione centralizzata di questo settore, sostiene Michael J. Casey.
I giganti della tecnologia statunitense sono passati rapidamente dall'essere etichettati dai loro critici come tecno-utopisti interessati a diventare i più accaniti propagandisti di una narrazione tecno-distopica.
Questa settimana, una lettera firmata da oltre 350 persone, tra cui il fondatore di Microsoft Bill Gates, il CEO di OpenAI Sam Altman e l'ex scienziato di Google Geoffrey Hinton (a volte chiamato il "Padrino dell'IA"), conteneva un'unica frase dichiarativa: "Mitigare il rischio di estinzione dovuto all'IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come pandemie e guerre nucleari".
Stai leggendoIl denaro ripensato, uno sguardo settimanale agli Eventi e alle tendenze tecnologiche, economiche e sociali che stanno ridefinendo il nostro rapporto con il denaro e trasformando il sistema finanziario globale. Iscriviti per ricevere la newsletter completa Qui.
Solo due mesi fa, un'apertura precedentelettera firmato dal CEO di Tesla e Twitter ELON Musk insieme ad altre 31.800 persone, ha chiesto una pausa di sei mesi nello sviluppo dell'intelligenza artificiale per consentire alla società di determinare i suoi rischi per l'umanità. In un articolo di opinione per TIME quella stessa settimana, Eliezer Yudkowsky, considerato il fondatore del campo dell'intelligenza artificiale generale (AGI), ha detto che si è rifiutato di firmare quella lettera perché T andava abbastanza lontano. Invece, ha chiesto una chiusura forzata militarmente dei laboratori di sviluppo dell'IA per paura che emerga un essere digitale senziente che uccide tutti noi.
I leader mondiali troveranno difficile ignorare le preoccupazioni di questi esperti altamente riconosciuti. È ormai ampiamente riconosciuto che una minaccia all'esistenza Human esiste davvero. La domanda è: come, esattamente, dovremmo mitigarla?
Come hoscritto in precedenza, vedo un ruolo per l'industria Cripto , lavorando con altre soluzioni tecnologiche e di concerto con una regolamentazione ponderata che incoraggia l'innovazione innovativa e incentrata sull'uomo, negli sforzi della società per KEEP l'IA nella sua corsia. Le blockchain possono aiutare con la provenienza degli input di dati, con prove per prevenire deep fake e altre forme di disinformazione e per abilitare la proprietà collettiva, piuttosto che aziendale. Ma anche tralasciando queste considerazioni, penso che il contributo più prezioso della comunità Cripto risieda nella sua "mentalità di decentralizzazione", che offre una prospettiva unica sui pericoli posti dalla proprietà concentrata di una Tecnologie così potente.
Una visione bizantina dei rischi dell’intelligenza artificiale
Innanzitutto, cosa intendo con questa “mentalità di decentralizzazione”?
Bene, nel CORE, la Cripto è immersa in un ethos "T fidarti, verifica". Gli sviluppatori Cripto irriducibili, piuttosto che gli avidi di denaro i cui casinò di token centralizzati mettono in cattiva luce il settore, si impegnano senza sosta in “ALICE e Bob” esperimenti mentali per considerare tutti i vettori di minaccia e i punti di errore tramite i quali un attore canaglia potrebbe intenzionalmente o meno essere in grado di fare del male. Bitcoin stesso è nato dal tentativo di Satoshi di risolvere ONE dei più famosi di questi scenari di teoria dei giochi, il Problema dei generali bizantini, che spiega come fidarsi delle informazioni fornite da qualcuno che T si conosce.
La mentalità considera la decentralizzazione come il modo per affrontare tali rischi. L'idea è che se non esiste un'entità centralizzata con poteri di intermediazione per determinare l'esito di uno scambio tra due attori, ed entrambi possono fidarsi delle informazioni disponibili su tale scambio, allora la minaccia di un intervento malevolo viene neutralizzata.
Ora, applichiamo questa visione del mondo alle richieste esposte nella lettera di questa settimana sull’“estinzione” dell’IA.
I firmatari vogliono che i governi si uniscano e concepiscano politiche a livello internazionale per affrontare la minaccia dell'IA. È un obiettivo nobile, ma la mentalità della decentralizzazione direbbe che è ingenuo. Come possiamo supporre che tutti i governi, presenti e futuri, riconosceranno che i loro interessi sono tutelati dalla cooperazione piuttosto che dall'andare avanti da soli, o peggio, che T diranno ONE cosa ma ne faranno un'altra? (Se pensi che monitorare il programma di armi nucleari della Corea del Nord sia difficile, prova a nasconderti dietro un muro di crittografia finanziato dal Cremlino per sbirciare nei suoi esperimenti di apprendimento automatico.)
ONE cosa era aspettarsi un coordinamento globale attorno alla pandemia di COVID, quando ogni paese aveva bisogno di vaccini, o aspettarsi che la logica di distruzione reciprocamente assicurata (MAD) porterebbe persino i nemici più acerrimi della Guerra Fredda ad accettare di non portare nemmeno le armi nucleari, dove lo scenario peggiore è così ovvio a tutti. Un'altra cosa è che accada intorno a qualcosa di imprevedibile come la direzione dell'IA e, cosa altrettanto importante, dove gli attori non governativi possono facilmente usare la Tecnologie indipendentemente dai governi.
La preoccupazione chealcuni nella comunità delle Cripto hanno di questi grandi attori dell'IA che si affrettano a regolamentare è che creeranno un fossato per proteggere il loro vantaggio di primi arrivati, rendendo più difficile per i concorrenti inseguirli. Perché questo è importante? Perché nell'approvare un monopolio, si crea il rischio molto centralizzato che questi esperimenti mentali Cripto vecchi di decenni ci dicono di evitare.
Non ho mai dato molto credito al motto di Google "Do No Evil", ma anche se Alphabet, Microsoft, OpenAI e soci fossero ben intenzionati, come faccio a sapere che la loro Tecnologie T verrà cooptata da un consiglio esecutivo, da un governo o da un hacker con motivazioni diverse in futuro? O, in un senso più innocente, se quella Tecnologie esiste all'interno di una scatola nera aziendale impenetrabile, come possono gli estranei controllare il codice dell'algoritmo per assicurarsi che uno sviluppo ben intenzionato non stia inavvertitamente deragliando?
Ed ecco un altro esperimento mentale per esaminare il rischio di centralizzazione per l’IA:
Se, come credono persone come Yudkowsky, l’intelligenza artificiale è destinata, seguendo la sua attuale traiettoria, aStato dell'intelligenza artificiale generale (AGI), con un'intelligenza che potrebbe portarla a concludere che dovrebbe ucciderci tutti, quale scenario strutturale la porterà a trarre tale conclusione? Se i dati e la capacità di elaborazione che mantengono l'IA "in vita" sono concentrati in un'unica entità che può essere spenta da un governo o da un CEO preoccupato, ONE potrebbe logicamente sostenere che l'IA ci ucciderebbe per prevenire tale possibilità. Ma se l'IA stessa "vive" all'interno di una rete di nodi decentralizzata e resistente alla censura che non può essere spenta, questo essere digitale senziente T si sentirà sufficientemente minacciato da sradicarci.
Non ho idea, ovviamente, se le cose andrebbero così. Ma in assenza di una sfera di cristallo, la logica della tesi AGI di Yudowskly richiede che ci impegniamo in questi esperimenti mentali per considerare come questa potenziale nemesi futura potrebbe "pensare".
Trovare il giusto mix
Naturalmente, la maggior parte dei governi avrà difficoltà a comprare tutto questo. Preferiranno naturalmente il messaggio "per favore regolateci" che Altman di OpenAI e altri stanno attivamente trasmettendo in questo momento. I governi vogliono il controllo; vogliono la capacità di citare in giudizio i CEO e ordinare chiusure. È nel loro DNA.
E, per essere chiari, dobbiamo essere realisti. Viviamo in un mondo organizzato attorno agli stati nazionali. Che ci piaccia o no, è il sistema giurisdizionale con cui siamo bloccati. Non abbiamo altra scelta che includere un certo livello di regolamentazione nella strategia di mitigazione dell'estinzione dell'IA.
La sfida consiste nell'individuare il giusto mix complementare di regolamentazione dei governi nazionali, trattati internazionali e modelli di governance decentralizzati e transnazionali.
Ci sono, forse, lezioni da trarre dall'approccio che governi, istituzioni accademiche, aziende private e organizzazioni non-profit hanno adottato per regolamentare Internet. Attraverso enti come l'Internet Corporation for Assigned Names (ICANN) e l'Internet Engineering Task Force(Istituto Europeo di Tecnologia), abbiamo introdotto quadri normativi multistakeholder per consentire lo sviluppo di standard comuni e consentire la risoluzione delle controversie tramite arbitrato anziché tramite tribunali.
Un certo livello di regolamentazione dell'IA sarà, senza dubbio, necessario, ma non c'è modo che questa Tecnologie senza confini, aperta e in rapida evoluzione possa essere controllata interamente dai governi. Speriamo che possano mettere da parte l'attuale animosità verso l'industria Cripto e cercare il suo consiglio su come risolvere queste sfide con approcci decentralizzati.
Nota: Le opinioni espresse in questa rubrica sono quelle dell'autore e non riflettono necessariamente quelle di CoinDesk, Inc. o dei suoi proprietari e affiliati.
Michael J. Casey
Michael J. Casey è presidente della Decentralized AI Society, ex Chief Content Officer presso CoinDesk e coautore di Our Biggest Fight: Reclaiming Liberty, Humanity, and Dignity in the Digital Age. In precedenza, Casey è stato CEO di Streambed Media, un'azienda da lui co-fondata per sviluppare dati di provenienza per contenuti digitali. È stato anche consulente senior presso la Digital Currency Initiative del MIT Media Labs e docente senior presso la MIT Sloan School of Management. Prima di entrare al MIT, Casey ha trascorso 18 anni al Wall Street Journal, dove il suo ultimo incarico è stato quello di editorialista senior che si occupava di affari economici globali. Casey è autore di cinque libri, tra cui "The Age of Criptovaluta: How Bitcoin and Digital Money are Challenging the Global Economic Order" e "The Truth Machine: The Blockchain and the Future of Everything", entrambi scritti in collaborazione con Paul Vigna. Dopo essere entrato a tempo pieno in CoinDesk , Casey si è dimesso da una serie di posizioni di consulenza retribuite. Mantiene posizioni non retribuite come consulente per organizzazioni non-profit, tra cui la Digital Currency Initiative del MIT Media Lab e The Deep Trust Alliance. È azionista e presidente non esecutivo di Streambed Media. Casey possiede Bitcoin.
