Compartilhe este artigo

I potenziatori dell'intelligenza artificiale sacrificherebbero l'umanità per un simulacro, finché ne avessero il controllo

Il sostegno all’intelligenza artificiale e le idee “a lungo termine” ad essa associate potrebbero rappresentare una minaccia per la Privacy, la proprietà e i diritti civili.

Gli esseri umani hanno sempre avuto uno strano rapporto con la loro Tecnologie. Che si tratti di fuoco, parola scritta o intelligenza artificiale (IA), le cose che creiamo per potenziarci ed estenderci spesso finiscono per sembrare strane forze esterne, il loro impatto trasformativo sulle nostre vite e menti è profondo e imprevedibile come quello di dei capricciosi.

Questo articolo è tratto da The Node, il riepilogo quotidiano di CoinDesk delle storie più importanti in tema di blockchain e Cripto . Puoi abbonarti per ottenere l'intero newsletter qui.

A História Continua abaixo
Não perca outra história.Inscreva-se na Newsletter The Node hoje. Ver Todas as Newsletters

Nel 21° secolo, ci sono molte tecnologie al cui impatto T siamo ancora adattati, come i social media. Altre, in particolare l'intelligenza artificiale e la Criptovaluta, non sono ancora completamente sviluppate, ma sono destinate ad avere un impatto importante sul nostro modo di vivere. Ciò include la definizione del modo in cui pensiamo al mondo: i gruppi Human sono spesso profondamente influenzati dai pregiudizi intrinseci delle tecnologie su cui si basano. (Questa relazione tra l'umanità e la sua Tecnologie è stata l'obiettivo principale della mia carriera accademica prima di dedicarmi al giornalismo.)

I casi di AI e Criptovaluta sono particolarmente avvincenti. I rispettivi fondamenti tecnologici sono entrambi mappati su idee molto più ampie sulla società e persino sulla moralità individuale. I due insiemi di idee sembrano anche per molti versi diametralmente e fondamentalmente opposti. Da ONE lato, hai gli ideologi Cripto , spesso una qualche varietà di libertari; dall'altro, hai il tecno-utopismo dei sostenitori dell'AI.

Il principio CORE della tecnologia blockchain è l'universalità. Il punto è che tutti, ovunque, possono accedere a questi strumenti e servizi, indipendentemente dal fatto che qualcuno in autorità sia d'accordo o meno. Un corollario di questo principio è dare un valore molto elevato Privacy . Questi valori portano a una quantità significativa di caos, ma l'etica sottostante include la convinzione che tale caos sia produttivo, o almeno un compromesso necessario per la prosperità Human .

Le comunità di intelligenza artificiale tendono a una visione del mondo molto diversa, anche strettamente legata alla struttura della Tecnologie. Il ruolo fondamentale di un'IA è osservare il comportamento Human e poi copiarlo, in tutte le sue sfumature. Ciò ha molte implicazioni, ma le principali includono l'eventuale fine del lavoro Human , la centralizzazione tecnica e una tendenza alla totale trasparenza dei dati.

Questi possono sembrare innocui o addirittura positivi. Ma per dirla senza mezzi termini, le implicazioni dei pregiudizi tecnici dell'IA sembrano piuttosto cupe per l'umanità. Ciò rende ancora più affascinante osservare i promotori dell'IA non solo abbracciare quelle cupe implicazioni, ma lavorare instancabilmente per renderle reali.

T sei più Human

La manifestazione più palesemente malevola della visione del mondo dell'IA potrebbe non sembrare ONE. Worldcoin è apparentemente un progetto Criptovaluta progettato per distribuire un "reddito di cittadinanza universale" (UBI) in cambio di raccolta di dati biometrici ultrasensibiliprovenienti da popolazioni vulnerabili.

Ma mentre in superficie è una "Cripto", Worldcoin è in realtà un progetto di intelligenza artificiale nella sostanza. È frutto dell'ingegno di Sam Altman, fondatore anche di OpenAI. Il suo obiettivo di identificare gli individui e dare loro un reddito di cittadinanza si basa su un futuro in cui l'intelligenza artificiale prenderà il sopravvento su tutti i lavori Human , richiedendo una ridistribuzione amministrata centralmente della ricchezza generata dall'intelligenza artificiale.

Vedi anche:Perché tutti sono arrabbiati con il Worldcoin di Sam AltmanItaliano: (2021)

ONE spesso trascurata di questo è che in questo futuro, persone come Sam Altman saranno quelle che avranno ancora un lavoro significativo e libertà individuale, perché saranno loro a gestire le macchine. Il resto di noi, a quanto pare, dovrà sopravvivere con Worldcoin.

Se tutto questo vi sembra disumanizzante, provate a vedere quanto segue: diritti Human per le macchineIn un saggio pubblicato su The Hill il 23 marzo, la collaboratrice Jacy Reese Anthis ha dichiarato: "Abbiamo bisogno di un movimento per i diritti dell'intelligenza artificiale". Come molti hanno sottolineato, ciò è filosoficamente sospetto perché non ci sono prove convincenti che le intelligenze artificiali avranno o potranno mai avere un'esperienza soggettiva o conoscere la sofferenza in un modo che richiederebbe protezione.

Gli hype dell'IA hanno fatto di tutto per oscurare questa questione della coscienza soggettiva. Hanno lanciatouna serie di argomenti maliziosamente fuorviantiche le IA – compresi, per assurdo, i modelli linguistici attualmente esistenti – possiedano una qualche forma di coscienza, ovvero l’esperienza soggettiva dell’essere nel mondo.La coscienza e le sue originisono tra i più grandi misteri dell'esistenza di tutti i tempi, ma i sostenitori dell'intelligenza artificiale sembrano spesso avere una comprensione superficiale della questione, o persino di cosa significhi la parola "coscienza".

Anthis, co-fondatore di un istituto chiamato Sentience Institute, ripete nel suo saggio l'errore logico fondamentale di molta ricerca imperfetta sull'intelligenza artificiale: accettare acriticamente il risultato visibile dell'intelligenza artificiale come segno diretto di un'esperienza soggettiva interna.

Per quanto folle sia la richiesta di diritti per l'IA, T abbiamo ancora toccato i margini più remoti dell'inganno fuorviante dell'IA. A fine marzo, nientemeno che l'aspirante filosofo-re Eleizer Yudkowsky ha suggerito che i suoi seguaci dovrebbero essere preparati acommettere attacchi violenti alle server farmper rallentare o fermare l'avanzata dell'intelligenza artificiale.

Qualcuno potrebbe sorprendersi se includo Yudkowsky tra le forze pro-IA. Yudkowsky è il leader di un movimento di "sicurezza dell'IA" nato dal suo blog "razionalista" LessWrong, e sostiene che l'IA potrebbe potenzialmente conquistare il mondo e distruggere l'umanità. La validità di queste idee è oggetto di dibattito, ma la cosa importante qui è che Yudkowsy e i suoi cosiddetti pari razionalisti T si oppongono all'intelligenza artificiale. Gli Yudkowskyiti credono che l'IA possa realizzare un'utopia (di nuovo, un'utopia di cui sarebbero responsabili) ma che comporti seri rischi. Sono fondamentalmente sostenitori dell'IA vestiti con abiti da scettici.

Ciò contrasta con lo scetticismo più genuino e fondato di personaggi come Timnit Gebru eCathy O'Neil. Questi ricercatori, che non hanno quasi il seguito di Yudkowsky, T sono preoccupati per un'apocalisse lontana nel tempo. La loro preoccupazione è per un pericolo chiaro e presente: che gli algoritmi addestrati sul comportamento Human riproducano anche i difetti di quel comportamento, come la discriminazione razziale e altre forme. Gebru era notoriamentelicenziato da Googleper aver avuto la temerarietà diindicareproblemi con l'intelligenza artificialeche minacciavano il modello di business di Google.

Si può notare la somiglianza qui con altri movimenti ideologici, in particolare le idee correlate di“altruismo efficace” e “visione a lungo termine”.Emile P. Torres, filosofo con sede presso l’Università di Leibniz in Germania, è tra coloro che descrivono il profondo allineamento e le affiliazioni tra gli yudkowskyiti, i “transumanisti”, gli altruisti efficaci e i longtermisti, sotto l’acronimoTESCREALE. Come solo ONE piccolo esempio di questo allineamento, FTX, il fraudolento exchange Cripto gestito sostanzialmente da altruisti efficaci e guidato da un uomo che fingeva di essere ONE, ha fatto grandi donazioni (utilizzando fondi presumibilmente rubati) aSicurezza dell'intelligenza artificialegruppi, così come altre cause a lungo termine.

Questo pacchetto di visioni del mondo, sostiene Torres, si riduce a “colonizzare, soggiogare, sfruttare e massimizzare.” In Worldcoin in particolare vediamo un'anteprima dell'implacabile autoritarismo di un mondo in cui le macchine copiano all'infinito i comportamenti Human e li sostituiscono, fatta eccezione per la manciata di umani con le mani sul timone.

Vedi anche:L'intersezione tra intelligenza artificiale e Cripto| Il denaro ripensato

C'è molto altro da dire qui, ma per coloro che operano nel mondo Cripto , ONE dichiarazione dell'asse TESCREAL merita particolare attenzione. In un saggio molto recente, Yudkowsky ha dichiarato che la futura minaccia di un'intelligenza artificiale pericolosa potrebbe richiedere "un monitoraggio globale molto forte, incluso rompere tutta la crittografia, per prevenire comportamenti ostili da parte dell'AGI."

In altre parole, per queste persone la Privacy e l'autonomia degli umani nel presente devono essere scartate in favore della creazione delle condizioni per un'espansione sicura e continua dell'intelligenza artificiale nel futuro. Lascio a voi decidere se questo è un futuro, o un presente, che chiunque dovrebbe desiderare.

Nota: As opiniões expressas nesta coluna são do autor e não refletem necessariamente as da CoinDesk, Inc. ou de seus proprietários e afiliados.

David Z. Morris

David Z. Morris è stato il Chief Insights Columnist di CoinDesk. Ha scritto di Cripto dal 2013 per testate come Fortune, Slate e Aeon. È autore di "Bitcoin is Magic", un'introduzione alle dinamiche sociali di Bitcoin. È un ex sociologo accademico della Tecnologie con un dottorato di ricerca in Media Studies presso l'Università dell'Iowa. Possiede Bitcoin, Ethereum, Solana e piccole quantità di altre Cripto .

David Z. Morris