- Torna al menu
- Torna al menuPrezzi
- Torna al menuRicerca
- Torna al menu
- Torna al menu
- Torna al menu
- Torna al menu
- Torna al menuWebinar ed Eventi
Possiamo mai fidarci degli agenti AI?
L'intelligenza artificiale decentralizzata ci offre la possibilità di fidarci degli agenti che presto popoleranno le nostre vite digitali, afferma Marko Stokic, responsabile dell'intelligenza artificiale presso Oasis.

Il famoso psicologo di Harvard BF Skinner una volta affermò che "il vero problema non è se le macchine pensano, ma se gli uomini lo fanno". Questa arguta osservazione sottolinea un punto un tempo cruciale: che la nostra fiducia nella Tecnologie si basa sul giudizio Human . Non è dell'intelligenza delle macchine che dovremmo preoccuparci, ma della saggezza e della responsabilità di coloro che la controllano. O almeno di questo. erail caso.
Con software come ChatGPT ormai parte integrante di molte vite lavorative, l'intuizione di Skinner sembra quasi pittoresca. L'ascesa fulminea degli agenti AI, entità software in grado di percepire il loro ambiente e intraprendere azioni per raggiungere obiettivi specifici, ha cambiato radicalmente il paradigma. Questi assistenti digitali, nati dal boom dell'AI consumer dei primi anni del 2020, ora permeano le nostre vite digitali, gestendo attività che vanno dalla pianificazione degli appuntamenti alle decisioni di investimento.
Cosa sono gli agenti di intelligenza artificiale?
Gli agenti AI differiscono in modo significativo dai modelli di linguaggio di grandi dimensioni (LLM) come ChatGPT nella loro capacità di azione autonoma. Mentre gli LLM elaborano e generano principalmente testo, gli agenti AI sono progettati per percepire il loro ambiente, prendere decisioni e intraprendere azioni per raggiungere obiettivi specifici. Questi agenti combinano varie tecnologie AI, tra cui elaborazione del linguaggio naturale, visione artificiale e apprendimento per rinforzo, consentendo loro di adattarsi e Imparare dalle loro esperienze.
Ma mentre gli agenti di intelligenza artificiale proliferano e iterano, lo stesso accade con un fastidioso disagio. Possiamo mai fidarci veramente di queste entità digitali? La domanda è tutt'altro che accademica. Gli agenti di intelligenza artificiale operano in ambienti complessi, prendendo decisioni basate su vasti set di dati e algoritmi intricati che persino i loro creatori fanno fatica a comprendere appieno. Questa opacità intrinseca genera sfiducia. Quando un agente di intelligenza artificiale raccomanda un trattamento medico o prevede le tendenze del mercato, come possiamo essere certi del ragionamento alla base delle sue scelte?
Le conseguenze di una fiducia mal riposta negli agenti AI potrebbero essere disastrose. Immaginate un consulente finanziario basato sull'AI che inavvertitamente fa crollare i Mercati a causa di un punto dati male interpretato, o un'AI sanitaria che raccomanda trattamenti errati sulla base di dati di formazione distorti. Il potenziale di danno non è limitato ai singoli settori; man mano che gli agenti AI diventano più integrati nella nostra vita quotidiana, la loro influenza cresce esponenzialmente. Un passo falso potrebbe avere ripercussioni sulla società, influenzando tutto, dalla Privacy personale all'economia globale.
Al centro di questo deficit di fiducia c'è una questione fondamentale: la centralizzazione. Lo sviluppo e l'implementazione di modelli di IA sono stati in gran parte di competenza di una manciata di giganti della tecnologia. Questi modelli di IA centralizzati operano come scatole nere, i loro processi decisionali sono oscurati dal controllo pubblico. Questa mancanza di trasparenza rende praticamente impossibile fidarsi delle loro decisioni in operazioni ad alto rischio. Come possiamo fare affidamento su un agente di IA per prendere decisioni critiche quando non possiamo comprendere o verificare il suo ragionamento?
La decentralizzazione come risposta
Tuttavia, una soluzione a queste preoccupazioni esiste: l'IA decentralizzata. Un paradigma che offre un percorso verso agenti di IA più trasparenti e affidabili. Questo approccio sfrutta i punti di forza della Tecnologie blockchain e di altri sistemi decentralizzati per creare modelli di IA che non sono solo potenti, ma anche responsabili.
Gli strumenti per creare fiducia negli agenti AI esistono già. Le blockchain possono abilitare un calcolo verificabile, assicurando che le azioni AI siano verificabili e tracciabili. Ogni decisione presa da un agente AI potrebbe essere registrata su un registro pubblico, consentendo una trasparenza senza precedenti. Contemporaneamente, tecniche crittografiche avanzate come il trusted execution environment machine learning (TeeML) possono proteggere i dati sensibili e mantenere l'integrità del modello, ottenendo sia trasparenza che Privacy.
Poiché gli agenti AI operano sempre più adiacenti o direttamente su blockchain pubbliche, il concetto di verificabilità diventa cruciale. I modelli AI tradizionali potrebbero avere difficoltà a dimostrare l'integrità delle loro operazioni, ma gli agenti AI basati su blockchain possono fornire garanzie crittografiche del loro comportamento. Questa verificabilità non è solo una finezza tecnica; è un requisito fondamentale per la fiducia in ambienti ad alto rischio.
Le tecniche di elaborazione confidenziale, in particolare gli ambienti di esecuzione attendibili (TEE), offrono un importante livello di garanzia. I TEE forniscono un'enclave sicura in cui possono verificarsi calcoli AI, isolati da potenziali interferenze. Questa Tecnologie garantisce che persino gli operatori del sistema AI non possano manomettere o spiare il processo decisionale dell'agente, rafforzando ulteriormente la fiducia.
Framework come Runtime Off-chain Logic (ROFL) di Oasis Network rappresentano l'avanguardia di questo approccio, consentendo un'integrazione senza soluzione di continuità del calcolo AI verificabile con l'audit e la trasparenza on-chain. Tali innovazioni ampliano le possibilità per le applicazioni basate su AI mantenendo al contempo i più elevati standard di fiducia e trasparenza.
Verso un futuro di intelligenza artificiale affidabile
Il percorso verso agenti AI affidabili non è privo di sfide. Rimangono ostacoli tecnici e l'adozione diffusa di sistemi AI decentralizzati richiederà un cambiamento sia nelle pratiche del settore che nella comprensione pubblica. Tuttavia, le potenziali ricompense sono immense. Immagina un mondo in cui gli agenti AI prendono decisioni critiche con piena trasparenza, in cui le loro azioni possono essere verificate e controllate da chiunque e in cui il potere dell'intelligenza artificiale è distribuito anziché concentrato nelle mani di poche aziende.
C'è anche la possibilità di sbloccare una crescita economica significativa. ONE 2023 studiodi Pechino hanno scoperto che un aumento dell'1% nella penetrazione dell'IA porta a un aumento del 14,2% nella produttività totale dei fattori (TFP). Tuttavia, la maggior parte degli studi sulla produttività dell'IA si concentra su LLM generali, non su agenti di IA. Agenti di IA autonomi in grado di eseguire più attività in modo indipendente potrebbero potenzialmente produrre maggiori guadagni di produttività. Agenti di IA affidabili e verificabili sarebbero probabilmente ancora più efficaci.
Forse è giunto il momento di aggiornare la famosa citazione di Skinner. Il vero problema non è più se le macchine pensano, ma se possiamo fidarci dei loro pensieri. Con l'intelligenza artificiale decentralizzata e la blockchain, abbiamo gli strumenti per costruire quella fiducia. La domanda ora è se abbiamo la saggezza di usarli.
Nota: le opinioni espresse in questa rubrica sono quelle dell'autore e non riflettono necessariamente quelle di CoinDesk, Inc. o dei suoi proprietari e affiliati.
Nota: Le opinioni espresse in questa rubrica sono quelle dell'autore e non riflettono necessariamente quelle di CoinDesk, Inc. o dei suoi proprietari e affiliati.
Marko Stokic
Marko Stokic is the Head of AI at the Oasis Protocol Foundation, where works with a team focused on developing cutting-edge AI applications integrated with blockchain technology. With a business background, Marko's interest in crypto was sparked by Bitcoin in 2017 and deepened through his experiences during the 2018 market crash. He pursued a master’s degree and gained expertise in venture capital, concentrating on enterprise AI startups before transitioning to a decentralized identity startup, where he developed privacy-preserving solutions. At Oasis, he merges strategic insight with technical knowledge to advocate for decentralized AI and confidential computing, educating the market on Oasis’ unique capabilities and fostering partnerships that empower developers. As an engaging public speaker, Marko shares insights on the future of AI, privacy, and security at industry events, positioning Oasis as a leader in responsible AI innovation.
