- Back to menu
- Back to menuMga presyo
- Back to menuPananaliksik
- Back to menuPinagkasunduan
- Back to menu
- Back to menu
- Back to menu
- Back to menu
- Back to menuMga Webinars at Events
Paano Makakatulong ang Crypto na I-secure ang AI
Ang mabilis na pag-unlad sa artificial intelligence ay lumikha ng mga natatanging hamon sa kaligtasan. Makakatulong ba ang mga kasanayan at diskarte na hinahasa ng komunidad ng Crypto na gawing ligtas ang AI para sa sangkatauhan?
Parehong, Crypto at AI, ay nakakita ng kapansin-pansing pag-unlad sa nakalipas na ilang taon.
Ipinagdiwang ng Crypto ang mga tagumpay tulad ng DeFi, at mas kamakailan DeSci.
Ipinagdiwang ng AI ang mga tagumpay tulad ng AlphaFold2, at mas kamakailan ChatGPT.
Noong 2018, si Peter Thiel itinuro sa tensyon sa pagitan ng mga desentralisadong pwersa ng Crypto at ng sentralisadong pwersa ng AI, na nabuo ang terminong “Crypto is libertarian, AI is Communist.” Dito gusto kong magtaltalan na baka may Learn tayo sa pagsasama ng dalawa.
Bakit? Dahil ang mga kasanayan at diskarte na hinahasa ng komunidad ng seguridad at Crypto ay may potensyal na mag-unlock ng mga kapaki-pakinabang na application ng AI at mabawasan ang mga panganib sa AI.
Si Allison Duettmann ay ang presidente at CEO ng Foresight Institute. Siya ang nagtuturo sa Matalinong Kooperasyon, Mga Molecular Machine, Biotech at Health Extension, Neurotech, at kalawakan Programs, Fellowships, Prizes, at Tech Trees, at ibinabahagi ang gawaing ito sa publiko.
Mamamatay ba tayong lahat?
Si Eliezer Yudkowsky, isang kilalang tao sa kaligtasan ng AI, kamakailan ay gumawa ng isang nakakagulat na hitsura sa Bankless Podcast, isang natatanging Web3 podcast.
Ito ay nakakagulat sa dalawang kadahilanan:
Una, inaakala ni Eliezer na tayo ay nasa isang mabilis na landas patungo sa pagbuo ng Artificial General Intelligence (AGI) na kayang gawin ang halos lahat ng mga gawain na ginagawa ng mga tao, at malamang na papatayin tayong lahat ng naturang AGI.
Pangalawa, nang tanungin kung may anumang bagay na ONE gawin upang madagdagan ang maliit na pagkakataon na maaari tayong mabuhay, hinikayat niya ang mga taong nakatuon sa seguridad at cryptography na may malakas na pag-iisip sa seguridad na tumulong sa AI alignment.
I-unpack natin iyan. Una, tatalakayin natin kung bakit dapat tayong mag-alala tungkol sa AGI, bago mag-zoom sa mga pangako na mayroon ang Crypto (narito ang pangunahing kahulugan ng cryptography) at komunidad ng seguridad para sa pagpapagaan ng ilan sa mga panganib ng AGI.
Kaligtasan ng AI: mas mahirap kaysa sa iyong iniisip?
Tulad ng mapapatunayan ng sinumang sumisilip sa balita kamakailan, walang linggong lumilipas nang walang pag-unlad sa AI na bumibilis nang husto. Kung sakaling napalampas mo ito, narito lamang ang tatlong mahahalagang pag-unlad:
Una, nagkaroon ng pagtulak tungo sa higit pang sentralisasyon ng AI, halimbawa ng pamumuhunan ng Microsoft sa OpenAI, pamumuhunan ng Google sa kakumpitensya ng OpenAI na Anthropic, at pagsasama ng DeepMind at Google Brain sa ONE organisasyon.
Read More: Michael J. Casey - Bakit Magkasama ang Web3 at ang AI-Internet
Pangalawa, nagkaroon ng pagtulak para sa mas pangkalahatang AI. Ang kamakailang papel "GPT4: Sparks ng Artipisyal na Pangkalahatang Katalinuhan” ay nagpakita kung paano ipinakita na ng GPT-4 ang mga unang pagkakataon ng teorya ng pag-iisip, isang sukatan na karaniwang ginagamit upang masuri ang katalinuhan ng Human .
Pangatlo, nagkaroon ng pagtulak para sa higit pang ahensya sa mga sistema ng AI, kung saan ang AutoGPT ay nagiging mas ahente sa pamamagitan ng muling pag-prompt sa sarili upang makamit ang mas kumplikadong mga gawain.
Noong Disyembre, Metaculus, isang platform ng pagtataya, ay hinulaang ang pagdating ng AGI halos sa taong 2039. Ngayon, sa Mayo, ang petsa ay nasa 2031 - sa madaling salita, isang walong taong pagbaba ng timeline sa loob ng limang buwan ng pag-unlad ng AI.
Kung gagawin natin ang mga pag-unlad na ito bilang mga palatandaan na tayo ay nasa landas patungo sa Artipisyal na Pangkalahatang Katalinuhan, ang susunod na tanong ay bakit itinuturing na napakahirap ang kaligtasan ng AGI?
Masasabing, maaari nating hatiin ang problema sa kaligtasan ng AGI sa tatlong subproblema:
Alignment: Paano natin maiayon ang AI sa mga halaga ng Human ?
Ang AI alignment ay ang simpleng tanong kung paano natin makukuha ang mga AI upang iayon sa ating mga value. Ngunit madaling kalimutan na T tayo magkasundo sa kung ano ang ating mga halaga. Mula sa simula ng sibilisasyon, ang mga pilosopo at mga mortal ay magkapareho ay nagtalo tungkol sa etika, na may nakakumbinsi na mga punto sa lahat ng panig. Iyon ang dahilan kung bakit ang ating kasalukuyang sibilisasyon ay dumating, karamihan, sa halaga ng pluralismo (ang ideya ng mga tao na may magkasalungat na mga halaga ay mapayapang umiiral). Gumagana iyon para sa pagkakaiba-iba ng mga halaga ng Human ngunit isang mahirap na bagay na ipatupad sa ONE artipisyal na matalinong ahente.
Isipin natin sa isang matamis na minuto na alam natin, halos, kung anong mga pagpapahalagang moral ang ibibigay sa AGI. Susunod, kailangan nating ipaalam ang mga halagang ito ng Human sa isang nilalang na nakabatay sa silikon na T nagbabahagi ng ebolusyon ng Human , arkitektura ng pag-iisip, o konteksto. Kapag ang mga tao ay nakikipag-ugnayan sa ibang mga tao, maaari tayong umasa sa maraming nakabahaging implicit na kaalaman sa background dahil ibinabahagi natin ang biology ng ating species, kasaysayan ng ebolusyon, at madalas kahit ilang konteksto ng kultura. Sa AI, hindi tayo makakaasa sa ganoong karaniwang konteksto.
Read More: Michael J. Casey - Ang Aralin ng Web2 para sa AI: Desentralisado upang Protektahan ang Sangkatauhan
Ang isa pang problema ay, para sa pagtugis ng anumang layunin, sa pangkalahatan ay kapaki-pakinabang ang pagiging buhay at makakuha ng mas maraming mapagkukunan. Nangangahulugan ito na, ang isang AI na nakatakda upang ituloy ang isang partikular na layunin ay maaaring labanan ang pagsasara at maghanap ng higit at higit pang mga mapagkukunan. Dahil sa hindi mabilang na mga posibilidad kung saan maaaring makamit ng AI ang mga layunin na kinabibilangan ng pinsala sa Human , kapabayaan, panlilinlang, at higit pa, at dahil sa kung gaano kahirap hulaan at tukuyin nang maaga ang lahat ng mga hadlang na iyon sa isang maaasahang paraan, ang trabaho ng teknikal na pagkakahanay ay nakakatakot.
Computer seguridad
Kahit na ang mga tao ay sumang-ayon sa isang hanay ng mga halaga, at alamin kung paano teknikal na ihanay ang isang AGI sa kanila, T pa rin namin inaasahan na ito ay kumilos nang mapagkakatiwalaan nang walang patunay na ang pinagbabatayan na software at hardware ay maaasahan mismo. Dahil sa malaking kalamangan na ibinibigay ng AGI sa mga tagalikha nito, maaaring isabotahe o i-reprogram ng mga malisyosong hacker ang AGI.
Higit pa rito, ang isang hindi sinasadyang bug ay maaaring makagambala sa pagpapatupad ng layunin ng AGI o ang AGI mismo ay maaaring magsamantala ng mga kahinaan sa sarili nitong code, halimbawa sa pamamagitan ng muling pagprograma ng sarili sa mga mapanganib na paraan.
Sa kasamaang palad, binuo namin ang buong multi-trillion-dollar na ecosystem ngayon sa mga hindi secure na cyber foundation. Karamihan sa aming pisikal na imprastraktura ay nakabatay sa mga na-hack na system, gaya ng electric grid, ang aming Technology nuclear weapon . Sa hinaharap, kahit na ang mga insecure na self-driving na kotse at autonomous drone ay maaaring ma-hack para maging mga killer bot. Ang pag-mount ng mga cyberattack gaya ng Sputnick o Solarwinds ay malubha ngunit maaaring benign kung ihahambing sa mga potensyal na pag-atake na pinagana ng AG sa hinaharap. Ang aming kakulangan ng makabuluhang tugon sa mga pag-atake na ito ay nagmumungkahi na hindi namin kayang gawin ang tungkulin ng AGI-safe na seguridad na maaaring mangailangan ng muling pagtatayo ng marami sa aming hindi secure na imprastraktura.
Sa pamamagitan ng paggamit ng mga teknolohiya at kasanayan sa mga komunidad ng seguridad at cryptography, maaari nating ituloy ang isang multipolar superintelligence scenario
Koordinasyon
Ang paggawa ng pag-unlad sa pagkakahanay at seguridad ng AGI ay maaaring tumagal ng oras, na ginagawang mahalaga para sa mga aktor na bumubuo ng AGI na mag-coordinate sa daan. Sa kasamaang-palad, ang pagbibigay-insentibo sa mga pangunahing aktor ng AI (maaaring ito ay mga kooperasyon o mga bansang estado) na makipagtulungan at maiwasan ang pag-udyok sa mga dynamics ng karera ng armas upang makapunta muna sa AGI ay hindi ganoong diretso. Ang sakuna ay nangangailangan lamang ng ONE aktor upang lumihis mula sa isang kasunduan, ibig sabihin, kahit na ang iba ay nagtutulungan, kung ang ONE ay nangunguna, sila ay nakakuha ng mapagpasyang kalamangan. Nagpapatuloy ang first mover advantage na ito hanggang sa mabuo ang AGI at mabigyan ng kapangyarihan na maaaring ihatid ng unitary deployment ng AGI system sa may-ari nito, at ito ay isang mahirap na tukso para sa may-ari na talikuran.
Secure Multipolar AI
Marahil ay tumango ka na sa ngayon: Oo, sigurado, ang kaligtasan ng AI ay talagang mahirap. Ngunit ano sa mundo ang kinalaman ng Crypto dito?
Dahil sa mabilis na pag-unlad ng AI, at sa mga kahirapan sa paggawa nito na ligtas, ang tradisyunal na alalahanin ay na tayo ay nakikipagkarera patungo sa isang AGI singleton scenario, kung saan ang isang AGI ay nag-aalis ng sibilisasyon ng Human bilang pangkalahatang balangkas ng kaugnayan para sa katalinuhan at nangingibabaw sa mundo, na posibleng pumatay sa sangkatauhan sa daan.
Sa pamamagitan ng paggamit ng mga teknolohiya at kasanayan sa mga komunidad ng seguridad at cryptography, maaari tayong magbago ng landas upang sa halip ay ituloy ang isang multipolar superintelligence scenario, kung saan ang mga network ng mga tao at AI ay ligtas na nagtutulungan upang mabuo ang kanilang lokal na kaalaman sa kolektibong superintelligence ng sibilisasyon.
Isa itong malaki at abstract na pag-aangkin, kaya't i-unpack natin kung paano eksaktong makakatulong ang Crypto at mga komunidad ng seguridad na mapaamo ang mga panganib ng AI at mapalabas ang kagandahan ng AI sa pamamagitan ng pag-unlock ng mga bagong application.

Paano mapaamo ng seguridad at cryptography ang mga panganib sa AI?
Red-teaming
Paul Christiano, isang kagalang-galang na AI safety researcher, nagmumungkahi na Ang AI ay lubhang nangangailangan ng higit pang red-teaming, karaniwang isang terminong ginagamit sa seguridad ng computer upang sumangguni sa mga simulate na pag-atake sa cyber. Halimbawa, maaaring gamitin ang mga pulang koponan sa konteksto ng AI upang maghanap ng mga input na nagdudulot ng mga sakuna na gawi sa mga system ng machine learning.
Ang red-teaming ay isang bagay din na nararanasan ng komunidad ng Crypto . Parehong umuunlad ang Bitcoin at Ethereum sa isang kapaligiran na nasa ilalim ng tuluy-tuloy na pag-atake ng adversarial, dahil ang mga hindi secure na proyekto ay nagpapakita ng katumbas ng multimillion-dollar Cryptocurrency "bug bounties."
Inalis ang mga sistemang hindi tinatablan ng bala, na nag-iiwan lamang ng higit pang mga sistemang hindi tinatablan ng bala sa loob ng ecosystem. Ang mga proyekto ng Crypto ay sumasailalim sa isang antas ng adversarial testing na maaaring maging isang magandang inspirasyon para sa mga system na may kakayahang makayanan ang mga cyberattack na sisira sa maginoo na software.
Anti-collusion
Ang pangalawang problema sa AI ay ang maramihang umuusbong na AI ay maaaring magsabwatan sa kalaunan upang ibagsak ang sangkatauhan. Halimbawa, "Kaligtasan ng AI sa pamamagitan ng Debate, "isang tanyag na diskarte sa pag-align, ay umaasa sa dalawang AI na nagdedebate sa mga paksa sa isa't isa, kung saan ang isang hukom ng Human sa loop ay magpapasya kung sino ang mananalo. Gayunpaman, ONE bagay na maaaring hindi maibukod ng hukom ng Human ay ang parehong AI ay nakikipagsabwatan laban sa kanya, na walang nagpo-promote ng tunay na resulta.
Muli, may karanasan ang Crypto sa pag-iwas sa mga problema sa pagsasabwatan, tulad ng Pag-atake ni Sybil, na gumagamit ng iisang node para magpatakbo ng maraming aktibong pekeng pagkakakilanlan upang palihim na makuha ang karamihan ng impluwensya sa network. Upang maiwasan ito, umuusbong ang malaking dami ng trabaho sa disenyo ng mekanismo sa loob ng Crypto, at ang ilan ay maaaring may mga kapaki-pakinabang na aral para sa sabwatan ng AI.
Mga tseke at balanse
Ang isa pang promising na diskarte sa kaligtasan na kasalukuyang ginalugad ng OpenAI competitor Anthropic ay “Constitutional AI," kung saan pinangangasiwaan ng ONE AI ang isa pang AI gamit ang mga panuntunan at prinsipyong ibinigay ng isang Human. Ito ay hango sa disenyo ng Konstitusyon ng US, na nagse-set up ng magkasalungat na interes at limitadong paraan sa isang sistema ng checks and balances.
Muli, ang mga komunidad ng seguridad at cryptography ay mahusay na nakaranas ng mga pag-aayos na tulad ng konstitusyon at pag-aayos. Halimbawa, ang prinsipyo ng seguridad, POLA – Prinsipyo ng Pinakamababang Awtoridad – ay humihiling na ang isang entity ay dapat magkaroon lamang ng access sa pinakamaliit na halaga ng impormasyon at mga mapagkukunang kinakailangan upang magawa ang trabaho nito. Isang kapaki-pakinabang na prinsipyong dapat isaalang-alang kapag gumagawa din ng mga mas advanced na AI system.
Tatlong halimbawa lang iyan ng marami, na nagbibigay ng panlasa kung paano makakatulong ang uri ng mindset ng seguridad na kitang-kita sa seguridad at mga Crypto komunidad sa mga hamon sa AI alignment.
Paano mailalabas ng Crypto at seguridad ang kagandahan ng AI?
Bilang karagdagan sa mga problema sa kaligtasan ng AI na maaari mong subukan, tingnan natin ang ilang mga kaso kung saan ang mga pagbabago sa seguridad ng Crypto ay hindi lamang makakatulong sa pagpapaamo ng AI, ngunit mapalabas din ang kagandahan nito, halimbawa sa pamamagitan ng pagpapagana ng mga bagong kapaki-pakinabang na aplikasyon.
AI na nagpapanatili ng privacy
Mayroong ilang mga lugar na T talaga mahawakan ng tradisyonal na AI, lalo na sa paglutas ng mga problema na nangangailangan ng sensitibong data tulad ng impormasyon sa kalusugan ng mga indibidwal o data sa pananalapi na may matinding paghihigpit sa Privacy .
Sa kabutihang palad, gaya ng itinuro ng cryptography researcher na si Georgios Kaissis, iyon ay mga lugar kung saan ang cryptographic at auxiliary approach, gaya ng federated learning, differential Privacy, homomorphic encryption at higit pa, ay kumikinang. Ang mga umuusbong na pamamaraang ito sa pag-compute ay maaaring matugunan ang malalaking sensitibong dataset habang pinapanatili ang Privacy, at sa gayon ay may comparative advantage kaysa sa sentralisadong AI.
Ang paggamit ng lokal na kaalaman
Ang isa pang lugar na pinaghirapan ng tradisyunal na AI ay ang pagkuha ng lokal na kaalaman na kadalasang kinakailangan para malutas ang mga edge case sa machine learning (ML) na hindi naiintindihan ng malaking data.
Maaaring tumulong ang Crypto ecosystem sa pagbibigay ng lokal na data sa pamamagitan ng pagtatatag ng mga marketplace kung saan maaaring gumamit ang mga developer ng mga insentibo upang makaakit ng mas mahusay na lokal na data para sa kanilang mga algorithm. Halimbawa, ang co-founder ng Coinbase na si Fred Ehrsam nagmumungkahi pinagsasama-sama ang pribadong ML na nagbibigay-daan para sa pagsasanay ng sensitibong data sa mga insentibong nakabatay sa blockchain na nakakaakit ng mas mahusay na data sa data na nakabatay sa blockchain at mga ML marketplace. Bagama't maaaring hindi posible o ligtas na i-open source ang aktwal na pagsasanay ng mga modelo ng ML, maaaring bayaran ng mga lugar ng data market ang mga creator para sa patas na bahagi ng kanilang mga kontribusyon sa data.
Naka-encrypt na AI
Naghahanap ng mas pangmatagalan, posibleng maging posible na gamitin ang mga cryptographic na diskarte upang bumuo ng mga AI system na parehong mas secure at makapangyarihan.
Halimbawa, ang cryptography researcher na si Andrew Trask nagmumungkahi gamit ang homomorphic encryption upang ganap na i-encrypt ang isang neural network. Kung maaari, nangangahulugan ito na ang katalinuhan ng network ay mapangalagaan laban sa pagnanakaw, na magbibigay-daan sa mga aktor na makipagtulungan sa mga partikular na problema gamit ang kanilang mga modelo at data, nang hindi inilalantad ang mga input.
Gayunpaman, higit na mahalaga, kung ang AI ay homomorphically encrypted, kung gayon ang labas ng mundo ay nakikita nito na naka-encrypt. Ang Human kumokontrol sa Secret na susi ay maaaring mag-unlock ng mga indibidwal na hula na ginagawa ng AI, sa halip na palayain ang AI sa mismong ligaw.
Muli, ito ay tatlong halimbawa lamang ng posibleng marami, kung saan maaaring i-unlock ng Crypto ang mga bagong kaso ng paggamit para sa AI.
Iminumungkahi din ng mga halimbawa ng mga meme na kumokontrol sa mga meme at ng mga institusyong kumokontrol sa mga institusyon na maaaring kontrolin ng mga AI system ang mga AI system
Pagsasama-sama ng mga piraso
Ang sentralisadong AI ay dumaranas ng mga solong punto ng kabiguan. Hindi lamang nito ipipiga ang kumplikadong pluralismo ng halaga ng Human sa ONE layuning tungkulin. Mahilig din ito sa pagkakamali, panloob na katiwalian at panlabas na pag-atake. Ang mga secure na multipolar system, na binuo ng komunidad ng seguridad at cryptography, sa kabilang banda, ay may maraming pangako; sinusuportahan nila ang halaga ng pluralismo, maaaring magbigay ng red-team, checks and balances, at antifragile.
Mayroon ding maraming disadvantages ng mga cryptographic system. Halimbawa, ang cryptography ay nangangailangan ng pag-unlad sa desentralisadong pag-iimbak ng data, functional encryption, adversarial testing, at computational bottleneck na ginagawang mabagal at mahal pa rin ang mga pamamaraang ito. Bukod dito, ang mga desentralisadong sistema ay hindi gaanong matatag kaysa sa mga sentralisadong sistema, at madaling kapitan ng mga masasamang aktor na laging may insentibo na makipagsabwatan o kung hindi man ay ibagsak ang sistema upang dominahin ito.
Gayunpaman, dahil sa mabilis na bilis ng AI, at ang kamag-anak na kakulangan ng seguridad at cryptography minded na mga tao sa AI, marahil ay hindi pa masyadong maaga upang isaalang-alang kung maaari kang makabuluhang mag-ambag sa AI, na nagdadala ng ilan sa mga benepisyong tinalakay dito sa talahanayan.
Ang pangako ng secure na multipolar AI ay well-summed up ni Eric Drexler, isang Technology pioneer, noong 1986: "Ang mga halimbawa ng mga meme na kumokontrol sa mga meme at ng mga institusyong kumokontrol sa mga institusyon ay nagmumungkahi din na ang mga AI system ay maaaring kontrolin ang mga AI system."
Примечание: мнения, выраженные в этой колонке, принадлежат автору и не обязательно отражают мнение CoinDesk, Inc. или ее владельцев и аффилированных лиц.
Allison Duettmann
Si Allison Duettmann ay ang presidente at CEO ng Foresight Institute. Pinamunuan niya ang Intelligent Cooperation, Molecular Machines, Biotech & Health Extension, Neurotech, at Space Programs, Fellowships, Prizes, at Tech Trees, at ibinabahagi ang gawaing ito sa publiko. Itinatag niya ang Existentialhope.com, co-edited Superintelligence: Coordination & Strategy, co-authored Gaming the Future, at co-initiated The Longevity Prize. Pinapayuhan niya ang mga kumpanya at organisasyon, tulad ng Consortium para sa Space Health, at nasa Executive Committee ng Biomarker Consortium. Siya ay may hawak na MS sa Philosophy & Public Policy mula sa London School of Economics, na nakatuon sa AI Safety.
