Logo
Поділитися цією статтею

Чого управління ШІ може Навчання в етосі децентралізації Crypto

Відомі критики розвитку штучного інтелекту закликають до державного втручання, щоб запобігти загрозі вимирання Human . Але нам потрібно більше, ніж централізоване регулювання цієї галузі, стверджує Майкл Дж. Кейсі.

Титани американських технологій швидко перейшли від того, щоб критики називали їх корисливими техноутопістами, до найгучніших розповсюджувачів техно-антиутопічного наративу.

Цього тижня лист, підписаний понад 350 людьми, включаючи засновника Microsoft Білла Гейтса, генерального директора OpenAI Сема Альтмана та колишнього вченого Google Джеффрі Хінтона (іноді його називають «хрещеним батьком штучного інтелекту»), містить одне декларативне речення: «Зменшення ризику зникнення через штучний інтелект повинно бути глобальним пріоритетом поряд з іншими ризиками суспільного масштабу, такими як пандемії та ядерна війна».

Продовження Нижче
Не пропустіть жодної історії.Підпишіться на розсилку The Node вже сьогодні. Переглянути Всі Розсилки

Ви читаєте Переосмислені гроші, щотижневий огляд технологічних, економічних і соціальних Заходи і тенденцій, які переосмислюють наші стосунки з грошима та трансформують глобальну фінансову систему. Підпишіться, щоб отримувати повну розсилку тут.

Буквально два місяці тому відкрився раніше лист підписаний генеральним директором Tesla та Twitter ELON Маском разом із 31 800 іншими закликав до шестимісячної паузи в розробці ШІ, щоб дозволити суспільству визначити ризики для людства. в коментар для TIME Того ж тижня Еліезер Юдковський, який вважається засновником галузі штучного загального інтелекту (AGI), заявив, що відмовився підписати цей лист, оскільки він T зайшов достатньо далеко. Натомість він закликав до примусового закриття лабораторій штучного інтелекту, щоб не виникла розумна цифрова істота, яка вб’є кожного з нас.

Світовим лідерам буде важко ігнорувати занепокоєння цих високовідомих експертів. Зараз широко зрозуміло, що загроза Human існуванню дійсно існує. Питання полягає в тому, як саме ми повинні її пом’якшити?

Як і я написано ранішеЯ бачу роль Крипто , яка працює з іншими технологічними рішеннями та в поєднанні з продуманим регулюванням, яке заохочує інноваційні інновації, орієнтовані на людину, у зусиллях суспільства KEEP ШІ на своєму шляху. Блокчейни можуть допомогти з походженням введених даних, з доказами, щоб запобігти глибоким фейкам та іншим формам дезінформації, а також уможливити колективну, а не корпоративну власність. Але навіть якщо відкинути ці міркування, я вважаю, що найцінніший внесок Крипто спільноти полягає в її «настрої децентралізації», який пропонує унікальний погляд на небезпеки, пов’язані з концентрованим володінням такою потужною Технології.

Візантійський погляд на ризики ШІ

По-перше, що я маю на увазі під цим «настроєм децентралізації?»

Що ж, за своєю CORE Крипто пронизана принципом «T довіряй, перевіряй». Завзяті Крипто , а не грабіжники, чиї централізовані токен-казино погано репутують галузь, невпинно займаються «ALICE і Боб» мисленнєві експерименти для розгляду всіх векторів загроз і точок невдачі, за допомогою яких шахрай може навмисно чи ненавмисно заподіяти шкоду. Сам Bitcoin був народжений Сатоші, який намагався вирішити ONE із найвідоміших із цих сценаріїв теорії ігор, Проблема візантійських генералів, що стосується того, як довіряти інформації від T людей.

Менталітет розглядає децентралізацію як спосіб подолання цих ризиків. Ідея полягає в тому, що якщо немає єдиної централізованої організації з повноваженнями посередника для визначення результату обміну між двома учасниками, і обидва можуть довіряти доступній інформації про цей обмін, тоді загроза зловмисного втручання нейтралізується.

Тепер давайте застосуємо цей світогляд до вимог, викладених у цьому тижневому листі про «вимирання» ШІ.

Читайте також: Еллісон Дуеттманн - Як Крипто може допомогти захистити ШІ

Підписанти хочуть, щоб уряди об’єдналися та розробили політику міжнародного рівня для боротьби із загрозою ШІ. Це благородна мета, але мислення децентралізації скаже, що це наївно. Як ми можемо припустити, що всі уряди, нинішні та майбутні, визнають, що їх інтересам служить співпраця, а не самотужки – або, що ще гірше, що вони не T говорити ONE , а робитимуть інше? (Якщо ви вважаєте, що стежити за програмою ядерної зброї Північної Кореї важко, спробуйте забратися за фінансовану Кремлем стіну шифрування, щоб зазирнути в її експерименти з машинним навчанням.)

ONE було очікувати глобальної координації навколо пандемії COVID, коли кожна країна мала потребу у вакцинах, або очікувати, що логіка взаємно гарантоване знищення (MAD) змусить навіть найзапекліших ворогів у холодній війні погодитися не використовувати навіть ядерну зброю, де найгірший сценарій настільки очевидний для всіх. Інша справа, коли це трапляється навколо чогось настільки непередбачуваного, як напрямок штучного інтелекту, і, що не менш важливо, де неурядові актори можуть легко використовувати Технології незалежно від урядів.

Занепокоєння тим деякі в Крипто Щодо цих великих гравців зі штучним інтелектом, які поспішають регулювати, є те, що вони створять рів, щоб захистити свою перевагу першого, що ускладнить конкурентам їхнє переслідування. Чому це має значення? Тому що, схвалюючи монополію, ви створюєте дуже централізований ризик, якого нам слід уникати ці експерименти з Крипто десятиліттями давності.

Я ніколи не довіряв девізу Google «Не робити зла», але навіть якщо Alphabet, Microsoft, OpenAI тощо. мають добрі наміри, як я можу знати, що їхня Технології T буде кооптована виконавчою радою, урядом чи хакером з іншими мотивами в майбутньому? Або, у більш невинному сенсі, якщо ця Технології існує всередині непроникної корпоративної чорної скриньки, як сторонні люди можуть перевірити код алгоритму, щоб переконатися, що доброзичлива розробка ненавмисно не зійшла з колії?

А ось ще один уявний експеримент для вивчення ризику централізації для ШІ:

Якщо, як вважають такі люди, як Юдковський, штучному інтелекту судилося його поточною траєкторією Статус загального штучного інтелекту (AGI)., з розумом, який міг би змусити його зробити висновок, що він повинен убити нас усіх, який структурний сценарій змусить його зробити такий висновок? Якщо дані та можливості обробки, які підтримують ШІ «живим», зосереджені в одній організації, яку може закрити уряд або стурбований генеральний директор, ONE логічно стверджувати, що ШІ вб’є нас, щоб запобігти такій можливості. Але якщо сам штучний інтелект «живе» в децентралізованій, стійкій до цензури мережі вузлів, які неможливо вимкнути, цей цифровий розумний T відчуватиме достатньої загрози, щоб знищити нас.

Я, звичайно, не знаю, чи все буде так. Але за відсутності кришталевої кулі логіка тези Юдовскі про AGI вимагає, щоб ми брали участь у цих мисленнєвих експериментах, щоб розглянути, як цей потенційний ворог майбутнього може «думати».

Пошук правильної суміші

Звичайно, більшості урядів буде важко купити щось із цього. Вони, природно, віддадуть перевагу повідомленню «будь ласка, регулюйте нас», яке Альтман з OpenAI та інші активно доставляють прямо зараз. Уряди хочуть контролю; вони хочуть мати можливість викликати генеральних директорів і наказувати закриття. Це в їхній ДНК.

І, щоб було зрозуміло, ми повинні бути реалістами. Ми живемо у світі, організованому навколо національних держав. Подобається нам це чи ні, але ми застрягли в системі юрисдикції. У нас немає іншого вибору, окрім як залучити певний рівень регулювання до стратегії пом’якшення вимирання ШІ.

Завдання полягає в тому, щоб з’ясувати правильне взаємодоповнююче поєднання національного державного регулювання, міжнародних договорів і децентралізованих транснаціональних моделей управління.

Можливо, можна винести уроки з підходу урядів, наукових установ, приватних компаній і некомерційних організацій до регулювання Інтернету. Через такі органи, як Інтернет-корпорація з присвоєння імен (ICANN) та Інженерної робочої групи Інтернету (IETF), ми встановили рамки для багатьох зацікавлених сторін, щоб уможливити розробку загальних стандартів і дозволити вирішення суперечок через арбітраж, а не суди.

Певний рівень регулювання штучного інтелекту, безсумнівно, буде необхідним, але немає можливості, щоб ця безмежна, відкрита Технології , що швидко змінюється, могла повністю контролюватися урядами. Будемо сподіватися, що вони зможуть відкинути нинішню неприязнь до Крипто та отримати від неї поради щодо вирішення цих проблем за допомогою децентралізованих підходів.

Примітка: Погляди, висловлені в цьому стовпці, належать автору і не обов'язково відображають погляди CoinDesk, Inc. або її власників та афіліатів.

Michael J. Casey

Майкл Дж. Кейсі — голова Товариства децентралізованого штучного інтелекту, колишній директор із контенту CoinDesk і співавтор книги «Наша найбільша боротьба: повернення свободи, людяності та гідності в епоху цифрових технологій». Раніше Кейсі був генеральним директором компанії Streambed Media, співзасновником якої він займався розробкою даних про походження цифрового контенту. Він також був старшим радником Ініціативи цифрової валюти MIT Media Labs і старшим викладачем Школи менеджменту MIT Sloan. До того як приєднатися до Массачусетського технологічного інституту, Кейсі 18 років пропрацював у The Wall Street Journal, де його останньою посадою була старший оглядач, який висвітлював глобальні економічні питання.

Кейсі є автором п’яти книг, у тому числі «The Age of Криптовалюта: How Bitcoin and Digital Money are Challenging the Global Economic Order» і «The Truth Machine: The Blockchain and the Future of Everything», обидві написані у співавторстві з Полом Вінья.

Приєднавшись до CoinDesk на повний робочий день, Кейсі звільнився з низки оплачуваних посад консультанта. Він обіймає неоплачувані посади радника некомерційних організацій, зокрема Digital Currency Initiative MIT Media Lab і The Deep Trust Alliance. Він є акціонером і невиконавчим головою Streambed Media.

Кейсі володіє Bitcoin.

Michael J. Casey