Как Криптo может помочь защитить ИИ
Стремительные достижения в области искусственного интеллекта создают уникальные проблемы безопасности. Могут ли навыки и подходы, отточенные Криптo , помочь сделать ИИ безопасным для человечества?
За последние несколько лет и Криптo , и искусственный интеллект достигли значительного прогресса.
Криптo праздновал такие успехи, как ДеФи, и совсем недавноДеСи.
ИИ добился таких успехов, какAlphaFold2, и совсем недавноЧатGPT.
Еще в 2018 году Питер Тильзаостренный напряженности между децентрализующими силами Криптo и централизующими силами искусственного интеллекта, что привело к появлению термина «Криптo — это либертарианство, искусственный интеллект — это коммунизм». Здесь я хочу доказать, что мы можем чему-то Словарь, объединив эти два понятия.
Почему? Потому что навыки и подходы, отточенные сообществом специалистов по безопасности и Криптo , обладают потенциалом для открытия полезных приложений ИИ и снижения рисков ИИ.
Эллисон Дуэттманн — президент и генеральный директор Foresight Institute. Она руководитИнтеллектуальное сотрудничество,Молекулярные машины,Биотехнологии и здравоохранение,Нейротех, и Космос Программы, стипендии, премии и деревья технологий, а также делится этой работой с общественностью.
Мы все умрем?
Элиезер Юдковски, выдающаяся фигура в области безопасности ИИ, недавно неожиданно появился наПодкаст «Банковское безденежье», подкаст в формате Web3.
Это было удивительно по двум причинам:
Во-первых, Элиезер считает, что мы находимся на быстром пути к созданию Общего Искусственного Интеллекта (ОИИ), который сможет выполнять практически все задачи, которые выполняет человек, и что такой ОИИ, скорее всего, убьет нас всех.
Во-вторых, когда его спросили, можно ли что- то сделать, чтобы увеличить хоть небольшой шанс на наше выживание, он призвал людей, ориентированных на безопасность и криптографию, с сильным мышлением в области безопасности принять участие в согласовании ИИ.
Давайте разберемся. Сначала мы обсудим, почему нам следует беспокоиться об AGI, а затем перейдем к обещаниям, которые Криптo (здесь имеется в виду в первую очередь криптография) и сообщество по безопасности обещают смягчить некоторые опасности AGI.
Безопасность ИИ: сложнее, чем вы думаете?
Как может подтвердить любой, кто недавно мельком увидел новости, не проходит и недели, чтобы прогресс в области ИИ не ускорился кардинально. Если вы пропустили, вот три важных события:
Во-первых, наблюдается тенденция к большей централизации ИИ, например, инвестиции Microsoft в OpenAI, инвестиции Google в конкурента OpenAI Anthropic, а также слияние DeepMind и Google Brain в ONE организацию.
Читать дальше: Майкл Дж. Кейси - Почему Web3 и ИИ-Интернет должны быть вместе
Во-вторых, наблюдается тенденция к более обобщенному ИИ. Недавняя статья «GPT4: Искры общего искусственного интеллекта» показал, что GPT-4 уже демонстрирует первые примеры теории разума, меры, обычно используемой для оценки Human интеллекта.
В-третьих, наблюдается тенденция к большей агентности в системах искусственного интеллекта, при этом AutoGPT становится более агентным, повторно побуждая себя к выполнению более сложных задач.
Еще в декабре,Метакулус, платформа прогнозирования, предсказала появление ИИ примерно в 2039 году. Теперь, в мае, эта дата — 2031 год — другими словами, восьмилетнее отставание по временной шкале в течение пяти месяцев развития ИИ.
Если мы воспринимаем эти разработки как признаки того, что мы на пути к созданию универсального искусственного интеллекта, то возникает следующий вопрос: почему безопасность ИИ считается столь сложной?
Вероятно, мы можем разбить проблему безопасности AGI на три подпроблемы:
Согласование: как мы можем привести ИИ в соответствие с Human ценностями?
Согласование ИИ — это простой вопрос о том, как заставить ИИ соответствовать нашим ценностям. Но легко забыть, что мы даже T согласны с тем, каковы наши ценности. С самого начала цивилизации философы и простые смертные спорили об этике, и с обеих сторон были убедительные доводы. Вот почему наша нынешняя цивилизация пришла, в основном, к плюрализму ценностей (идее людей с конфликтующими ценностями, мирно сосуществующих). Это работает для разнообразия Human ценностей, но это сложная вещь для внедрения в ONE искусственного интеллектуального агента.
Давайте представим на сладкую минуту, что мы знаем, какими моральными ценностями оснастить AGI. Далее нам нужно передать эти Human ценности кремниевой сущности, которая T разделяет Human эволюцию, архитектуру разума или контекст. Когда люди координируют свои действия с другими людьми, мы можем полагаться на множество общих неявных фоновых знаний, поскольку мы разделяем биологию нашего вида, эволюционную историю и часто даже некоторый культурный контекст. С ИИ мы не можем полагаться на такой общий контекст.
Читать дальше: Майкл Дж. Кейси - Урок Web2 для ИИ: децентрализация для защиты человечества
Другая проблема заключается в том, что для достижения любой цели обычно полезно быть живым и приобретать больше ресурсов. Это означает, что ИИ, настроенный на достижение определенной цели, может сопротивляться отключению и искать все больше и больше ресурсов. Учитывая бесчисленные возможности, с помощью которых ИИ может достигать целей, включающих в себя Human травмы, пренебрежение, обман и многое другое, и учитывая, насколько сложно предсказать и указать все эти ограничения заранее надежным способом, работа по техническому согласованию становится устрашающей.
Компьютер безопасность
Даже если люди согласятся с набором ценностей и поймут, как технически согласовать с ними AGI, мы все равно T можем ожидать, что он будет действовать надежно без доказательств того, что базовое программное обеспечение и оборудование само по себе надежно. Учитывая значительное преимущество, которое AGI дает своим создателям, злонамеренные хакеры могут саботировать или перепрограммировать AGI.
Более того, непреднамеренная ошибка может помешать выполнению цели AGI, или AGI сам может воспользоваться уязвимостями в своем собственном коде, например, перепрограммируя себя опасным образом.
К сожалению, мы построили всю сегодняшнюю многотриллионную экосистему на небезопасных киберфундаментах. Большая часть нашей физической инфраструктуры основана на взломанных системах, таких как электросеть, наша Технологии ядерного оружия. В будущем даже небезопасные беспилотные автомобили и автономные дроны могут быть взломаны и превращены в ботов-убийц. Увеличение кибератак, таких как Sputnick или Solarwinds, является серьезным, но может быть безобидным по сравнению с потенциальными будущими атаками с поддержкой AG. Отсутствие у нас осмысленного ответа на эти атаки говорит о том, что мы не готовы к задаче обеспечения безопасности AGI, которая может потребовать перестройки большей части нашей небезопасной инфраструктуры.
Используя технологии и навыки в области безопасности и криптографии, мы сможем реализовать сценарий многополярного сверхразума.
Координация
Достижение прогресса в согласовании и безопасности AGI может занять время, поэтому для субъектов, создающих AGI, важно координировать свои действия на этом пути. К сожалению, стимулирование основных субъектов ИИ (это могут быть кооперации или национальные государства) к сотрудничеству и избеганию подстегивания динамики гонки вооружений, чтобы первыми достичь AGI, не так уж и просто. Катастрофа требует, чтобы только ONE субъект отступил от соглашения, а это означает, что даже если все остальные сотрудничают, если ONE вырывается вперед, он получает решающее преимущество. Это преимущество первопроходца сохраняется до тех пор, пока AGI не будет создан и не получит силу, которую унитарное развертывание системы AGI может передать ее владельцу, и для владельца трудно отказаться от этого искушения.
Безопасный многополярный ИИ
Возможно, вы пока кивали: Да, конечно, безопасность ИИ действительно сложна. Но какое отношение к этому имеет Криптo ?
Учитывая быстрые темпы развития ИИ и трудности с обеспечением его безопасности, традиционно высказывается опасение, что мы стремительно приближаемся к сценарию одиночного ИИ, в котором ИИ вытесняет Human цивилизацию как общую основу для интеллекта и доминирует в мире, потенциально убивая человечество на этом пути.
Используя технологии и навыки в области безопасности и криптографии, мы, возможно, сможем изменить курс и вместо этого следовать сценарию многополярного сверхразума, в котором сети людей и ИИ безопасно взаимодействуют для объединения своих локальных знаний в коллективный сверхразум цивилизации.
Это громкое, абстрактное заявление, поэтому давайте разберемся, как именно сообщества Криптo и безопасности могут помочь снизить риски, связанные с ИИ, и раскрыть потенциал ИИ, открыв новые возможности его применения.

Как безопасность и криптография могут снизить риски, связанные с ИИ?
Red-команда
Пол Кристиано, авторитетный исследователь безопасности ИИ,предполагает, чтоИИ отчаянно нуждается в большем количестве red-teaming, обычно этот термин используется в компьютерной безопасности для обозначения смоделированных кибератак. Red-teams в контексте ИИ могут, например, использоваться для поиска входных данных, которые вызывают катастрофическое поведение в системах машинного обучения.
Red-teaming — это то, с чем Криптo также имеет опыт. И Bitcoin , и Ethereum развиваются в среде, которая находится под постоянным враждебным нападением, поскольку небезопасные проекты представляют собой эквивалент многомиллионных «баунти-багов» Криптовалюта .
Системы, не являющиеся пуленепробиваемыми, устраняются, оставляя только более пуленепробиваемые системы в экосистеме. Криптo проходят уровень состязательного тестирования, который может стать хорошим источником вдохновения для систем, способных выдерживать кибератаки, которые могли бы уничтожить обычное программное обеспечение.
Антисговор
Вторая проблема в ИИ заключается в том, что несколько новых ИИ могут в конечном итоге объединиться, чтобы свергнуть человечество. Например, «Безопасность ИИ через дебаты, популярная стратегия выравнивания, основана на двух ИИ, обсуждающих темы друг с другом, с судьей- Human , который решает, кто победит. Однако судья- Human не может исключить, что оба ИИ сговорились против него, и ни ONE из них не продвигает истинный результат.
Опять же, у Криптo есть опыт избежания проблем сговора, таких как атака Сивиллы, который использует один узел для управления множеством активных поддельных личностей, чтобы тайно получить большую часть влияния в сети. Чтобы избежать этого, в Криптo появляется значительный объем работы по проектированию механизмов, и некоторые из них могут также иметь полезные уроки для сговора ИИ.
Сдержки и противовесы
Другой перспективный подход к обеспечению безопасности, который в настоящее время изучает конкурент OpenAI Anthropic, — это «Конституционный ИИ», в котором ONE ИИ контролирует другой ИИ, используя правила и принципы, заданные Human. Это вдохновлено дизайном Конституции США, которая устанавливает конфликтующие интересы и ограниченные средства в системе сдержек и противовесов.
Опять же, сообщества по безопасности и криптографии имеют большой опыт в работе с конституционными сдержками и противовесами. Например, принцип безопасности POLA (Principle of Least Authority) требует, чтобы субъект имел доступ только к наименьшему объему информации и ресурсов, необходимых для выполнения своей работы. Полезный принцип, который также следует учитывать при создании более продвинутых систем ИИ.
Это всего лишь три примера из множества, дающих представление о том, как тип мышления в области безопасности, распространенный в сообществах специалистов по безопасности и Криптo, может помочь в решении проблем согласования ИИ.
Как Криптo и безопасность могут раскрыть всю красоту ИИ?
В дополнение к проблемам безопасности ИИ, в решении которых вы можете попробовать свои силы, давайте рассмотрим несколько случаев, в которых инновации в области Криптo не только помогут укротить ИИ, но и раскроют его потенциал, например, за счет создания новых полезных приложений.
ИИ, сохраняющий конфиденциальность
Есть несколько областей, которые традиционный ИИ фактически T может охватить, в частности, решение задач, требующих конфиденциальных данных, таких как информация о состоянии здоровья людей или финансовые данные, которые имеют строгие ограничения Политика конфиденциальности .
К счастью, как указано по мнению исследователя криптографии Георгиоса Кайссиса, это области, в которых криптографические и вспомогательные подходы, такие как федеративное обучение, дифференциальная Политика конфиденциальности, гомоморфное шифрование и многое другое, блистают. Эти новые подходы к вычислениям могут справиться с большими наборами конфиденциальных данных, сохраняя при этом Политика конфиденциальности, и, таким образом, имеют сравнительное преимущество перед централизованным ИИ.
Использование местных знаний
Еще одна область, с которой традиционный ИИ сталкивается с трудностями, — это получение локальных знаний, которые часто требуются для решения пограничных случаев в машинном обучении (МО), которые большие данные не могут осмыслить.
Криптo могла бы помочь с предоставлением локальных данных путем создания торговых площадок, на которых разработчики могут использовать стимулы для привлечения лучших локальных данных для своих алгоритмов. Например, соучредитель Coinbase Фред Эрсам предполагаетобъединение частного ML, позволяющего обучать конфиденциальные данные, с основанными на блокчейне стимулами, которые привлекают лучшие данные в основанные на блокчейне рынки данных и ML. Хотя может быть нецелесообразно или небезопасно открывать исходный код фактического обучения моделей ML, рынки данных могли бы платить создателям за справедливую долю их вклада в данные.
Зашифрованный ИИ
Если заглянуть в более отдаленную перспективу, то, возможно, даже удастся использовать криптографические подходы для создания систем ИИ, которые будут одновременно более безопасными и мощными.
Например, исследователь криптографии Эндрю Траскпредполагаетиспользование гомоморфного шифрования для полного шифрования нейронной сети. Если это возможно, это означает, что интеллект сети будет защищен от кражи, что позволит участникам сотрудничать над определенными проблемами, используя свои модели и данные, не раскрывая входные данные.
Но что еще важнее, если ИИ гомоморфно зашифрован, то внешний мир воспринимается им как зашифрованный. Human , контролирующий Secret ключ, может разблокировать индивидуальные предсказания, которые делает ИИ, вместо того, чтобы выпускать ИИ на волю.
Опять же, это всего лишь три примера из потенциально многих, в которых Криптo может открыть новые возможности использования ИИ.
Примеры мемов, контролирующих мемы, и институтов, контролирующих институты, также предполагают, что системы ИИ могут контролировать системы ИИ.
Собираем части вместе
Централизованный ИИ страдает от отдельных точек отказа. Он не только сжал бы сложный плюрализм Human ценностей в ONE целевую функцию. Он также подвержен ошибкам, внутренней коррупции и внешним атакам. С другой стороны, защищенные многополярные системы, созданные сообществом безопасности и криптографии, имеют многообещающие перспективы; они поддерживают плюрализм ценностей, могут обеспечить red-teaming, сдержки и противовесы и являются антихрупкими.
У криптографических систем также есть множество недостатков. Например, криптография требует прогресса в децентрализованном хранении данных, функциональном шифровании, состязательном тестировании и вычислительных узких местах, которые делают эти подходы все еще непозволительно медленными и дорогими. Более того, децентрализованные системы также менее стабильны, чем централизованные, и подвержены мошенникам, у которых всегда есть стимул вступить в сговор или иным образом свергнуть систему, чтобы доминировать над ней.
Тем не менее, учитывая быструю скорость развития ИИ и относительное отсутствие специалистов в области безопасности и криптографии в этой области, возможно, уже пора задуматься о том, могли бы вы внести значимый вклад в развитие ИИ, привнеся в него некоторые из обсуждаемых здесь преимуществ.
Обещание безопасного многополярного ИИ былохорошо подытоженный Эрик Дрекслер, пионер Технологии , еще в 1986 году: «Примеры мемов, управляющих мемами, и институтов, управляющих институтами, также предполагают, что системы ИИ могут управлять системами ИИ».
Примечание: мнения, выраженные в этой колонке, принадлежат автору и не обязательно отражают мнение CoinDesk, Inc. или ее владельцев и аффилированных лиц.
Allison Duettmann
Эллисон Дуэттманн — президент и генеральный директор Foresight Institute. Она руководит программами Intelligent Cooperation, Molecular Machines, Biotech & Health Extension, Neurotech и Space Programs, Fellowships, Prizes и Tech Trees и делится этой работой с общественностью. Она основала Existentialhope.com, была соредактором Superintelligence: Coordination & Strategy, соавтором Gaming the Future и соучредителем The Longevity Prize. Она консультирует компании и организации, такие как Consortium for Space Health, и входит в Исполнительный комитет Biomarker Consortium. Она имеет степень магистра философии и государственной Политика Лондонской школы экономики, специализируясь на безопасности ИИ.
