Logo
Поделиться этой статьей

Усилители ИИ готовы пожертвовать человечеством ради симулякра — пока они контролируют ситуацию

Продвижение искусственного интеллекта и связанные с ним «долгосрочные» идеи могут представлять угрозу вашей Политика конфиденциальности, собственности и гражданским правам.

У людей всегда были странные отношения с Технологии. Будь то огонь, письменное слово или искусственный интеллект (ИИ), то, что мы создаем, чтобы расширить свои возможности и расширить себя, часто начинает казаться странными внешними силами, их преобразующее воздействие на нашу жизнь и разум столь же глубоко и непредсказуемо, как воздействие капризных богов.

Эта статья взята из The Node, ежедневного обзора CoinDesk самых важных историй в сфере блокчейна и новостей Криптo . Вы можете подписаться, чтобы получить полную версию информационный бюллетень здесь.

Продолжение Читайте Ниже
Не пропустите другую историю.Подпишитесь на рассылку The Node сегодня. Просмотреть все рассылки

В 21 веке существует множество технологий, к влиянию которых мы до сих пор T приспособились, например, социальные сети. Другие, в частности искусственный интеллект и Криптовалюта, еще не полностью развиты, но могут оказать серьезное влияние на то, как мы живем. Это включает в себя формирование нашего мышления о мире: Human группы часто находятся под глубоким влиянием встроенных предубеждений технологий, на которые они полагаются. (Эта связь между человечеством и его Технологии была основным направлением моей академической карьеры до того, как я обратился к журналистике.)

Случаи ИИ и Криптовалюта особенно захватывающие. Их соответствующие технологические основы соответствуют гораздо более широким идеям об обществе и даже индивидуальной морали. Два набора идей также кажутся во многих отношениях диаметрально и фундаментально противоположными. С ONE стороны, у вас есть Криптo , часто некая разновидность либертарианства; с другой стороны, у вас есть техноутопизм сторонников ИИ.

CORE принцип технологии блокчейна — универсальность. Весь смысл в том, что каждый, где угодно, может получить доступ к этим инструментам и сервисам, независимо от того, одобряет ли это кто-то из власти или нет. Следствием этого принципа является высокая оценка Политика конфиденциальности . Эти ценности приводят к значительному количеству хаоса, но лежащий в основе этос включает в себя веру в то, что такой хаос продуктивен или, по крайней мере, является необходимым компромиссом для процветания Human .

Сообщества искусственного интеллекта склоняются к совершенно иному взгляду на мир, также тесно связанному со структурой Технологии. Основная роль ИИ — наблюдать за поведением Human и затем копировать его во всех нюансах. Это имеет много последствий, но основные из них включают в себя возможный конец Human труда, техническую централизацию и уклон в сторону полной прозрачности данных.

Они могут показаться безобидными или даже позитивными. Но, говоря прямо, последствия технических предубеждений ИИ кажутся довольно мрачными для человечества. Это делает еще более захватывающим наблюдение за тем, как сторонники ИИ не просто принимают эти мрачные последствия, но и неустанно работают над тем, чтобы сделать их реальностью.

Ты больше T Human.

Наиболее вопиющее злобное проявление мировоззрения ИИ может выглядеть не ONE. Worldcoin , по-видимому, является Криптовалюта проектом, предназначенным для распределения «универсального базового дохода» (UBI) в обмен на сбор сверхчувствительных биометрических данныхиз уязвимых слоев населения.

Но хотя на первый взгляд это «Криптo», Worldcoin на самом деле является проектом ИИ по сути. Это детище Сэма Альтмана, также основателя OpenAI. Его цель — идентифицировать людей и предоставлять им UBI — основана на будущем, в котором искусственный интеллект возьмет на себя все Human рабочие места, требуя централизованного перераспределения богатства, созданного ИИ.

Смотрите также:Почему все злятся на Worldcoin Сэма Альтмана(2021)

ONE из часто упускаемых из виду последствий этого заключается в том, что в этом будущем такие люди, как Сэм Альтман, будут теми, у кого все еще будет осмысленная работа и индивидуальная свобода, потому что они будут управлять машинами. Остальным из нас, похоже, придется существовать на Worldcoin.

Если это звучит бесчеловечно, попробуйте для примера это: права Human для машин. В эссе, опубликованном в The Hill 23 марта, автор Джейси Риз Энтис заявила: «Нам нужно движение за права ИИ». Как отметили многие, это с философской точки зрения подозрительно, поскольку нет убедительных доказательств того, что искусственный интеллект будет или когда-либо будет иметь какой-либо субъективный опыт или познает страдание таким образом, который потребовал бы защиты.

Сторонники искусственного интеллекта приложили немало усилий, чтобы затушевать этот вопрос субъективного сознания. Они пустили в ходмассив злонамеренно вводящих в заблуждение аргументовчто ИИ — включая, как это ни абсурдно, существующие в настоящее время языковые модели — обладают некоторой формой сознания или субъективным опытом пребывания в мире.Сознание и его происхождениеявляются одной из величайших загадок бытия, но сторонники ИИ часто, похоже, имеют поверхностное представление об этой проблеме или даже о том, что означает слово «сознание».

Энтис, соучредитель так называемого Института чувств, в своем эссе повторяет главную логическую ошибку многих ошибочных исследований ИИ: некритическое принятие видимых результатов ИИ как прямого признака некоего внутреннего субъективного опыта.

Насколько безумен призыв к правам ИИ, настолько мы еще T коснулись самых дальних окраин ошибочной шумихи вокруг ИИ. В конце марта не кто иной, как начинающий философ-король Элизер Юдковски предположил, что его последователи должны быть готовысовершать жестокие атаки на серверные фермыдля того, чтобы замедлить или остановить развитие ИИ.

Некоторые могут удивиться, что я включаю Юдковски в число сторонников ИИ. Юдковски — лидер движения «Безопасность ИИ», выросшего из его «рационалистического» блога LessWrong, и утверждает, что ИИ может потенциально захватить мир и уничтожить человечество. Обоснованность этих идей является предметом споров, но важно то, что Юдковски и его так называемые коллеги-рационалисты T выступают против искусственного интеллекта. Юдковскианцы верят, что ИИ может создать утопию (опять же, утопию, за которую они будут отвечать), но что это несет в себе серьезные риски. По сути, они — сторонники ИИ, переодетые в одежду скептиков.

Это контрастирует с более искренним и обоснованным скептицизмом таких деятелей, как Тимнит Гебру иКэти О'Нил. Эти исследователи, у которых нет и близко последователей Юдковски, T беспокоятся о далеком будущем апокалипсиса. Их беспокоит ясная и настоящая опасность: алгоритмы, обученные на Human поведении, также будут воспроизводить недостатки этого поведения, такие как расовая и другие формы дискриминации. Гебру был печально известенуволен из Googleза то, что имел наглостьуказатьпроблемы с ИИчто поставило под угрозу бизнес-модель Google.

Вы можете заметить здесь сходство с другими идеологическими движениями, особенно с родственными идеями«эффективный альтруизм» и «долгосрочность».Эмиль П. Торрес, философ из Университета Лейбница в Германии, входит в число тех, кто описывает глубокую связь и принадлежность между последователями Юдковски, «трансгуманистами», эффективными альтруистами и сторонниками долгосрочного планирования под аббревиатуройТЕСКРЕАЛ. Как только ONE крошечный пример такого выравнивания, FTX, мошенническая Криптo , укомплектованная в основном эффективными альтруистами и возглавляемая человеком, который притворился ONE, сделали крупные пожертвования (используя якобы украденные средства)Безопасность ИИгруппы, а также другие долгосрочные причины.

Этот пакет мировоззрений, утверждает Торрес, сводится к «колонизировать, подчинять, эксплуатировать и максимизировать.” В частности, в Worldcoin мы видим предварительный просмотр неумолимого авторитаризма мира, где машины бесконечно копируют Human поведение и заменяют его — за исключением горстки людей, держащих руки на румпеле.

Смотрите также:Пересечение ИИ и Криптo| Переосмысление денег

Здесь можно сказать гораздо больше, но для тех, кто в Криптo , ONE заявление от оси TESCREAL заслуживает особого внимания. В совсем недавнем эссе Юдковски заявил, что будущая угроза опасного искусственного интеллекта может потребовать «очень сильного глобального мониторинга, включая взлом всех кодов шифрования, чтобы предотвратить враждебное поведение AGI».

Другими словами, для этих людей Политика конфиденциальности и автономия людей в настоящем должны быть отброшены в пользу создания условий для безопасного и непрерывного расширения искусственного интеллекта в будущем. Я оставлю вам решать, является ли это будущее или настоящее, которое кто-либо должен хотеть.

Примечание: мнения, выраженные в этой колонке, принадлежат автору и не обязательно отражают мнение CoinDesk, Inc. или ее владельцев и аффилированных лиц.

David Z. Morris

Дэвид З. Моррис был главным обозревателем CoinDesk Insights. Он писал о Криптo с 2013 года для таких изданий, как Fortune, Slate и Aeon. Он является автором книги «Bitcoin is Magic», введения в социальную динамику Bitcoin. Он бывший академический социолог Технологии с докторской степенью в области медиа-исследований в Университете Айовы. Он владеет Bitcoin, Ethereum, Solana и небольшими суммами других Криптo .

David Z. Morris