Главная Случайная страница


Категории:

ДомЗдоровьеЗоологияИнформатикаИскусствоИскусствоКомпьютерыКулинарияМаркетингМатематикаМедицинаМенеджментОбразованиеПедагогикаПитомцыПрограммированиеПроизводствоПромышленностьПсихологияРазноеРелигияСоциологияСпортСтатистикаТранспортФизикаФилософияФинансыХимияХоббиЭкологияЭкономикаЭлектроника






Ускорение субъективного времени с целью избежания катастрофы

Сигналы в нейронах распространяются со скоростью примерно 30 метров в секунду, в том время как сигналы в компьютерах распространяются со скоростью света, то есть в 10 миллионов раз быстрее. Кроме того, гипотетически можно сократить размер вычислительной среды, равной мозгу человека, до размеров булавочной головки с использованием нанотехнологий, то есть уменьшить ещё в 1000 раз, что увеличит скорость прохождения сигналов тоже в 1000 раз за счёт сокращения пути. Отсюда можно предположить, что возможно создать симуляцию человеческого мозга, работающую в миллиард раз быстрее обычного мозга. То есть она будет проживать за 1 секунду 20 лет субъективного опыта, или 2 миллиона лет за сутки. Это сделает такую систему в миллиард раз более устойчивой к внешним воздействиям с субъективной её точки зрения. Похожая идея есть у Типплера, где цивилизация успевает пережить бесконечно большое количество опыта (= вычислений) в точке Омега, которой он называет момент сжатия Вселенной, противоположный Большому взрыву.

Однако это не защитит от внутренних катастроф – утраты смысла жизни, создание личного сверхнаркотика, распада, зависания, зацикливания, захвата собственными вирусами-репликаторами (вроде синдрома навязчивых состояний), или от атаки со стороны внешних столь же быстро функционирующих систем (если они находятся достаточно близко в физическом мире, а не на расстоянии световых секунд, как Луна от Земли).

Либо мы считаем себя актуально бессмертными существами, либо мы признаём, что наше существование рано или поздно закончится. Человеческая система ценностей устроена так, что чем дальше во времени событие, тем меньше его значение, и даже невероятное событие, которое случится через несколько тысяч лет, имеет меньшее значение, чем небольшое событие, которое случится в ближайшем будущем (сравните свою эмоциональную реакцию на два возможных события: «На Нью-Йорк упала атомная бомба» и «Через 500 лет на Австралию обрушится огромное цунами»). Установлено, что единственная непротиворечивая система учёта фактора времени в системе ценностей – это экспоненциальное убывание полезности (остальные позволяют играть против самого себя). В результате значение отдалённой глобальной катастрофы становится пренебрежимо малым, и отдаление ее в субъективном времени на тысячи и миллионы лет равносильно ее предотвращению. Стоит ли соглашаться на такую логику – это вопрос личного выбора.

 

21.27 Какие малые действия можно сделать, что изменить ситуацию с глобальными катастрофами

Данила Медведев предложил мне составить список реальных проектов, которые могут уменьшить вероятность глобальной катастрофы, но при этом не связаны с распространением информации в духе пропаганды. Каждый такой проект может иметь и обратную сторону (opportunity cost) в виде новых рисков, напрасно потраченных денег, которые можно было бы потратить более эффективно, морального ущерба в виде ложного чувства безопасности, ущерба главным ценностям цивилизации и возможного конфликта вокруг попыток реализации такого проекта, что приведёт к терроризму или другим формам борьбы против этого проекта. Плюс репутационные риски – некоторые из этих проектов или выглядят бессмысленными, или нереализуемыми, или фашистскими/евгеническими, и реклама таких проектов может привести к негативному отношению к другим проектам, которые лишены этих недостатков, но продвигаются теми же людьми или с теми же целями.

Одна из основных проблем таких предложений – что нет субъекта (единого мирового органа власти), который мог бы их реализовать. Хочу подчеркнуть, что когда я говорю о едином человечестве, я имею в виду всемирное демократическое правительство, избираемое людьми, опирающееся на открытое общество и контролируемое независимой журналистикой и т. д. Опыт показывает, что демократии менее склонны к рискованным и вообще ошибочным решениям, чем авторитарные правители. Открытый обмен информацией позволяет усиливать слабые сигналы. Демократии обладают и более высоким интеллектуальным потенциалом, так как распределённым образом используют интеллектуальные ресурсы многих людей. Демократии менее склонны к войнам, во всяком случае глобальным. При этом уровень коррупции в демократиях ниже, чем при диктатурах, а значит, законы об ограничениях опасных технологий будут в них работать чётче. (И уже работают – в области производства наркотиков (запрет), запуска самодельных ракет – лицензирование и т. д.)

Есть несколько мирных способов объединения государств – сетевые объединения, транснациональные корпорации, глобальная экономика, система международных соглашений и организаций, интеграция по типу европейской и объединение перед общим врагом как это было после терактов 11 сентября. Наиболее крупные державы и страны изгои будут в наибольшей мере противится любым формам интеграции. Немирными формами интеграции является экспорт революций (то есть смена правительств тайными методами) и прямой завоевание. Завоевание остаётся худшим решением.

Помимо цены вопроса, мы можем для каждого случая оценить вероятность того, что этот проект будет реализован.

Виды спасающих воздействий: накопление информации, создание модели, информационное влияние на общество, превентивное воздействие на точки распространения (лицензирование, охота на потенциальных террористов), средства ограничения силы воздействия после выхода из точки распространения (биозащита), разные варианты плана Б (бункеры, Луна) и плана С (маловероятные проекты последнего шанса на спасение, вроде ДНК на Луне).

Здесь я упорядочил проекты по возрастанию их стоимости.

1. Написать книгу «Гид по восстановлению цивилизации», в которой описать все необходимые знания по охоте, промышленности, добычи полезных ископаемых, и все предупреждения о рисках. Оттестировать разные разделы на добровольцах. Запечатлеть книгу в камне/металле/другом прочном носителе во многих копиях по всему миру. Добавить в книгу букварь, чтобы ее можно было расшифровать, когда язык изменится. Закопать клады с инструментами/книгами/семенами в разных местах мира. Стоимость: 1-100 млн. долларов. Полезность (то есть уменьшение вероятности глобальной катастрофы по сравнению с базовым сценарием, в котором вероятность принимается равной 50% в XXI веке, предварительная интуитивная оценка): 0,1 %. Риски: может быть напрасной тратой денег.

2. Собрать денег на работу Института Сингулярности в Калифорнии в области создания дружественного ИИ. Им нужно 3 млн. долларов. Это проект имеет максимальное соотношение затраты-отдача. То есть он реально может, по моей интуитивной оценке, увеличить шансы выживания человечества на примерно 1 процент. (Это определяется произведением оценок вероятности событий – возможность ИИ, то, что SIAI решит эту проблему, то, что он решит ее первым, и то, что он решит проблему дружественности, и того, что этих денег им хватит.) Риски: непредсказуемость последствий.

3. Крионировать во льду Антарктиды (температура -57 С, кроме того можно создать устойчивую область с более низкой температурой закачав жидкий азот и охладив ее) несколько человек, с тем что если на Земле возникнет иная развитая цивилизация, то можно было бы их воскресить. Несколько миллионов долларов расходы. Реализовать другие проекты по сохранению человеческих знаний в духе предложенных фондом LongNow титановых дисков в записью информации. Риски: противодействие религиозных организаций, репутационные риски. Некоторые люди вероятно, и так уже захоронены в Антарктике – Скотт?

4. Создать систему космического наблюдения в инфракрасном диапазоне за кометами и астероидами и таким образом окончательно ответить на вопрос о том, угрожают ли какие-либо тёмные кометы и прочие необычные тела Земле как источники глобального риска (то есть объекты более 1 км в диаметре), если нет, то вычеркнуть задачу отклонения астероидов из класса задач по борьбе с глобальными рисками и перевести её в область борьбы с региональными рисками – отслеживание объектов в несколько сот метров и меньше. Уже выведен на орбиту инфракрасный телескоп Wise.

5. Отправить ДНК человека на Луну в время устойчивой капсуле. Несколько десятков миллионов долларов. Так же можно отправить мозг человека крионированный. Идея здесь в том, что если человечество погибнет, то когда-нибудь прилетят инопланетяне и воскресят человека по этим данным. Расходы – 20-50 млн. долларов, вероятность успеха 0.001%. Рассылать ДНК человека по космосу иными способами. Риски: бессмысленная трата денег и общественного внимания. Какое-то количество человеческой ДНК и даже клеток могло остаться в спускаемых модулях Аполлона или на некоторых спутниках, однако из-за перепадов температур они обречены на деградацию. Акой проект можно было бы осуществить почти бесплатно параллельно со следующим посещением Луны автоматическим аппаратом.

6. Ускоренная разработка универсальных вакцин. Создание всемирных запасов мощных средств обеззараживания на случай глобальной эпидемии, создание запасов антвирусных препаратов и вакцин от большинства известных опасных вирусов, которых бы хватило на большую часть человечества. Создание средств вирусного мониторинга и мгновенной диагностики (тест-полоски). Создание и производство в количестве миллиардов штук продвинутых обеззараживающих средств вроде персональных УФ-ламп, нанотехнологических повязок на лицо, перчаток и т. д. Миллиарды или сотни миллиардов долларов в год. Создание личных запасов еды и воды у каждого дома на месяц. Разработка средств снабжения, исключающих контакт людей друг с другом. Переход к медленному глобальному транспорту (корабли) на случай пандемии. Обучение медперсонала и создание запасных койко-мест в больницах. Создание и тестирование на реальных проблемах огромных заводов, которые за несколько недель могут разработать и произвести миллиарды доз вакцин. Совершенствование законодательства в области карантина. Прирост вероятности выживания 2-3 процента. Риски: рост числа биолабораторий приведёт к росту потенциальных биотеррористов.

7. Создание автономных бункеров с запасом еды на несколько десятков лет и с постоянными «экипажами», способными восстановить человечество. Порядка 1-10 млрд. долларов. Сохранение тех видов ресурсов, которые человечество могло бы использовать на пост-апокалиптической стадии для восстановления. Риски: ложное чувство спокойствия. Преимущество в бункерах одной из сторон может дать основу для первого удара в случае глобальной войны.

8. Создание научного суда по адронному коллайдеру и другим потенциально опасным проектам, в котором физикам-теоретикам будут выплачиваться значительные суммы денег за открытие потенциальных уязвимостей. Риски: может привести к задержке прорывных исследований, которые могут открыть новые источники энергии.

9. Адаптация МКС к функции бункера на случай катастрофы на Земле – создание на МКС серии дополнительных модулей, могущих поддержать существование экипажа в течение 10 лет. Расходы – десятки миллиардов долларов. Риски: неэффективная трата денег.

10. Создание автономной самоподдерживающейся базы на Луне. При нынешнем уровне технологий – около 1 триллиона долларов или более. Правильная стратегия развития космоса удешевит ее – то есть инвестиции в новые типы двигателей и дешёвые средства доставки. Прирост выживания на 1 процент. (Но есть и свои новые риски: космическая война).

11. Тоже самое на Марсе. Несколько триллионов. Прирост выживания на 1-2 процента.

12. Создание межзвёздного ядерного корабля-ковчега – десятки триллионов долларов. Прирост выживания на 1-2 процента. Риски: создание большого количества ядерных бомб

13. (Далее следуют пункты, для решения которых недостаточно одних денег, но нужна политическая воля.) Уничтожение стран-изгоев и создание всемирного государства. 10 процентов прироста выживаемости. Однако высокие риски в процессе: мировая война, утрата разнообразия, всемирный тоталитаризм.

14. Создание всемирного центра быстрого реагирования на глобальные риски. Нечто вроде спецназа или МЧС, который можно бросить на глобальные риски. Наделение его правом мгновенного принятия решения, в том числе и о военных действиях, а также разведкой. Наделение его правом вето на опасные эксперименты. Укрепление систем гражданской обороны на местах. Риски: ошибочная реакция, диктатура.

15. Запрет на частную науку (в смысле в гараже) и создание нескольких сертифицированных центров науки (наукоградов с централизованным контролем безопасности в процессе) с высоким уровнем финансирования прорывных исследований. В области биотехнологий, ядерных технологий, ИИ и нано. Это поможет избежать распространения знаний массового поражения, но при этом не приведёт к остановке прогресса. Это только после упразднения национальных государств. Несколько процентов прироста выживаемости. Эти наукограды могут свободно обмениваться технической информацией между собой, но не имеют права выпускать ее во внешний мир. Риски: не отменит рост военной государственной науки; приведёт к развитию нелегальных подпольных сетей с обилием преступных элементов.

16. Законодательно обязательное дублирование всех жизненноважных ресурсов и видов деятельности – что сделает невозможным коллапс цивилизации по принципу домино при сбое в одной точке. Запрет на сверхсложные системы общественной организации, поведение которых непредсказуемо и тоже склонно к эффекту домино, и замену их на линейные повторяющиеся системы производства – то есть противостояние экономической глобализации. Риски: снижение экономического роста.

17. Сертификация и лицензирование исследователей био, нано, ИИ и ядерных технологий. Законодательное требование проверять любые свои и чужие изобретения на предмет глобальных рисков, с ними связанных, и обязательство разрабатывать одновременно средства защиты на случай выхода их изобретений из-под контроля.

18. Закон о повышении уровня интеллекта население – оплодотворение половины населения от нескольких сот лучших отцов по уровню интеллекта и здравомыслия и неприязни к рискам. (Вторая половина размножается обычным образом для сохранения генетического разнообразия; проект реализуется без насилия за счёт денежных выплат. Это уже происходит сейчас, многие женщины выбирают искусственное оплодотворение от высококачественных отцов.) Плюс реформа образования, где школа заменяется на систему тренингов, в которых уделена важная роль здравомыслию и знанию логики. Риски: восстание биоконсерваторов. Кроме того, рост интеллекта увеличит число потенциальных террористов.

19. Ограничение капиталистической конкуренции как мотора экономики, так как она приводит к недооценке рисков в долгосрочном плане. Риски: снижение экономического роста.

20. Опережающие инвестиции в прорывные области вроде нанотехнологий в лучших и в наиболее ответственных центрах, чтобы быстрее проскочить опасный период. Риски: слишком быстрое создание прорывных технологий, когда общество ещё не адоптировалось к ним.

21. Рост систем информационного контроля и тотального видеонаблюдения, плюс сертификации данных в них и распознавания образов. Контроль в Интернете и личная авторизация при входе в сеть. Непрерывное наблюдение за всеми людьми, обладающими потенциально опасными знаниями. Риски: всемирный тоталитаризм и борьба с ним террористов.

Сюда можно добавить создание всемирного мозгового танка из лучших специалистов по глобальным рискам и постановка перед ними задачи по выработке позитивных сценариев. При этом нужно понять, какой способ объединение таких специалистов был бы наиболее эффективнее, чтобы А) они не перегрызлись из-за разных идей и чувства собственной крутизны. Б) Чтобы это не превратилось в «пилилку» денег для своих. В) Чтобы они за это получали деньги, которые позволили бы им полностью сконцентрироваться на этой проблематике. То есть это нечто вроде реферируемого журнала, вики, научного суда или рынка предсказаний. Но способ объединения не должен быть слишком экзотичным, так как экзотичные способы надо отрабатывать на менее важных предметах.

Объявить денежные премии за новые сценарии уязвимостей, так и за новые сценарии их предотвращения. При этом, возможно, публиковать открыто только сценарии предотвращения.

Создать режим секретности, не мешающий обмену знаниями между специалистами по глобальным рискам. Например, некоторая база данных закрыта для анонимного доступа, но любой, заявивший о себе как исследователь о глобальных рисках, может получить к ней доступ. При этом он соглашается на то, что его персона будет находится под большим контролем. Это открывает обмен информацией специалистам и «интеллекту толпы», но ограничивает доступ к потенциально опасным знаниям анонимных террористов.

Однако создание точной и убедительной для всех модели глобальных рисков снизило бы по крайней мере вдвое вероятность глобальной катастрофы. И мы всё ещё находимся на стадии создания такой модели. Поэтому способы создания модели и способы ее аутентификации являются сейчас самым важным, хотя, возможно, время уже упущено. После того, как такая модель будет создана, необходимо максимально широко распространить, разрекламировать её, или даже заставить учёных и политиков сдавать зачёт по ней как по технике безопасности. Создание политической партии, требующей законов об обеспечении неуничтожимости цивилизации и победа ее во всех государствах мира. Рост образованности в области глобальных рисков через обучение, лекции, книги. Государственная пропаганда на уровне «промывки мозгов» о важности недопущения рисков эффективность сомнительна, так как всегда найдутся те, кто будут действовать вопреки. Кроме того, это будет отрицательная скрытая команда в духе НЛП – ведь сначала надо представить себя реализующим риск, чтобы потом запретить себе это делать. Возможны более хитрые подходы: отказ от голливудского кино, пропагандирующего «конец света» и подсознательно программирующего на него людей. Объединение человечества ради преодоления некой внешней общей угрозы (НЛО, болезнь, нехватка ресурсов).

Подчеркну, что основные проблемы глобальных рисков относятся к сфере знаний, а не к сфере действий. То есть основная проблема, что мы не знаем, где нам подстелить «соломочку», а не в том, что у нас нет «соломочки». Риски создаются знаниями и устраняются знаниями.

Реализация этих мер технически возможна и могла бы снизить вероятность глобальных катастроф в XXI веке, по моей оценке, в 10 раз. Вместе с тем вряд ли мы можем ожидать, что все эти меры будут реализованы. Некоторые из них более реалистичны, некоторые менее. Я полагаю, что лишь десятая доля этих мер будет реализована, и то под воздействием обстоятельств, а не общественного движения.

21.28 Популяризация проблематики глобальных рисков

В настоящий момент популяризация рисков, связанных с развитием науки, отдана на откуп журналистики. Это приводит вначале к преувеличению рисков и их искажению, а затем к обратной реакции недоверия. Кроме того, на Западе появилось несколько научно-популярных книг, которые рассказывают в доступной читателю форме о рисках человеческого вымирания, например, книга Мартина Риса «Наш последний час». Эти книги дают гораздо более полную картину рисков, основанную на современных научных достижениях, чем журналистика. В России есть моя книга «Война и ещё 25 сценариев конца света».

Большая часть населения не может адекватно понять сложные риски, такие как адронный коллайдер или глобальное потепление. В результате такой популяризации рисков появляется определённый процент сумасшедших, который предлагает свои бредовые идеи, почему коллайдер может взорваться. Это только дискредитирует проблему рисков.

Кроме того, такие сумасшедшие борцы с глобальными рисками сами могут стать глобальным риском: например, если они начнут совершать непрерывные террористические акты, которые остановят развитие науки, или выпустят опасный вирус из лаборатории, или устроят такую катастрофу, чтобы остановить технологический прогресс на Земле, или решат уничтожить носителей определённой идеологии или национальности – а у любой идеологии и национальности есть смертельный враг. Если некто уверен, что вероятность гибели Земли от БАК равна 3%, то исходя из его представлений рационально спровоцировать ядерную войну, которая разрушит большую часть Европы, поскольку ожидаемая полезность, выраженная в числе сохранённых жизней, будет больше. Однако таких сумасшедших могут быть тысячи и у них могут быть разные представления о том, что именно надо разрушить, чтобы спасти мир. (И таких много: есть группы людей, полагающие, что надо уничтожить США, Китай, негров, евреев, Россию, мужчин и т. д. – так как именно имярек является источником такого большого глобального риска, что ради его устранения можно идти на любые жертвы. Классический пример такого сумасшедшего – А.Гитлер, которому казалось, что он спасает мир от евреев и коммунизма). А.Горелик размышлял вслух о возможности взрыва Академии наук, чтобы остановить БАК. Т.Качинский избирательно убивал учёных, занимающихся ИИ.

Однако широкая общественная дискуссия необходима, так как неизвестно, кто именно является тем учёным, который может реально предложить новые идеи о рисках. Засекречивание всегда хуже, так как оно всегда приводит к тому, что кто-то, кто должен был знать о риске, не знает о нём. Пример тому – авария на Саяно-Шушенской ГЭС: подобная авария была и в советское время, но была засекречена – и настолько успешно, что о ней забыли.

Важной группой, на которую направлена популяризация рисков, является группа школьников и студентов, которые станут будущими учёными и руководителями. Знание о рисках позволит им выбрать свою профессию или учитывать риски в ходе своей научной деятельности.

Однако есть вероятность, что идеи о возможности глобального уничтожения за счёт перспективных разработок вдохновят новых «геростратов». Известно, что людям свойствен стадный инстинкт. Например, после сообщения о казне Саддама Хуссейна около 10 детей покончили собой, пытаясь повторить повешение. После терактов 11 сентября было ещё несколько таранов зданий самолётами подражателями. (Но с гораздо меньшими последствиями – это были одномоторные самолёты: случаи в Милане, Техасе, и др.) То есть по данным сравнения с 11 сентября реальный заговор наносит гораздо больший ущерб, чем теракты подражателей-одиночек (менее 10 жертв от всех подражателей в сравнении с 3000 жертв от реального заговора). Отсюда следует, что те, кто хотят устроить реальную катастрофу, принимают решение об атаке не под действием рекламы, а в результате длительного холодного расчета. И из этого следует, что доля «геростратов» относительно мала в суммарном риске.

Впрочем, необходимо найти правильную пропорцию между рассказом о рисках и устранением рекламы рисков, а также неразглашением потенциально опасной информации.

Например, нет никакого секрета в том, что с помощью биолаборатории можно синтезировать опасный вирус – это знают все биологи-вирусологи, и вряд ли это будет для них рекламой; кроме того этот вопрос уже неоднократно освещался в кино и научной фантастике. Однако это может быть известно не всем контролирующим органам – точнее, им может не быть известно, насколько это просто сделать, и какие именно ограничения на свободное обращение ДНК следует ввести.

 


 

Последнее изменение этой страницы: 2016-06-08

lectmania.ru. Все права принадлежат авторам данных материалов. В случае нарушения авторского права напишите нам сюда...