Гибель человечества — что это значит для меня?

13 июня 2014 г.

Выдающиеся ученые предостерегают о наступлении в не столь отдаленном будущем таких серьезных угроз для человечества, как изменение климата и появление сверхмощных компьютеров. Но большинство людей к этим проблемам относятся равнодушно.

В своей новой статье Стивен Хокинг вдруг упомянул Джонни Деппа и предостерег всех нас: компьютеры напрямую угрожают человечеству. Но лишь немногих людей эта угроза действительно волнует. Угроза эта обитает в Интернете. (Действительно ли компьютеры не хотят, чтобы мы ее заметили?)

Совсем недавно Стивен Хокинг вместе с профессором физики из Массачусетского технологического университета Максом Тегмарком (Tegmark), лауреатом Нобелевской премии Фрэнком Вильчеком (Wilczek) и профессором по компьютерным наукам из Беркли Стюартом Расселом (Russell) опубликовали в The Huffington Post несколько пугающую статью под названием «Избавляясь от беспечного отношения к сверхразумным машинам». Звучит солидно. Предлогом для статьи послужил научно-фантастический триллер «Превосходство» (Transcendence) с участием Деппа. «Есть искушение отнести сверхумные компьютеры к области научной фантастики, но это было бы ошибкой, и, возможно, – самой ужасной ошибкой в истории», – пишут авторы статьи.

А потом – вероятно, из-за того, что данной теме не уделялось достаточно внимания, – на прошлой неделе в газете The Independent появилась еще одна статья под более пространным заголовком «Фильм "Превосходство": плоды искусственного интеллекта – насколько серьезно мы их воспринимаем?» Да, звучит неплохо. Провокационно, заманчиво, но не сенсационно. Однако то, о чем рассуждают выдающиеся ученые мужи, вряд ли назовешь несенсационным. «Резкий переход возможен», – утверждают авторы статьи, предупреждая нас о том времени, когда с помощью элементарных частиц можно будет выполнять вычисления, на которые не способен человеческий мозг. «Как хорошо понимал еще Ирвинг в 1965 году, конструкция машин, наделенных сверхчеловеческим интеллектом, постоянно усовершенствуясь, запустит процесс, который Вернор Виндж (Vernor Vinge) называет "сингулярностью"».

Статья заканчивается рекламой для организаций, которые основали сами авторы: «Серьезными исследованиями данных вопросов мало кто занимается, кроме таких некоммерческих институтов, как Кембриджский центр по изучению экзистенциального риска, Институт перспектив развития человечества, Научно-исследовательский институт машинного интеллекта, а также Институт изучения будущего развития жизни».
Итак, авторы добавили немного сенсационности для того, чтобы привлечь внимание к серьезным проблемам современности, которые, по их мнению, недооценены? Нужно ли нам уже сейчас поеживаться от страха?

В лекции, недавно прочитанной в Оксфорде, Тегмарк озвучил пять «сценариев космокалипсиса», которые положат конец человечеству. Но все они произойдут в будущем — в промежутке между 10 млрд и 100 млрд лет.

Эти сценарии чисто умозрительны, их крайне трудно себе представить. Итак, темная энергия порождает «Великий холод»; появляются «Пузыри смерти», пространство все больше погружается в холод и, расширяясь со скоростью света, устраняет все на своем пути. Далее возникают «Большой треск», «Большой хруст» и «Большой разрыв». Но Макса Тегмарка подобные сценарии не очень-то беспокоят. Его даже не пугают угрозы более близкие к нам по времени, например, тот факт, что почти через миллиард лет Солнце будет настолько жарким, что от этого начнут испаряться океаны – к тому времени у человечества наверняка появятся технологии, предотвращающие подобное развитие событий. Кроме того, считается, что через 4 млрд лет Солнце поглотит Землю. И вот физики уже предлагают отклонять астероиды, летающие на периферии Солнечной системы, для того, чтобы они, приближаясь к Земле, постепенно отталкивали ее подальше от Солнца, а это позволит Земле постепенно уклониться от огненных объятий.
Больше всего Тегмарк обеспокоен непосредственными угрозами, которые он называет «экзистенциальными рисками». Данный термин заимствован им у физика Ника Бострома, директора Института перспектив развития человечества при Оксфордском университете, где ученые исследуют потенциальные возможности экспансии человечества в космосе. По их мнению,

Млечный Путь может быть колонизирован менее чем за миллион лет – это при условии, что межзвездные зонды смогут себя самовоспроизводить, используя сырье, добытое на других планетах, и что человечество себя не погубит в первую очередь выбросами углерода.

«Мне кажется, что возрастает вероятность того, что в нашем мире экзистенциальный риск все больше превращается в самый важный моральный вопрос, даже несмотря на то, что он пока еще не стал основным», – заявил недавно Бостром Россу Андерсену в одной примечательной статье, опубликованной в журнале Aeon. Наряду с Хокингом, Бостром является советником недавно созданного при Кембриджском университете Центра по изучению экзистенциальных рисков, а также ему подобного недавно появившегося центра, возглавляемого Тегмарком – Института изучения будущего развития жизни (Кембридж, штат Массачусетс). По словам Тегмарка, экзистенциальные риски – это такие явления, которые «не просто немного неприятны (как штрафной талон за парковку), но на самом деле ужасны; это такие обстоятельства, которые способны нанести реальный ущерб человеческой цивилизации и даже ее уничтожить».

Единственный вид экзистенциального риска, о котором Тегмарк больше всего беспокоится – это враждебный искусственный интеллект. По словам Тегмарка, по мере усовершенствования способности компьютеров возрастут многократно, после чего прогнозировать дальнейший ход развития событий будет очень сложно.

В начале этого года Тегмарк сообщил в интервью корреспонденту журнала Motherboard Лекс Берко следующее: «По моему мнению, существует 60-процентная вероятность того, что я умру не от старости, а от какого-нибудь бедствия, вызванного человеческим фактором. Вот именно об этом я и должен беспокоиться, именно этому должен посвящать значительную часть своего времени – и не только я, но и все общество должно беспокоиться».
 

 

Вернуться

При перепечатке материалов ТПП-Информ ссылка на интернет-издание обязательна.