Люди живут в компьютерной симуляции. Как из нее выбраться?

Шведский философ Ник Бостром, директор оксфордского Института будущего человечества, прославился своими работами об экзистенциальных рисках, антропном принципе, этике усовершенствования человека и угрозах, которые представляет искусственный интеллект. Его перу принадлежит «Доказательство симуляции», в котором он предполагает, что наша реальность может имитироваться на компьютере, созданном некой продвинутой цивилизацией. В июне Ник Бостром посетил Россию для участия в Международном конгрессе по кибербезопасности, организованном ПАО «Сбербанк» при поддержке АНО «Цифровая экономика» и Ассоциации банков России. Специальный корреспондент «Ленты.ру» поговорил с Бостромом о восстании машин, мировом правительстве и трансгуманизме, а также выяснил, зачем жить дальше, если вокруг «Матрица».

«Лента.ру»: В чем смысл футурологии? Если мы посмотрим на предсказания футурологов прошлого — практически ни один их прогноз не оказался точным.

Бостром: Если говорить об этой дисциплине, я не думаю, что она представляет какую-то ценность.

Да, но вы как раз занимаетесь тем, что пытаетесь предсказать определенные глобальные события в будущем.

Я бы не стал описывать как футурологию то, что делаю я или группа исследователей под моим руководством. Мы занимаемся определенными вещами. Прежде всего, мы разрабатываем концепции, позволяющие упростить поиск закономерностей между событиями в настоящем и их долговременными последствиями, чтобы увидеть, куда они могут нас привести и можно ли что-то в корне изменить.

Также мы пытаемся узнать, какие изменения приведут к позитивному исходу, а какие — к негативному. Например, концепция экзистенциальных рисков, ведущих к тому, что разумная жизнь вымрет или застрянет в некоем радикальном неоптимальном состоянии. В этом примере последствия экзистенциальной катастрофы действительно очень легко спрогнозировать, и они чрезвычайно релевантны в плане определенной ценностной перспективы, которая подразумевает, что будущее имеет огромное значение. Так что все это поможет сосредоточить внимание на последствиях определенных действий.

Но некоторые исследования, которые мы осуществляем, намного более конкретные. Например, у нас есть группа специалистов, занимающаяся безопасностью искусственного интеллекта (это подраздел информатики), поскольку мы считаем, что в будущем определенно понадобятся подобные инсайты.

Должны ли мы действительно бояться таких вещей, как сильный искусственный интеллект, падение небесного тела, вторжения инопланетных цивилизаций? Вам не кажется, что когда о подобных вещах говорят такие авторитеты, как вы, Илон Маск или Стивен Хокинг, они отвлекают общество от более насущных проблем?

Я не думаю, что мы должны думать только о тех проблемах, которые есть сейчас. Нам стоит думать о том, куда мы идем. Нужно беспокоиться и о настоящем, и о будущем. Надеть шоры и не видеть путей, которые ведут к обрыву, будет большой ошибкой.

Вы действительно считаете, что искусственный интеллект может представлять угрозу для человечества?

Полная версия материала по ссылке ниже.

Источник: https://lenta.ru/articles/2018/07/31/bostrom/