Моральный кодекс для искусственного интеллекта

Думаю, искусственныйинтеллект очень повлияет на наше будущее
Взять хотя бы беспилотники )
Когда ИИ сможет заменить водителей, в разы снизится смертность в автокатастрофах. Беспилотники не будут пить за рулём, засыпать, болтать по телефону, нарушать правила. Мы полностью уберём человеческий фактор. Это же так круто!
Но на этом примере видно, с какой фундаментальной проблемой мы сталкиваемся, внедряя искусственный интеллект в жизнь. Это проблема его мотивации.
Каждый из нас постоянно делает выборОн основан на личном опыте, системе ценностей, убеждений. Обычно мы выбираем неосознанно, даём подсознанию сделать это за нас, прокатиться по проложенной колее. В экстремальной ситуации ты поступишь так, другой человек - по-другому, вариантов бесконечное множество. Мы реализуем свободную волю и право на выбор.
В случае с ии нужна чёткая система действий.
Пример. Авария неизбежна, есть два пути: сбить нескольких пешеходов или повернуть и врезаться в стену. В первом случае погибнут несколько людей, во втором - только водитель. Что будет правильнее? Какую мотивацию дать искусственному интеллекту?
Спасти одного человека или троих? Логично выбрать троих и минимизировать потери. Но скажи, ты купишь машину, которая не мотивирована на 100% сохранить твою жизнь?
Этот пример показывает, что мы должны быть готовы к внедрению ИИ в нашу реальность. Необходимость правильно его мотивировать ставит нас перед этическим выбором. И тут нельзя действовать неосознанно. Нам нужна чёткая система общечеловеческих ценностей, мы обязаны быть заодно! Поэтому я всегда говорю, что будущее - за тотальной осознанностью и объединением людей в одну эффективную нейтронную сеть.
Даже самая маленькая ошибка в мотивации ИИ грозит нам уничтожением. 98% учёных сходятся во мнении, что появление искусственного интеллекта человеческого уровня неизбежно. И случится это в ближайшие 20-40 лет. За ним последует суперинтеллект , многократно превышающий человеческий. Настолько, что понять его нам будет так же нереально, как насекомому - понять нас. Но мотивацию в него заложим мы. Если в нашей системе этических норм будет хотя бы малюсенькая ошибка, мы можем исчезнуть как вид.
Как думаешь, мы готовы к такому?