Опасность искусственного интиллекта или вероятность восстания машин


Боитесь ли вы такой проблемы, как искусственный интеллект? Казалось бы — чего бояться? Терминатора никто в здравом уме делать не будет, а еще у нас есть 3 закона Айзека Азимова, которые должны учитываться при создании роботов (весьма простые).

  • Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
  • Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
  • Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

Но что, если произойдет какой-нибудь сбой в программе, при котором все нарушится , и ИИ либо как-то сам пойдет против человечества, либо будет делать роботов, которые будут убивать человеков. Но чтобы узнать, получится ли у ИИ хоть что-то, мы должны разобраться, с чем мы вообще имеем дело.

Есть 2 вида искусственного интеллекта: слабый и сильный. Слабый — это такой ИИ, который имеет решать только поставленную задачу , а сильный ИИ — это такой поц, который состоит из множества слабых ИИ. Для начала возникает вопрос: "Насколько сильный должен быть ИИ, чтобы уметь:
1. Строить роботов,
2. Искать и находить сырье для роботов,
3. Программировать роботов,
4. Ослушаться человека так, чтобы тот не заметил,
И чтобы его было невозможно выключить?"
Ведь правда, сколько нужно соединить ИИ, чтобы он смог это делать, и это при том, что такая совокупность просто неебически сложна, ведь ИИ — это не алгоритм, это тебе не представиться 13-ти летним поцом, это очень сложная во взаимосвязи фигня, которая должна уметь работать параллельно (чего современный ИИ не умеет, либо умеет настолько плохо, что лучше бы работал последовательно).

Также отмечу, что сильные ИИ сейчас не создаются на достаточно высоком уровне, чтобы суметь причинить хоть какой-то вред человеку. Но что со слабым ИИ? Слабый ИИ — это всем нам знакомый перцептрон, который имеет искусственные нейроны и разные связи между ними. Слабый ИИ способен обучаться только определенным действиям, которая заложена в его программу, то есть если у него не будет прописана эмпатия, которая может превратиться в жестокость, то он всегда будет равнодушен к человеку.

Что в итоге? Пока не будет создан достаточно хороший ИИ, чтобы выигрывать людей не только в шашки, но и на поле боя, то бояться нам нужно не целенаправленного геноцида, а банальных сбоев по типу автопилота "ХММММ КУДА ЖЕ МНЕ ВРЕЗАТЬСЯ, В ДЕРЕВО ИЛИ В ТОЛПУ ЛЮДЕЙ?" Поэтому пока что ИИ можно не бояться.