В нашем мире все сигналы можно разделить на два типа: аналоговые и цифровые. А вот в чем их принципиальная разница? Давайте разберемся...
Аналоговый сигнал
Для простоты понимания представим сигнал как волну. При аналоговом представлении информации мы должны учитывать размер каждой волны.
Как видно из графика, при использовании аналоговых сигналов мы можем использовать величину волны как какое-то значение: 8, -6, 8, -3. И изначально именно аналоговый сигнал применялся в мире для передачи информации. И в теории все хорошо, но есть ряд проблем, размер «волны» зависит от очень большого количества факторов:
- Дальность передачи
- Источники сигналов с такой же частотой
- И другие факторы, зависящие от среды передачи.
Все это влияет на достоверность и точность передаваемых данных и в случае с вычислениями очень часто даёт совершенно не верный результат.
Цифровой сигнал
Цифровой сигнал - это способ представления значений волны не в виде значений, а в виде ответа на вопрос: "А есть ли сигнал?".
Если сигнал есть, то это - 1, его отсутсвие - 0. Тем самым сам по себе сигнал становится более точным, так как уже не зависит от значения, а зависит только от его присутствия.
Данный подход позволяет выполнять более точные и качественные вычисления, что стало одной из причин такого стремительного развития вычислительной техники.
UPD Я постарался максимально упростить терминологию и умышленно опустить довольно сложные для понимания термины и нюансы. Буду рад получить обратную связь.