Introduction
00:00:00Компьютеры используют двоичные значения, 1 и 0, для представления числовых данных. Эта система позволяет представлять большие числа путем добавления большего количества двоичных разрядов, аналогично тому, как работают десятичные числа с десятью возможными значениями на цифру (0-9). Например, число 263 разбито на составляющие: две сотни (200), шесть десятков (60) и три единицы (3). Каждый столбец в числе имеет свой множитель, зависящий от его положения; в десятичной системе счисления это степени десяти, а в двоичной - степени двух.
Binary
00:01:42В десятичной системе счисления, или системе счисления с основанием десять, используются цифры 0-9, в то время как в двоичной системе счисления используются только 1 и 0. Каждая позиция в двоичном числе представляет степени двойки; например, двоичное число "101" равно пяти в десятичной системе счисления (1x4 + 0x2 + 1x1). Для больших чисел требуется больше цифр; преобразование "10110111" в десятичную дробь дает сто восемьдесят три результата. Двоичное сложение отражает десятичные процессы, но использует переносы по—другому из-за ограниченного представления цифр - итоговые суммы, такие как сложение "183 плюс 19", при правильном вычислении дают ту же сумму, что и их десятичные аналоги. Термин "бит" относится к каждой отдельной двоичной цифре, и восьмиразрядная система может представлять до двухсот пятидесяти шести различных значений.
Bytes
00:03:47Байт, состоящий из 8 бит, является фундаментальной единицей в вычислительной технике. Размеры данных представлены такими префиксами, как килобайты (1 КБАЙТ = 1000 байт или 8000 бит), мегабайты (МБ) и гигабайты (ГБ). Терабайт (ТБ) равен приблизительно 8 триллионам бит. Однако в двоичном выражении килобайт на самом деле содержит 1024 байта, а не округленную тысячу. Кроме того, компьютеры работают на 32-разрядной или 64-разрядной архитектуре.
Numbers
00:04:40Максимальное число, которое можно представить с помощью 32 битов, составляет чуть менее 4,3 миллиардов, что позволяет создавать яркую цветную графику на цифровых носителях. Чтобы использовать как положительные, так и отрицательные числа, первый бит указывает на знак, а остальные биты обозначают значение, в результате чего диапазон составляет около плюс-минус двух миллиардов. Однако этого недостаточно для решения более масштабных задач, таких как представление численности населения планеты или государственного долга; следовательно, 64-разрядные числа могут выражать значения приблизительно до 9,2 квинтиллионов. По мере того как объем компьютерной памяти увеличивается до гигабайт и терабайт, использование 64-разрядных адресов становится необходимым для эффективного хранения и извлечения данных.
Floating Point Numbers
00:06:15Числа с плавающей запятой представляют собой десятичные значения аналогично научной системе счисления, где число, подобное 625,9, может быть выражено как 0,6259 x 10 ^ 3, где .6259 является значением, а 3 - показателем степени. В стандартном 32-разрядном представлении с плавающей запятой один бит указывает знак (положительный или отрицательный), восемь битов хранят показатель степени, а двадцать три бита - значение. Для представления текста в компьютерах буквы кодируются с использованием числовых значений, а не специальных форм хранения; например, A обозначается цифрой 1, а B - цифрой 2. Фрэнсис Бэкон использовал пятибитовые последовательности в 1600-х годах для кодирования всех букв английского алфавита для секретной коммуникации, поскольку пять бит могут содержать до тридцати двух различных символов. персонажи.
ASCII
00:07:20ASCII, разработанный в 1963 году в виде 7-разрядного кода, позволял кодировать 128 символов, включая буквы и условные обозначения. Хотя он обеспечивал взаимодействие между различными компьютерными системами, его недостатком было то, что он в основном поддерживал английский язык. Чтобы устранить этот недостаток, были использованы дополнительные коды для обозначения национальных символов; однако с такими языками, как китайский и японский, возникли проблемы с совместимостью из-за их обширного набора символов. Это привело к созданию в 1992 году Unicode — универсальной схемы кодирования, использующей до 16 бит и способной представлять более миллиона уникальных символов из различных языков и письменностей.