Из Википедии, бесплатной энциклопедии
Перейти к навигации Перейти к поиску

Бит является основной единицей информации в компьютерных и цифровых коммуникаций . Имя является контаминация из двоичного разряда . [1] Бит представляет логическое состояние с одним из двух возможных значений . Эти значения обычно представлены как «1» или «0» , но другие представления, такие как истина / ложь , да / нет , + / - или вкл / выкл, являются общими.

Соответствие между этими значениями и физическими состояниями нижележащего хранилища или устройства является условием, и разные назначения могут использоваться даже в одном и том же устройстве или программе . Это может быть физически реализовано с помощью устройства с двумя состояниями.

Символ двоичной цифры - это либо бит согласно рекомендации стандарта IEC 80000-13 : 2008, либо символ нижнего регистра b , как рекомендовано стандартами IEEE 1541-2002 и IEEE Std 260.1-2004 .

Непрерывная группа двоичных цифр обычно называется битовой строкой , битовым вектором или одномерным (или многомерным) битовым массивом . Группа из восьми двоичных цифр называется одним  байтом , но исторически размер байта строго не определен. Часто половинные, полные, двойные и учетверенные слова состоят из числа байтов, которое является малой степенью двойки.

В теории информации , один бит является информационная энтропия из двоичной случайной величины , что равно 0 или 1 с равной вероятностью, [2] , или информация , которая достигается , когда значение такой переменной становится известным. [3] [4] Как единица информации бит также известен как шеннон , [5] названный в честь Клода Э. Шеннона .

История [ править ]

Кодирование данных дискретными битами использовалось в перфокартах, изобретенных Базилем Бушоном и Жаном-Батистом Соколом (1732 г.), разработанных Жозефом Мари Жаккардом (1804 г.), а затем принятых Семеном Корсаковым , Чарльзом Бэббиджем , Германом Холлеритом и ранними авторами. производители компьютеров, такие как IBM . Другой вариант этой идеи - перфорированная бумажная лента . Во всех этих системах носитель (карта или лента) концептуально содержал множество позиций отверстий; каждая позиция могла быть либо пробита, либо нет, таким образом неся один бит информации. Кодирование текста битами также использовалось в азбуке Морзе.(1844) и ранние машины цифровой связи, такие как телетайпы и биржевые тикеры (1870).

Ральф Хартли предложил использовать логарифмическую меру информации в 1928 году. [6] Клод Э. Шеннон впервые использовал слово «бит» в своей основополагающей статье 1948 года « Математическая теория коммуникации ». [7] [8] [9] Он приписал его происхождение Джону У. Тьюки , который 9 января 1947 года написал меморандум Bell Labs, в котором он сократил «двоичную информационную цифру» до просто «бит». [7] Ванневар Буш написал в 1936 году «биты информации», которые можно было хранить на перфокартах, используемых в механических компьютерах того времени. [10] Первый программируемый компьютер, построенный Конрадом Цузе., используется двоичная запись чисел.

Физическое представление[ редактировать ]

Бит может быть сохранен цифровым устройством или другой физической системой, которая существует в любом из двух возможных различных состояний . Это могут быть два стабильных состояния триггера, два положения электрического переключателя , два различных уровня напряжения или тока, допускаемые схемой , два различных уровня интенсивности света , два направления намагничивания или поляризации , ориентация обратимого двойного скрученная ДНК и т. д.

Биты могут быть реализованы в нескольких формах. В большинстве современных вычислительных устройств бит обычно представлен импульсом электрического напряжения или тока или электрическим состоянием триггерной схемы.

Для устройств, использующих положительную логику , цифровое значение 1 (или логическое значение «истина») представлено более положительным напряжением по сравнению с представлением 0. Конкретные напряжения различаются для разных семейств логики, и допускаются вариации с учетом компонентов старение и помехоустойчивость. Например, в транзисторно-транзисторной логике (TTL) и совместимых схемах цифровые значения 0 и 1 на выходе устройства представлены не более 0,4 В и не менее 2,6 В соответственно; в то время как входы TTL предназначены для распознавания 0,8 В или ниже как 0 и 2,2 В или выше как 1.

Передача и обработка [ править ]

Биты передаются по одному при последовательной передаче и множеством битов при параллельной передаче . Операция побитового необязательно обрабатывает биты по одному за раз. Скорость передачи данных обычно измеряется в десятичных единицах СИ, кратных единице бит в секунду (бит / с), например кбит / с.

Хранилище [ править ]

В самых ранних неэлектронных устройствах обработки информации, таких как ткацкий станок Жаккарда или аналитическая машина Бэббиджа , бит часто сохранялся как положение механического рычага или шестерни, либо наличие или отсутствие отверстия в определенной точке бумажной карты. или ленту . Первые электрические устройства для дискретной логики (такие как схемы управления лифтами и светофорами , телефонные переключатели и компьютер Конрада Цузе) представляли биты как состояния электрических реле, которые могли быть либо «разомкнутыми», либо «замкнутыми». Когда реле были заменены электронными лампамиНачиная с 1940-х годов, производители компьютеров экспериментировали с различными способами хранения, такими как импульсы давления, идущие по ртутной линии задержки , заряды, хранящиеся на внутренней поверхности электронно-лучевой трубки , или непрозрачные пятна, напечатанные на стеклянных дисках с помощью фотолитографических методов. .

В 1950-х и 1960-х годах эти методы были в значительной степени вытеснены магнитными запоминающими устройствами, такими как память на магнитных сердечниках , магнитные ленты , барабаны и диски , где бит был представлен полярностью намагничивания определенной области ферромагнитной пленки или изменение полярности с одного направления на другое. Тот же принцип позже был использован в магнитной пузырьковой памяти, разработанной в 1980-х годах, и до сих пор используется в различных предметах с магнитной полосой , таких как билеты на метро и некоторые кредитные карты .

В современной полупроводниковой памяти , такой как динамическая память с произвольным доступом , два значения бита могут быть представлены двумя уровнями электрического заряда, хранящегося в конденсаторе . В некоторых типах программируемых логических массивов и постоянной памяти бит может быть представлен наличием или отсутствием проводящего пути в определенной точке цепи. В оптических дисках бит кодируется как наличие или отсутствие микроскопической ямки на отражающей поверхности. В одномерных штрих-кодах биты кодируются как толщина чередующихся черных и белых линий.

Единица и символ [ править ]

Бит не определен в Международной системе единиц (СИ). Однако Международная электротехническая комиссия выпустила стандарт IEC 60027 , в котором указывается, что символ двоичной цифры должен быть битовым , и его следует использовать во всех кратных, таких как кбит , для килобита. [11] Однако строчная буква b также широко используется и была рекомендована стандартом IEEE 1541 (2002) . В отличие от этого, заглавная буква B является стандартным и обычным символом байта.

Множественные биты [ править ]

Множественные биты могут быть выражены и представлены несколькими способами. Для удобства представления часто повторяющихся групп битов в информационных технологиях традиционно использовалось несколько единиц информации . Наиболее распространенным является единичный байт , введенный Вернером Бухгольцем в июне 1956 года, который исторически использовался для представления группы битов, используемых для кодирования одного символа текста (до тех пор, пока многобайтовая кодировка UTF-8 не взяла верх) в компьютере [12] [13] [14] [15] [16] и по этой причине он использовался в качестве основного адресуемого элемента во многих компьютерных архитектурах.. Тенденция в дизайне оборудования сошлась на наиболее распространенной реализации использования восьми бит на байт, как это широко используется сегодня. Однако из-за неоднозначности отношения к базовой конструкции аппаратного обеспечения единичный октет был определен для явного обозначения последовательности из восьми битов.

Компьютеры обычно обрабатывают биты группами фиксированного размера, обычно называемыми « словами ». Как и в случае с байтом, количество битов в слове также зависит от конструкции оборудования и обычно составляет от 8 до 80 бит или даже больше в некоторых специализированных компьютерах. В 21 веке у розничных персональных или серверных компьютеров размер слова составляет 32 или 64 бита.

Международная система единиц определяет ряд десятичных префиксов для кратных стандартизированных единиц , которые обычно используются также с битом и байтом. Префиксы кило (10 3 ) - йотта (10 24 ) увеличиваются с шагом, кратным 1000, и соответствующие единицы - это килобит (кбит) через йоттабит (Ybit).

Информационная емкость и сжатие информации [ править ]

Когда информационная емкость системы хранения или канала связи представлена ​​в битах или битах в секунду , это часто относится к двоичным цифрам, которые представляют собой аппаратную способность компьютера хранить двоичные данные (0 или 1, вверх или вниз, текущее или нет. , так далее.). [17]Информационная емкость системы хранения - это только верхняя граница количества хранимой в ней информации. Если два возможных значения одного бита памяти не равновероятны, этот бит памяти содержит менее одного бита информации. Если значение полностью предсказуемо, то считывание этого значения не дает никакой информации (нулевые энтропийные биты, поскольку нет разрешения неопределенности и, следовательно, информация недоступна). Если компьютерный файл, который использует n  битов памяти, содержит только m < n  битов информации, то эта информация в принципе может быть закодирована примерно m  битами, по крайней мере, в среднем. Этот принцип лежит в основе сжатия данных.технологии. По аналогии, двоичные цифры оборудования относятся к объему доступного пространства для хранения (например, количество ведер, доступных для хранения вещей), и к информационному содержанию заполнения, которое имеет разные уровни детализации (мелкая или грубая, т. Е. сжатая или несжатая информация). Когда детализация более мелкая - когда информация более сжатая, - в том же ведре может содержаться больше.

Например, по оценкам, совокупные технологические возможности мира для хранения информации обеспечивают 1300 эксабайт аппаратных цифр. Однако, когда это пространство хранения заполнено и соответствующий контент оптимально сжат, это составляет всего 295 эксабайт информации. [18] При оптимальном сжатии результирующая пропускная способность приближается к информации Шеннона или информационной энтропии . [17]

Битовые вычисления [ править ]

Некоторые побитовые инструкции компьютерного процессора (например, набор битов ) работают на уровне управления битами, а не данными, интерпретируемыми как совокупность битов.

В 1980-х годах, когда растровые компьютерные дисплеи стали популярными, некоторые компьютеры предоставляли специальные инструкции по передаче битовых блоков для установки или копирования битов, соответствующих заданной прямоугольной области на экране.

В большинстве компьютеров и языков программирования, когда упоминается бит в группе битов, такой как байт или слово, он обычно определяется числом от 0 и выше, соответствующим его положению в байте или слове. Однако, 0 может относиться либо к большей или меньшей мере значащий бит в зависимости от контекста.

Другие информационные блоки [ править ]

Подобно крутящему моменту и энергии в физике; теоретико-информационная информация размера и хранение данных имеют одинаковую размерность в единицах измерения , но в общем случае нет смысла для сложения, вычитания или иным образом комбинируя единицы математически.

Другие единицы информации, иногда используемые в теории информации, включают натуральную цифру, также называемую нат или нит и определяемую как log 2  e (≈ 1,443) бит, где e - основание натурального логарифма ; и dit , ban или hartley , определяемые как log 2  10 (≈ 3,322) бит. [6] Это значение, немного меньше 10/3, можно понять, потому что 10 3 = 1000 ≈ 1024 = 2 10: три десятичных цифры немного меньше информации, чем десять двоичных цифр, поэтому одна десятичная цифра немного меньше 10/3 двоичных цифр. И наоборот, один бит информации соответствует примерно ln  2 (≈ 0,693) натсу, или log 10  2 (≈ 0,301) хартлея. Как и в случае обратного отношения, это значение, примерно 3/10, но немного больше, соответствует тому факту, что 2 10 = 1024 ~ 1000 = 10 3 : десять двоичных цифр немного больше информации, чем три десятичных цифры, поэтому одна двоичная цифра является чуть больше 3/10 десятичных цифр. Некоторые авторы также определяют двоичный разряд как произвольную информационную единицу, эквивалентную некоторому фиксированному, но неопределенному количеству битов. [19]

См. Также [ править ]

  • Байт
  • Целое число (информатика)
  • Примитивный тип данных
  • Трит (тройная цифра)
  • Кубит (квантовый бит)
  • Bitstream
  • Энтропия (теория информации)
  • Скорость передачи (бит в секунду)
  • Двоичная система счисления
  • Троичная система счисления
  • Шеннон (единица)

Ссылки [ править ]

  1. ^ Маккензи, Чарльз Э. (1980). Наборы кодированных символов, история и развитие . Серия системного программирования (1-е изд.). Эддисон-Уэсли Паблишинг Компани, Инк. Стр. Икс. ISBN 978-0-201-14460-4. LCCN  77-90165 . Архивировано 18 ноября 2016 года . Проверено 22 мая 2016 . [1]
  2. ^ Андерсон, Джон Б.; Джоннессон, Рольф (2006), Понимание передачи информации
  3. ^ Хайкин, Саймон (2006), Цифровые коммуникации
  4. ^ IEEE Std 260.1-2004
  5. ^ «Единицы: B» . Архивировано 4 мая 2016 года.
  6. ^ а б Абрамсон, Норман (1963). Теория информации и кодирование . Макгроу-Хилл .
  7. ^ a b Шеннон, Клод Элвуд (июль 1948 г.). «Математическая теория коммуникации» (PDF) . Технический журнал Bell System . 27 (3): 379–423. DOI : 10.1002 / j.1538-7305.1948.tb01338.x . hdl : 11858 / 00-001M-0000-002C-4314-2 . Архивировано из оригинального (PDF) 15 июля 1998 года. Выбор логарифмического основания соответствует выбору единицы измерения информации. Если используется основание 2, результирующие единицы могут называться двоичными цифрами или, более коротко, битами , словом, предложенным Дж . В. Тьюки .
  8. ^ Шеннон, Клод Элвуд (октябрь 1948 г.). «Математическая теория коммуникации». Технический журнал Bell System . 27 (4): 623–666. DOI : 10.1002 / j.1538-7305.1948.tb00917.x . hdl : 11858 / 00-001M-0000-002C-4314-2 .
  9. ^ Шеннон, Клод Элвуд ; Уивер, Уоррен (1949). Математическая теория коммуникации (PDF) . Университет Иллинойса Press . ISBN  0-252-72548-4. Архивировано из оригинального (PDF) 15 июля 1998 года.
  10. ^ Буш, Ванневар (1936). «Инструментальный анализ» . Бюллетень Американского математического общества . 42 (10): 649–669. DOI : 10.1090 / S0002-9904-1936-06390-1 . Архивировано 06.10.2014.
  11. ^ Национальный институт стандартов и технологий (2008), Руководство по использованию международной системы единиц . Онлайн-версия. Архивировано 3 июня 2016 года в Wayback Machine.
  12. ^ Бемер, Роберт Уильям (2008-08-08). "Почему байт 8 бит? Или нет?" . Виньетки по компьютерной истории . Архивировано из оригинала на 2017-04-03 . Проверено 3 апреля 2017 . [...] С IBM «s STRETCH компьютер в качестве фона, обработка 64-символьные слова делятся на группы по 8 (я разработал набор символов для него, под руководством д - ра Вернера Бухгольца , человек , который СДЕЛАЛ монету термина„ байты “ для 8-битной группировки). […] IBM 360используются 8-битные символы, но не ASCII напрямую. Таким образом, «байт» Бухгольца прижился повсюду. Мне самому это имя не понравилось по многим причинам. […]
  13. ^ Бухгольц, Вернер (1956-06-11). «7. Матрица сдвига» (PDF) . Система ссылок . IBM . С. 5–6. Информационная записка № 39G. Архивировано (PDF) из оригинала 04.04.2017 . Проверено 4 апреля 2016 . […] Самым важным с точки зрения редактирования будет возможность обрабатывать любые символы или цифры длиной от 1 до 6 бит […] Матрица сдвига, которая будет использоваться для преобразования 60-битного слова , поступающего из Память параллельно, в символы или « байты », как мы их называли, для отправки в сумматор серийно. 60 бит загружаются в магнитные сердечники на шести различных уровнях. Таким образом, если 1 выходит из позиции 9, она появляется во всех шести ядрах внизу. […] Сумматор может принимать все или только некоторые биты. […] Предположим, что желательно работать с 4-х битными десятичными цифрами , начиная с правого. 0-диагональ пульсирует первой, отправляя шесть битов от 0 до 5, из которых сумматор принимает только первые четыре (0–3). Биты 4 и 5 игнорируются. Далее импульсная 4-я диагональ. Это отправляет биты с 4 по 9, из которых два последних снова игнорируются, и так далее. […] Так же просто использовать все шесть битов в алфавитно-цифровой работе, или обрабатывать байты только одного бита для логического анализа, или смещать байты на любое количество битов. […]
  14. Бухгольц, Вернер (февраль 1977 г.). «Слово« Байт »достигает зрелости ...» Журнал Byte . 2 (2): 144. […] Первая ссылка, найденная в файлах, содержалась во внутренней записке, написанной в июне 1956 года на заре разработки Stretch . байт был описан как состоящий из любого количества параллельных битов от одного до шести. Таким образом, предполагалось, что длина байта соответствует случаю. Его первое использование было в контексте оборудования ввода-вывода 1950-х годов, которое обрабатывало шесть бит за раз. Возможность перехода на 8-битные байты рассматривалась в августе 1956 года и вскоре после этого была включена в конструкцию Stretch. Первое опубликованное упоминание этого термина произошло в 1959 году в статье Дж. А. Блаау , Ф. П. Брукса-младшего и У. Буххольца «Обработка данных в битах и ​​кусках» в IRE Transactions on Electronic Computers , июнь 1959, стр. 121. Понятия в этой статье были разработаны в главе 4 Планирования компьютерной системы (Project Stretch), отредактированный В. Бухгольцем, McGraw-Hill Book Company (1962). Обоснование введения этого термина было объяснено там на странице 40 следующим образом:
    Байт обозначает группу битов, используемых для кодирования символа, или количество битов, передаваемых параллельно в блоки ввода-вывода и из них. Здесь используется термин, отличный от символа , потому что данный символ может быть представлен в разных приложениях более чем одним кодом, а разные коды могут использовать разное количество битов (т. Е. Разные размеры байтов). При передаче ввода-вывода группировка битов может быть совершенно произвольной и не иметь отношения к реальным символам. (Термин придуман от укуса , но respelled , чтобы избежать случайной мутации в бит .)
    System / 360перенял многие концепции Stretch, включая базовые размеры байтов и слов, которые являются степенями 2. Однако для экономии размер байта был зафиксирован на максимальном уровне 8 бит, а адресация на уровне битов была заменена байтовой адресацией. […]
  15. ^ Блаау, Геррит Энн ; Брукс-младший, Фредерик Филлипс ; Бухгольц, Вернер (1962), «Глава 4: Единицы естественных данных» (PDF) , в Бухгольце, Вернер (ред.), Планирование компьютерной системы - Project Stretch , McGraw-Hill Book Company, Inc. / The Maple Press Company, York, PA., Стр. 39–40, LCCN  61-10466 , заархивировано из оригинала (PDF) 3 апреля 2017 г. , получено 3 апреля 2017 г.
  16. ^ Бемер, Роберт Уильям (1959). «Предложение по обобщенному карточному коду на 256 знаков». Коммуникации ACM . 2 (9): 19–23. DOI : 10.1145 / 368424.368435 . S2CID 36115735 . 
  17. ^ a b Информация в маленьких битах « Информация в маленьких битах» - это книга, выпущенная в рамках некоммерческого информационного проекта IEEE Information Theory Society. Книга знакомит детей от 8 лет и старше с Клода Шенноном и базовыми концепциями теории информации с использованием связанных с ними мультфильмов и заданий по решению проблем.
  18. ^ «Мировые технологические возможности для хранения, передачи и вычисления информации». Архивировано 27июля2013 г. в Wayback Machine , особенно в поддержку онлайн-материалов. Архивировано 31 мая 2011 г.в Wayback Machine , Мартин Хильберт и Присцила Лопес (2011), Science , 332 (6025), 60–65; бесплатный доступ к статье здесь: martinhilbert.net/WorldInfoCapacity.html
  19. Бхаттачарья, Амитабха (2005). Цифровая связь . Тата Макгроу-Хилл Образование . ISBN 978-0-07059117-2. Архивировано 27 марта 2017 года.

Внешние ссылки [ править ]

  • Битовый калькулятор - инструмент, обеспечивающий преобразование между битами, байтами, килобитами, килобайтами, мегабитами, мегабайтами, гигабитами, гигабайтами.
  • BitXByteConverter - инструмент для вычисления размеров файлов, емкости хранилища и цифровой информации в различных единицах