Abbreviazione di “binary digit”, ossia “cifra binaria”. È l’unità di misura più piccola dei dati di un computer e può assumere solo due valori: 0 o 1.
Il termine “bit” è una parola che deriva da “binary” (binario) e “digit” (cifra), introdotto nel 1948 da Claude Shannon come parte della teoria dell’informazione, il concetto di bit è fondamentale per la rappresentazione, la trasmissione e la memorizzazione delle informazioni nei sistemi digitali.
La velocità di trasmissione delle informazioni è misurata in bit per secondo (bps), indicando il numero di bit trasmessi per unità di tempo.
Sebbene colloquialmente il termine venga usato come sinonimo di cifra binaria, formalmente la cifra binaria è un concetto distinto che codifica esattamente 1 bit di informazione. Alcuni termini alternativi proposti come “Binit” e “Bigit” non hanno mai preso piede e il termine “bit” è rimasto quello standard.