Vistas de página en total

viernes, 4 de noviembre de 2016

Unidades de medida de información

El bit

Bit es el acrónimo de BInary digiT (dígito binario). El bit es un dígito del sistema de numeración binario y, por tanto, puede representar uno de los dos valores, 0 ó 1, que este sistema utiliza. Podemos imaginarnos a un bit como un bombilla que puede estar en uno de dos estados, apagado o encendido.
El bit es la unidad mínima de información empleada en informática o en cualquier dispositivo digital. Con él, podemos representar dos valores cualquiera, como: verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, amarillo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado", y el otro al estado de "encendido".
En un ordenador, estos dos estados de "apagado" y "encendido" están representados por la presencia o la ausencia de corriente eléctrica. Por ejemplo, el dígito binario 0 puede estar representado por 0 voltios de electricidad mientras que el dígito binario 1 puede estar representado por 5 voltios de electricidad.

El byte y sus múltiplos

Con un bit podemos representar solamente dos valores. Para representar, o codificar, más información en un dispositivo digital, necesitamos una mayor cantidad de bits. Si usamos dos bits, tendremos cuatro combinaciones posibles:
  • Los dos están "apagados".
  • El primero está "encendido" y el segundo "apagado".
  • El primero está "apagado" y el segundo "encendido".
  • Los dos están "encendidos".
Con estas cuatro combinaciones podemos representar hasta cuatro valores diferentes. Podríamos, por ejemplo, representar los colores rojo, verde, azul y negro. Cuando se reúnen ocho, se forma lo que se denomina byte, que en español se traduce por octeto (aunque nosotros usaremos la acepción inglesa). Un byte puede tomar 28 valores (es decir, 256 valores).
Como la base de los cálculos en informática es el bit, y éste solo admite 2 valores, muchas de las medidas en informática se realizan con números que son potencias exactas de 2. Así, el prefijo kilo significa comúnmente mil, pero cuando hablamos de datos informáticos significa 1024 (210, que es la potencia de 2 más cercana al millar). Por tanto, un kilobyte son 1024 bytes y se representa como KB (¡ambas letras en mayúsculas!).
De la misma manera, el prefijo mega significa comúnmente un millón, pero en informática es 1048576 (220, que es la potencia de 2 más cercana al millón). Así, un megabyte equivale a 1024 kilobytes y se representa por MB (¡ambas letras en mayúsculas!).
1024 MB constituyen un gigabyte, ya que el prefijo giga significa mil millones. El gigabyte se representa como GB. Siguiendo el mismo patrón, los siguientes múltiplos son el terabyte o TB (1024 GB), el petabyte o PB (1024 TB) y el exabyte o EB (1024 PB).