Definición de BIT (Binario)



El bit es la unidad mínima del código binario usado por los ordenadores para almacenar información. El código binario es el lenguaje usado por los ordenadores, y consiste de largas sucesiones de bits, pudiendo tener cada bit dos posibles valores, 0 y 1, de ahí el nombre de sistema binario . En realidad el código binario sigue las mismas pautas que nuestro código decimal, pero en vez de tener 10 posibles valores para cada posición, solo tiene dos. Con algo de paciencia incluso podemos convertir en binario cualquier número que deseemos. Asi, por ejemplo, en números, la correspondencia sería:

0 -> 00

1 -> 01

2 -> 10

3 -> 11

4 -> 100

5 -> 101

10 -> 1010

100 -> 1100100 ...etc

 

Como vemos, el funcionamiento es el mismo que con nuestro sistema decimal, en cuanto se completa un número, se le añade otro y se empieza de cero a cubrir las posibles variantes, siguiendo un orden perfectamente lógico.Evidentemente para representar números elevados o múltiples variables vamos a necesitar muchos más bits que letras del alfabeto o que números decimales, pero eso para CPUs capaces de realizar millones de operaciones por segundo no suele resultar un gran problema.

Usando 2 bits podemos representar cuatro valores, usando 3  podríamos representar 8, y con 4 un total de 16, siguiendo la progresión de 2^x (siendo x el número de bits). Si a cada combinación de bits le asignamos un valor, podríamos por ejemplo, representar con un solo bit si una persona es hombre o mujer, o con dos si tiene los ojos azules, verdes, marrones o grises. Por ejemplo, si usamos un programa gráfico que trabaja en 8 bits, sabemos que 2^8 = 256, osea que realmente estaremos trabajando con un programa que admite tan sólo 256 colores. En los antiguos ordenadores personales de principios de los 80, los sistemas operativos trabajaban en 8 bits, lo que permitía expresar todas las letras del alfabeto y números con esos 8 bits.  Así, cualquier programa podía asignarle valores a esas 256 combinaciones y trabajar en esos 8 bits.  Al conjunto de esos 8 bits, se le llamó Byte y era la unidad básica de información, puesto que un byte contenía la información que identificaba un caracter, un número, un color... Con el tiempo han salido ya máquinas capaces de trabajar en 16, 32 y 64 bits, que naturalmente ofrecen un mayor rango de posibilidades y de valores.

El nombre de bit se le atribuye a un estudiante en su tesis doctoral, y provendría del inglés Binary Digit, siendo un término tan antiguo como los primeros ordenadores. Sin embargo, historia aparte, el interés del bit se centra en que es capaz de almacenar información que luego puede ser interpretada por un ingenio mecánico o electrónico, algo sin duda de enorme interés.Ya dijimos que un bit puede valer 0 o 1, pero también se dice que un bit puede estar apagado o encendido,  activo o inactivo... etc. Esto se debe a que aunque lo que representa una serie de bits no varía, si puede variar el método de almacenamiento. Antiguamente, en los primeros ordenadores, se usaban transistores, interruptores de dos posiciones, tubos de vacío y un sinfín de ingenios hasta la llegada del microchip. También se puede almacenar información magnéticamente, mediante acción de la luz y en los últimos años incluso se esta usando experimentalmente la nanobiotecnología. Sea como sea, cualquier dispositivo de almacenamiento de memoria electrónico o informático funcionará a base de bits.


>> Siguiente >>



Te gustó esta info? Colabora con un "me gusta"