Bit

“Un bit no tiene color, tamaño ni peso y viaja a la velocidad de la luz. Es el elemento más pequeño en el ADN de la información. Es un estado de ser: activo o inactivo, verdadero o falso, arriba o abajo, dentro o fuera, negro o blanco. Por razones prácticas consideramos que un bit es un 1 o un 0.[1] El significado del 1 o el 0 es una cuestión aparte. En los albores de la informática, una cadena de bits representaba por lo general información numérica.
[ad#ad-1]
Bit es una contracción de la expresión inglesa, binary digit, que es la capacidad básica de información en ciencias de la computación y las telecomunicaciones.
Cuente mentalmente, pero sólo aquellos números formados exclusivamente por el 1 y el 0. El resultado será: 1, 10, 11, 100, 101, 110, 111, etc. Éstas son las representaciones binarias respectivas de los números 1, 2, 3, 4, 5, 6, 7, etc.[2]
Los bits han sido siempre el elemento básico de la computación digital, pero durante los últimos veinticinco años hemos ampliado enormemente nuestro vocabulario binario hasta incluir mucho más que sólo números. Hemos conseguido digitalizar cada vez más tipos de información, auditiva y visual, por ejemplo, reduciéndolos de igual manera a unos y ceros.
Digitalizar una señal es tomar muestras de ella de modo que, poco espaciadas, puedan utilizarse para producir una réplica aparentemente perfecta. En un CD de audio, por ejemplo, el sonido se ha sometido a muestreo 44,1 mil veces por segundo. La forma de onda de audio (nivel de presión de sonido medido como voltaje) se graba como números discretos (que, a su vez, se convierten en bits).
Estas cadenas de bits, cuando se reproducen 44,1 mil veces por segundo, nos proporcionan una versión en sonido continuo de la música original. Las medidas sucesivas y discretas están tan poco espaciadas en el tiempo que no las oímos como una sucesión de sonidos separados, sino como un tono continuo.
Lo mismo puede aplicarse a una fotografía en blanco y negro. Imaginemos una cámara electrónica que extiende una fina trama sobre una imagen y luego graba la gradación de gris que capta en cada célula. Si le damos al negro un valor 0 y al blanco un valor de 255, los distintos matices del gris se situarán entre estos dos valores. Una cadena de 8 bits (llamada byte) tiene 256 permutaciones de unos y ceros, empezando por 00000000 y terminando con 11111111. Con gradaciones tan sutiles y una trama tan fina, la fotografía se puede reconstruir perfectamente.
Tan pronto como se usa una plantilla más gruesa o una escala insuficiente de grises, uno empieza a ver intervenciones artificiales digitales, como contornos y volúmenes.
La aparición de la continuidad a partir de pixels individuales es análoga a un fenómeno similar que se produce a escala mucho más sutil en el conocido mundo de la materia. Ésta está hecha de átomos. Si observáramos una superficie de metal muy pulida a una escala subatómica, veríamos sobre todo agujeros, aunque a simple vista aparece lisa y sólida porque las piezas discretas son muy pequeñas.
Lo mismo sucede con la representación digital.
Pero el mundo, tal como lo percibimos, es un lugar muy analógico. Desde un punto de vista macroscópico, no es digital en absoluto sino continuo. Nada resulta, de pronto, activo o inactivo, o pasa de negro a blanco, ni cambia de un estado a otro sin transición. Esto tal vez no ocurra a nivel microscópico, donde las cosas con las que interactuamos (electrones en un cable o fotones en nuestro ojo) son discretas, pero son tantas que parecen continuas.
La digitalización presenta muchas ventajas. Las más evidentes son la compresión de datos y la corrección de errores, ambas importantes en la distribución de información a través de un canal costoso o ruidoso. Los emisores ahorran dinero y los receptores reciben una imagen y un sonido con calidad de estudio. No obstante, las consecuencias de la digitalización son aún mucho más importantes.
Cuando usamos bits para describir sonido e imagen, existe una ventaja natural en usar tan pocos bits como sea posible. Hay una cierta analogía con la conservación de la energía. Sin embargo, el número de bits que se emplean por segundo o por centímetro cuadrado está directamente relacionado con la fidelidad de la música o la imagen. Normalmente, interesa digitalizar con una resolución muy alta y luego usar una versión de menos resolución de sonido o imagen para una u otra aplicación. Por ejemplo, una imagen en color se puede digitalizar con una resolución muy alta para imprimir la copia final pero para un sistema de compaginación de originales por ordenador no será necesario disponer de toda la capacidad de resolución. La economía de bits la determinan en parte las restricciones del medio en que se almacena la imagen o el sonido o el medio por el cual se difunde.
El número de bits que se transmiten por segundo a través de un canal determinado (como hilo de cobre, espectro de radio o fibra óptica) es el ancho de banda de este canal. Es la medida del número de bits que pueden desplazarse por una tubería. Ese número o capacidad tiene que igualarse cuidadosamente con el número de bits que se necesitan para reproducir un tipo determinado de datos (voz, música, vídeo): 64.000 bits por segundo es más que suficiente para reproducir una voz de alta calidad; 1,2 millones de bits por segundo es óptimo para escuchar música en alta fidelidad, y 45 millones de bits por segundo es ideal para reproducir imágenes.
Sin embargo, durante los últimos quince años hemos aprendido a comprimir la forma digital pura de sonido e imagen por medio del análisis de los bits en tiempo, espacio o ambos, y eliminar redundancias intrínsecas y repeticiones. De hecho, una de las razones por las que todos los media se han digitalizado tan rápido es porque se están alcanzando niveles muy altos de compresión mucho antes de lo que se predijo. En 1993, algunos europeos sostenían que habría que esperar al próximo milenio para que el vídeo digital se hiciera realidad.
[ad#ad-1]
Hace cinco años, la mayoría de la gente no creía que se pudieran reducir los 45 millones de bits por segundo del vídeo digital puro a 1,2 millones de bits por segundo. Sin embargo, en 1995 se pueden comprimir y descomprimir, codificar y decodificar imágenes a esta escala, a bajo coste y con alta calidad. Es como si de pronto fuéramos capaces de hacer cubitos de café Express y, al añadir agua, éste apareciera ante nosotros tan rico y aromático como si estuviera hecho en una cafetería italiana.”[3]

[1] Nota personal: El término bit es lo que comúnmente se llama un acrónimo, una palabra resultante de juntar otras; viene de almagamar los términos en inglés “Binary digit”. Los dígitos binarios vienen necesariamente a colación, puesto que es un sistema numérico de base 2 (sistema numérico de posición), donde todas las expresiones se reducen a dos dígitos, el 1 y el 0. en sus comienzos tal vez esta representación haya tenido repercusiones esotéricas, como que el número 1 representara al Creador y la creación y que el 0 a su vez fuera lo contrario. Pero a efectos prácticos simplificaba cálculos y era sencillo de usar sobre todo para los computadores. Internamente, en la memoria del computador, la información puede ocupar dos posiciones semejantes a un interruptor (llave, key) que puede dar On y Off, prendido y apagado (o también podríamos imaginarlo como una tabla de valor de la verdad donde solo pueden haber verdaderos o falsos, sí y no. El 1 representaría el On o encendido y el 0 el Off o apagado.
[2] Un bit de información serían entonces datos representados por un dígito binario. Si la información es numérica no sería difícil codificarla; no obstante para información alfanumérica (texto y demás) hemos de emplear entonces ciertos estándares o convenciones para representar estos caracteres: el código más famoso es el ASCII (American Standard Code for Information Interchange), pero también existe el EBCIC (Extended Binary Coded Decimal Interchange code). El primero corresponde a un código de 7 bits mientras que el segundo a un código de 8 bits.
[3] Tomado de: Negroponte Nicholas. El Mundo digital. Ediciones B. S. A., Barcelona 1995. Otra Bibliografía consultada:
Asimov Isaac. De los números y su historia. Ediciones Lidiun, Buenos Aires Argenina 1998.
TREMBLAY jean Paul &BUNT Richard B. Introducción a la ciencia de las computadoras. Enfoque algorítmico. McGraw-Hill de México. México 1988.
Post migrado de uno de mis blogs de blogger.

Ver: Bus, algoritmo

[ad#ad-1]

This post is also available in: Español