Quién diría que una idea tan simple supondría una revolución de implicaciones aún en constante desarrollo. Quién diría que un planteamiento tan maniqueo como sí o no, blanco o negro, verdad o mentira acabaría siendo el fundamento de la comunicación del futuro. Así es el átomo de la información. El bit.
En 1948, Bell Laboratories anunció la creación del bit, una unidad para medir la información. Su inventor tenía 32 años y se llamaba Claude Shannon, un tipo de biografía fascinante que algún día espero explicaros en profundidad. La idea de Shannon era contrauitiva y revolucionaria: según él, los mensajes no siempre tienen sentido, y que lo tengan o no son “aspectos semánticos de la comunicación… irrelevantes para el problema de ingeniería”.
Gracias a Shannon, pues, el bit (acrónimo que significa “dígito binario“) es la unidad más pequeña posible de información en la informática digital. En informática la menor unidad indivisible posible es un simple pulso eléctrico, que puede representar un 1 o un 0. Mientras que en el sistema de numeración decimal se usan diez dígitos, en el binario se usan sólo dos dígitos. Todos los datos que se almacenan en un ordenador está compuesta de números binarios. El origen del término “dígito binario” se atribuye a John Tukey, un científico que trabajaba en los Laboratorios Bell, y los usó por primera vez en 1947.
El bit es una partícula fundamental de una especie diversa: no sólo es diminuto, sino también abstracto: un dígito binario. Tendiendo puentes entre la física del siglo XX y la del siglo XXI, John Archibald Wheeler, el último colaborador que quedaba de Einstein y Bohr (falleció en 2008), dijo “It from Bit”, es decir, que de los bits, de la información, “sale cada “eso”, cada partícula, cada campo de fuerza” que pueda existir en el mundo.