Historia de la computación en el siglo XX, resumen; si, seguimos con la informática, las computadoras, ese mundillo que catapultó nuestra forma de hacer las cosas hacia niveles nunca ante imaginado, esos juguetitos que han ido cambiando y adaptándose a un ritmo feroz, implacable.
Para quienes han leído mis post previos esta transición es bastante sencilla, para quienes no, intentaré empalmar el material con otros post previos y “futuros” (cronológicamente correspondientes a otra era), tratando de hacer fluida y sencilla esta narración. No olvidar leer el relato anterior: Historia de la computación en el siglo XIX . Y empieza nuestra línea de tiempo.
Tabla de Contenidos
1900-1920
- Solo en 1904-1906 se inicia lo que hemos dado en llamar electrónica (que mucho tiene que ver con el desarrollo de nuestros sistemas computacionales), cuando el científico británico John Fleming descubrió que un tubo al vacío con dos electrodos, uno de ellos calentado, pasaba la corriente en una sola dirección (diodo).
- Lee De Forest, en 1906 añade un tercer electrodo al diodo de Fleming. Al hacer variar su voltaje, podía controlar la corriente de los otros dos. Él no tuvo reparos en llamar a su descubrimiento Audión, aunque nosotros lo conozcamos actualmente como triodo. Inicialmente se usaba para detectar las ondas de radio pero luego se uso también para generarlas y ampliarlas.
- También fue ese año que se pudo obtener la primera voz humana por radio. El ingeniero canadiense Reginald Fessenden inventó un generador eléctrico que funcionaba con una frecuencia 1.000 veces mayor que una toma de corriente normal, creando ondas de radio continuas que podrían transportar el sonido. Su primera transmisión, en vísperas de Navidad de 1906, fue un programa de conversación y música.
- 1911. De la fusión de la Tabulating Machines Company de Hollerit , Computing Scale Corporation e International Time Recording Company, surge al mercado la empresa Computing Tabulating Recording Corporation (CTR).
- 1915. David Sarnoff propuso una “caja radial”.
- 1919 William Henry Eccles y F. W. Jordan desarrollan el primer diseño de circuitos flip-flop.
- 1920. Empieza formalmente la radiodifusión, de la mano del desarrollo de la electrónica que permitía construir grandes transmisores. En Inglaterra el servicio constante lo inicia Guglielmo Marconi, en febrero de 1920. En noviembre de ese mismo año había ya una emisora constante en Filadelfia, la KDK. En el caso de la emisora de Marconi, pronto fueron prohibidas sus emisiones. Solo hasta febrero 1922 se les permite de nuevo transmitir durante 15 minutos a la semana.
1923-1944
- 1923. John Logie Baird empieza a experimentar con televisión mecánica.
- 1924. T. J. Watson renombra la empresa CTR, llamándola International Business Machines Corporation (IBM). Walther Bothe construye la primera puerta lógica AND (circuito de coincidencia)
- 1926. Philo T. Farnsworth trabajaba en su “disector de imágenes” electrónico.
- 1928 IBM estandariza el uso de las tarjetas perforadas de 80 columnas de datos y agujeros rectangulares.
- 1930 Vannevar Bush construyó una máquina electrónica diferencial capaz de resolver ecuaciones diferenciales.
- 1931 Los fundamentos matemáticos de la informática moderna comienzan a ser establecidos por Kurt Gödel con su teorema de incompletitud. Este teorema demostró que había limites a lo que podía ser probado y refutado dentro de un sistema formal.
- 1934. El ingeniero Edwin Armstrong demuestra la existencia de la frecuencia modulada (FM), que resiste a la interferencia característica de la Amplitud Modulada (AM). También ese año Philo T. Farnsworth da la primera demostración de su televisor electrónico.
- 1935: IBM desarrolla el “IBM 601” y la “máquina de escribir electrónica”.
- 1936-37: Alan M. Turing presente la “Máquina de Turing” capaz de resolver todo tipo de problemas con solución algorítmica, es decir, diseñadas para determinar formalmente, matemáticamente, lo que puede ser calculado, teniendo en cuenta las limitaciones en la capacidad de computación.
- 1938. William Hewlett y David Packard fundan Hewlett Packard con una inversión inicial de 538 dólares. También ese año el físico Chester Carlson buscando hacer más fácil el trabajo de oficina produce su primera serigrafía o copia xerigráfica, usando una placa de zinc recubierta con sulfuro.
- El ingeniero Claude Shannon desarrolla la “Teoría matemática de las comunicaciones” en la que por primera vez aparecen medidas de la cantidad de información: bit (Binary Digit). Era capaz de sumar dos números en menos de 1 seg. y de multiplicarlos en 2 seg. Konrad Zuse inventa la “V1”, posteriormente conocida como “Z1”. Se trataba de una calculadora programable en sistema binario.
- 1939-1944: Howard H. Aiken (1900- 1973) desarrolló la idea de Babbage en colaboración con técnicos de IBM. El resultado de sus investigaciones dio lugar al “ASCC” (Automatic Sequence Controlled Calculator) conocida como “Harvard Mark 1”.
1940-1971
Grandes desarrollos y logros en la Informática se dieron en este periodo y en nuestro caso fueron resumidos en estas otras urls que relacionamos a continuación.
1972-1999
Las Figuras Clave de la Computación en el Siglo XX 👤
A continuación, te presento las figuras clave que, con sus mentes visionarias y descubrimientos, dieron forma a la historia de la computación en el siglo XX.
Los Pioneros del Concepto 🧠
- Alan Turing: Este matemático y criptógrafo es considerado el padre de la informática teórica y la inteligencia artificial. En 1936, presentó el concepto de la Máquina de Turing, un modelo teórico de computadora que podía resolver cualquier problema matemático y sentó las bases para el concepto de un ordenador programable. Durante la Segunda Guerra Mundial, su trabajo en el descifrado del código Enigma fue fundamental para el triunfo de los Aliados.
- John von Neumann: Este físico y matemático es reconocido por ser el arquitecto de la arquitectura de Von Neumann, un diseño de computadora que se convirtió en el estándar de casi todos los ordenadores modernos. Su arquitectura, que separa la memoria del procesador y utiliza una memoria para almacenar tanto datos como instrucciones, sigue siendo la base de la mayoría de los sistemas actuales.
Los Héroes de Hardware y Software 🛠️
- Grace Hopper: Fue una de las primeras programadoras del Mark I y una pionera en el desarrollo de lenguajes de programación. Creó el primer compilador y fue una figura central en la creación de COBOL, uno de los primeros lenguajes de programación de alto nivel que se sigue utilizando hoy en día. A ella se le atribuye la popularización del término “bug” para describir un error en el software.
- Jack Kilby y Robert Noyce: Estos dos ingenieros, trabajando de forma independiente, inventaron el circuito integrado (microchip) en 1958. Su invención, que permitía colocar múltiples componentes electrónicos en un solo chip de silicio, fue el hito tecnológico que hizo posible la miniaturización de las computadoras, abriendo el camino para los ordenadores personales.
Los Visionarios del PC y el Software 🖥️
- Steve Jobs y Steve Wozniak: Cofundadores de Apple, fueron figuras clave en la popularización del ordenador personal. Wozniak se encargó del diseño del Apple I y el Apple II, mientras que Jobs tuvo la visión de llevar la computación a los hogares, convirtiéndola en una herramienta accesible y atractiva para el público general.
- Bill Gates y Paul Allen: Fundadores de Microsoft, desempeñaron un papel fundamental en la revolución del software. Con la creación del sistema operativo MS-DOS para IBM, y posteriormente con Windows, Gates puso la interfaz gráfica de usuario al alcance de millones de personas en todo el mundo, estableciendo el estándar para el software de PC.
Hitos Tecnológicos Clave y Su Impacto Revolucionario
A continuación, se presentan los hitos tecnológicos clave que revolucionaron la computación en el siglo XX, y su impacto en el desarrollo de la informática:
El Tubo de Vacío y los Primeros Gigantes 🤖
- ¿Qué es? Los tubos de vacío (o válvulas termoiónicas) fueron los componentes electrónicos que se usaron en las primeras computadoras. Actuaban como interruptores y amplificadores de señales electrónicas.
- Impacto: Con ellos fue posible construir las primeras computadoras programables a gran escala, como el ENIAC (1946). Sin embargo, eran enormes, consumían muchísima energía y generaban una cantidad considerable de calor. Eran frágiles y se quemaban con frecuencia, lo que hacía que las computadoras fueran difíciles de mantener. Un ENIAC pesaba más de 27 toneladas y ocupaba una habitación entera.
La invención del Transistor (1947) 💡
- ¿Qué es? Un transistor es un pequeño componente semiconductor que puede actuar como interruptor o amplificador de señales electrónicas. Fue inventado por John Bardeen, Walter Brattain y William Shockley en los Laboratorios Bell.
- Impacto: Esta invención fue la que verdaderamente transformó la computación. Los transistores eran mucho más pequeños, más fiables, consumían menos energía y generaban menos calor que los tubos de vacío. Reemplazaron a las válvulas en las computadoras, haciendo posible la creación de equipos más compactos y eficientes.
El Circuito Integrado (1958) ⚙️
- ¿Qué es? Conocido popularmente como microchip, el circuito integrado es una pequeña placa de silicio que contiene miles o millones de transistores y otros componentes electrónicos. Fue inventado por Jack Kilby y Robert Noyce, de forma independiente.
- Impacto: La invención del circuito integrado permitió la miniaturización masiva de la electrónica. En lugar de soldar cada transistor por separado, se podían integrar todos en un solo chip. Este avance fue el precursor de la Ley de Moore, que predice que el número de transistores en un chip se duplica aproximadamente cada dos años. Sin el microchip, no existirían los ordenadores personales, los smartphones ni la mayoría de la tecnología que usamos hoy en día.
El Microprocesador (1971) 🧠
- ¿Qué es? El microprocesador es un circuito integrado que contiene la unidad central de procesamiento (CPU) de un ordenador. Es, en esencia, un “ordenador en un chip”. El primer microprocesador fue el Intel 4004.
- Impacto: El microprocesador hizo posible construir computadoras más pequeñas, más baratas y más poderosas, lo que llevó directamente a la invención del ordenador personal (PC) en la década de 1970. Al integrar todas las funciones clave en un solo chip, la complejidad y el coste de fabricar ordenadores se redujeron drásticamente, lo que permitió que la computación llegara a los hogares y las oficinas de todo el mundo.
Preguntas y Respuestas (FAQs)
¿Cuál es la diferencia entre una calculadora y una computadora?
Una calculadora realiza operaciones matemáticas predefinidas y no es programable para ejecutar tareas complejas. Una computadora, en cambio, es una máquina programable que puede almacenar y ejecutar una secuencia de instrucciones para realizar una amplia gama de tareas, desde cálculos matemáticos hasta procesamiento de texto y gráficos.
¿Quién inventó el término “bug” en la computación?
El término “bug” (error en el programa) se atribuye a la ingeniera y pionera de la computación Grace Hopper. En 1947, mientras trabajaba en el ordenador Mark II, su equipo encontró una polilla (bug en inglés) atrapada en un relé, lo que causaba un mal funcionamiento. El equipo pegó la polilla en su cuaderno de bitácora y desde entonces el término se popularizó para referirse a los errores de software.
¿Qué es la Ley de Moore y por qué es importante?
La Ley de Moore, formulada por Gordon Moore, cofundador de Intel, predice que el número de transistores en un microchip se duplica aproximadamente cada dos años. Esta observación ha impulsado el crecimiento exponencial de la industria de la computación, haciendo que los ordenadores sean cada vez más pequeños, rápidos y baratos.
¿Por qué el ordenador personal (PC) fue tan revolucionario?
El ordenador personal democratizó el acceso a la tecnología. Antes del PC, las computadoras eran máquinas gigantes y costosas, accesibles solo para gobiernos o grandes corporaciones. El PC puso el poder de la computación en manos de la gente común, lo que impulsó la innovación en software y el uso de la tecnología en todos los aspectos de la vida diaria, desde la educación hasta el entretenimiento.
Otros recursos relacionados en nuestro blog de ciencias de la computación para entender la historia de la informática: ¿Cuáles son las 5 generaciones de computadoras o tecnología informática?
- Infraestructura Tecnológica vs Infraestructura TI: Diferencias Clave y Cuál Elegir - April 15, 2026
- Significado de análisis descriptivo ejemplos (3) - April 14, 2026
- El Poder Heurístico Detrás De Un Consultor SEO Con Mentalidad Analítica - April 14, 2026
Discover more from Consultoría de Marketing Digital Estratégico | Pcweb.info
Subscribe to get the latest posts sent to your email.
