Historia del Cero, orígenes, evolución del concepto, ¿quién lo inventó?. En nuestro blog de computación e informática seguimos entregando material de referencia sobre este número, sobre todo por sus implicaciones con el desarrollo de las computadoras.
Aunque las personas siempre han entendido el concepto de nada o no tener nada, el concepto de cero es relativamente nuevo; se desarrolló completamente en la India alrededor del siglo V dC, tal vez un par de siglos antes.
Antes de eso, los matemáticos luchaban por realizar los cálculos aritméticos más simples. Hoy en día, el cero, tanto como un símbolo (o número) como un concepto que significa la ausencia de cualquier cantidad, nos permite realizar cálculos, realizar ecuaciones complicadas y haber inventado computadoras.
Comprender y trabajar con cero es la base de nuestro mundo actual; sin cero careceríamos de cálculo, contabilidad financiera, la capacidad de realizar cálculos aritméticos rápidamente y, especialmente en el mundo conectado de hoy, las computadoras.
La historia del cero es la historia de una idea que ha despertado la imaginación de grandes mentes en todo el mundo.
Cuando alguien piensa en cien, doscientos o siete mil, la imagen en su mente es de un dígito seguido de unos pocos ceros. El cero funciona como un marcador de posición; es decir, tres ceros denota que hay siete mil, en lugar de solo siete cientos.
Si nos faltara un cero, eso cambiaría drásticamente la cantidad. ¡Imagínese tener un cero borrado (o agregado) a su salario! Sin embargo, el sistema numérico que utilizamos hoy en día, el árabe, aunque en realidad proviene de la India, es relativamente nuevo. Durante siglos, las personas marcaron cantidades con una variedad de símbolos y figuras, aunque fue incómodo realizar los cálculos aritméticos más simples con estos sistemas numéricos.
Babilonia
Los sumerios fueron los primeros en desarrollar un sistema de conteo para llevar un registro de sus existencias de bienes: ganado, caballos y burros, por ejemplo. El sistema sumerio era posicional; es decir, la ubicación de un símbolo particular en relación con otros denota su valor.
El sistema sumerio (aparentemente con una antigüedad de 4.000 años aproximadamente) fue transferido a los acadios alrededor del 2500 aC y luego a los babilonios en el 2000 a.
Fueron los babilonios quienes primero concibieron una marca para indicar que un número estaba ausente en una columna; así como 0 en 1025 significa que no hay cientos en ese número. Aunque el antepasado babilónico de cero fue un buen comienzo, todavía faltaban siglos para que apareciera el símbolo tal como lo conocemos.
Más detalles sobre las matemáticas en Sumeria.
A mediados del segundo milenio antes de Cristo , los babilonios tenían un sofisticado sistema de numeración posicional sexagesimal (base 60). La falta de un valor posicional (o cero) se indicó mediante un espacio entre los números sexagesimales.
Para el 300 a. C. , se cooptó un símbolo de puntuación (dos cuñas inclinadas) como un marcador de posición en el mismo sistema babilónico. En una tableta desenterrada en Kish (que se remonta a unos 700 a. C. ), el escriba Bêl-bân-aplu escribió sus ceros con tres ganchos, en lugar de dos cuñas inclinadas.
El marcador de posición babilónico no era un verdadero cero porque no se usaba solo. Tampoco fue utilizado al final de un número. Así, números como 2 y 120 (2 × 60), 3 y 180 (3 × 60), 4 y 240 (4 × 60), etc. parecían iguales porque los números más grandes carecían de un marcador de posición sexagesimal final. Sólo el contexto podría diferenciarlos.
Antiguo Egipto
Los numerales egipcios antiguos eran base 10 . Usaron jeroglíficos para los dígitos y no eran posicionales . En 1770 aC, los egipcios tenían un símbolo de cero en los textos contables. El símbolo nfr, que significa hermoso, también se usó para indicar el nivel de base en los dibujos de tumbas y pirámides, y las distancias se midieron con respecto a la línea de base como si estuvieran arriba o debajo de esta línea.
América precolombina
El calendario de Cuenta Larga de Mesoamérica desarrollado en el centro-sur de México y Centroamérica requería el uso de cero como un lugar dentro de su sistema de numeración posicional vigesimal (base-20).
Dado que las ocho primeras fechas de Cuenta Larga aparecen fuera de la patria maya, en general, se cree que el uso del cero en las Américas era anterior a los mayas y posiblemente fue una invención de los olmecas .
Muchas de las fechas más tempranas de la Cuenta Larga se encontraron dentro del corazón olmeca, aunque la civilización Olmeca terminó en el siglo IV aC , varios siglos antes de las primeras fechas conocidas de la Cuenta Larga.
Aunque el cero se convirtió en una parte integral de los números mayas , con una ” forma de concha ” similar a una tortuga vacía, utilizada para muchas representaciones del número “cero”, se supone que no ha influido en los sistemas de numeración del Viejo Mundo .
Quipu, un dispositivo de cordón anudado, utilizado en el Imperio Inca y sus sociedades predecesoras en la región andina para registrar datos contables y otros datos digitales, está codificado en un sistema posicional de base diez . El cero se representa por la ausencia de un nudo en la posición apropiada.
Antigüedad clásica
Los matemáticos de renombre entre los antiguos griegos, que aprendieron los fundamentos de sus matemáticas de los egipcios, no tenían un nombre para cero, ni su sistema tenía un marcador de posición como lo hizo el babilonio.
Es posible que lo hayan considerado, pero no hay evidencia concluyente para decir que el símbolo existiera en su idioma. Fueron los indios los que empezaron a comprender el cero como símbolo y como idea.
Los antiguos griegos no tenían ningún símbolo para cero (μηδέν), y no usaron un marcador de posición de dígitos para ello. Parecían inseguros sobre el estado de cero como número. Se preguntaron: “¿Cómo puede ser que nada sea algo?”
Lo que condujo a argumentos filosóficos y, en el período medieval , a los argumentos religiosos sobre la naturaleza y existencia del cero y el vacío . Las paradojas de Zenón de Elea dependen en gran parte de la interpretación incierta de cero.
En el 130 dC, Ptolomeo , influenciado por Hiparco y los babilonios, estaba usando un símbolo de cero (un pequeño círculo con una barra larga) en su trabajo sobre astronomía matemática llamado Syntaxis Mathematica , también conocido como el Almagesto . La forma en que se usa se puede ver en su tabla de acordes en ese libro.
El cero de Ptolomeo se usó dentro de un sistema de numeración sexagesimal , de lo contrario se usaron números alfabéticos alfabéticos . Debido a que se usó solo, no solo como un marcador de posición, este cero helenístico fue quizás el uso más temprano documentado de un número que representa cero en el Viejo Mundo.
Sin embargo, las posiciones generalmente se limitaban a la parte fraccionaria de un número (llamadas minutos, segundos, tercios, cuartos, etc.); no se utilizaron para la parte integral de un número, lo que indica un concepto tal vez mejor expresado como “ninguno” , en lugar de “cero” en el sentido moderno.
En manuscritos bizantinos posteriores del Almagesto de Ptolomeo , el cero helenístico se había transformado en la letra griega omicron (que de otra manera significa 70).
Otro cero se usó en las tablas junto con los números romanos en 525 (primer uso conocido de Dionysius Exiguus ), pero como una palabra, nulla significa “nada”, no como un símbolo.
Cuando la división produjo cero como resto , se usó nihil , que también significa “nada”. Estos ceros medievales fueron utilizados por todas las futuras calculadoras medievales de la Pascua . La “N” inicial fue utilizada como un símbolo de cero en una tabla de números romanos por Bede o sus colegas alrededor del 725.
India, donde el cero se convirtió en número
Brahmagupta, alrededor del año 650 dC, fue el primero en formalizar las operaciones aritméticas utilizando cero. Usó puntos debajo de los números para indicar un cero.
Estos puntos se denominaron alternativamente “sunya”, que significa vacío, o “kha”, que significa lugar. Brahmagupta escribió reglas estándar para llegar a cero mediante la suma y la resta, así como los resultados de las operaciones con cero. El único error en sus reglas fue la división por cero, que tendría que esperar a que Isaac Newton y GW Leibniz lo abordaran.
Pero aún faltaban algunos siglos antes de que el cero llegara a Europa. Primero, los grandes viajeros árabes traían los textos de Brahmagupta y sus colegas de vuelta de la India junto con especias y otros artículos exóticos.
Reglas de Brahmagupta
Las reglas que gobiernan el uso del cero aparecieron por primera vez en el libro Brahmasputha Siddhanta escrito en 628 por Brahmagupta (598-670).
Aquí, Brahmagupta considera no solo los números negativos sino también los negativos, y las reglas algebraicas para las operaciones elementales de la aritmética con dichos números. En algunos casos, sus reglas difieren de la norma moderna. Las reglas de Brahamagupta se dan a continuación:
- La suma de dos cantidades positivas es positiva.
- La suma de dos cantidades negativas es negativa.
- La suma de cero y un número negativo es negativo.
- La suma de un número positivo y cero es positiva.
- La suma de cero y cero es cero.
- La suma de un positivo y un negativo es su diferencia; o, si son iguales, cero.
- En la resta, menos debe tomarse de lo mayor, positivo de positivo
- En la resta, lo menos se debe tomar de lo mayor, lo negativo de lo negativo
- Cuando el mayor, sin embargo, se resta del menor, la diferencia se invierte
- Cuando lo positivo se debe restar de lo negativo, y lo negativo de lo positivo, deben sumarse
- El producto de una cantidad negativa y una cantidad positiva es negativo.
- El producto de una cantidad negativa y una cantidad negativa es positivo.
- El producto de dos positivos, es positivo.
- Positivo dividido por positivo o negativo por negativo es positivo
- Positivo dividido por negativo es negativo. Negativo dividido por positivo es negativo
- Un número positivo o negativo cuando se divide por cero es una fracción con el cero como denominador
- El cero dividido por un número negativo o positivo es cero o se expresa como una fracción con cero como numerador y la cantidad finita como denominador
- Cero dividido por cero es cero. Al decir “cero dividido por cero es cero”, Brahmagupta difiere de la posición moderna. Los matemáticos normalmente no asignan un valor, mientras que las computadoras y las calculadoras a veces asignan NaN, lo que significa “no un número”. Además, a los números positivos o negativos que no son cero cuando se dividen por cero no se les asigna ningún valor, o un valor de infinito sin signo, infinito positivo o infinito negativo. Una vez más, estas asignaciones no son números, y se asocian más a la informática que a las matemáticas puras, donde en la mayoría de los contextos no se realizan asignaciones.
Mundo árabe
El Cero llegó a Bagdad en el año 773 dC y sería desarrollado en el Medio Oriente por matemáticos árabes que basarían sus números en el sistema indio. En el siglo IX, Mohammed ibn-Musa al-Khowarizmi fue el primero en trabajar en ecuaciones que igualaban cero, o álgebra como se conoce.
También desarrolló métodos rápidos para multiplicar y dividir números conocidos como algoritmos (una corrupción de su nombre). Al-Khowarizmi llamó cero ‘sifr’, del cual se deriva nuestro cifrado. En el año 879 dC, el cero se escribió casi como lo conocemos ahora, un óvalo, pero en este caso es más pequeño que los otros números.
Y gracias a la conquista de España por los moros, El cero finalmente llegó a Europa; a mediados del siglo XII, las traducciones de la obra de Al-Khowarizmi se habían abierto camino hacia Inglaterra.
Cero como dígito decimal
Se sabe que la notación posicional sin el uso de cero (usar un espacio vacío en arreglos tabulares, o la palabra kha “vacío”) se usó en la India desde el siglo VI. El primer uso seguro de cero como un dígito posicional decimal se remonta al siglo noveno. El glifo para el dígito cero fue escrito en la forma de un punto, y en consecuencia llama bindu “punto”.
El sistema de numeración Hindú-Árabe llegó a Europa en el siglo XI, a través de la Península Ibérica a través de españoles musulmanes los moros, junto con el conocimiento de la astronomía y de instrumentos como el astrolabio, importado por primera Gerberto de Aurillac (c. 940-1003).
Llegaron a ser conocidos como “números arábigos”. El matemático italiano Leonardo de Pisa (c. 1170-1250), también llamado Fibonacci, fue fundamental para llevar el sistema a las matemáticas europeas en 1202.
El matemático italiano Fibonacci, basado en el trabajo de Al-Khowarizmi con algoritmos en su libro Liber Abaci, o “Abacus book”, en 1202. Hasta ese momento, el ábaco había sido la herramienta más frecuente para realizar operaciones aritméticas.
Los desarrollos de Fibonacci se hicieron notar rápidamente por los comerciantes italianos y los banqueros alemanes, especialmente el uso del cero.
Los contadores sabían que sus libros estaban equilibrados cuando los montos positivos y negativos de sus activos y pasivos eran iguales a cero. Pero los gobiernos aún desconfiaban de los números arábigos debido a la facilidad con que era posible cambiar un símbolo por otro.
Aunque prohibidos, los comerciantes continuaron usando cero en los mensajes cifrados, por lo tanto, la derivación de la palabra cifrado, que significa código, del árabe sifr.
Los líderes religiosos medievales en Europa no apoyaron el uso del cero, lo vieron como satánico. “Dios estaba en todo lo que era. Todo lo que no era era del diablo”,se decía.
El siguiente gran matemático que usó cero fue Rene Descartes, el fundador del sistema de coordenadas cartesiano. Como sabe cualquiera que haya tenido que graficar un triángulo o una parábola, el origen de Descartes es (0,0). Aunque el cero ahora se estaba volviendo más común, los desarrolladores de cálculo, Newton y Lebiniz, darían el paso final para comprender el cero.
Sumar, restar y multiplicar por cero son operaciones relativamente simples. Pero la división por cero ha confundido incluso a las grandes mentes. ¿Cuántas veces llega el cero a diez? O, ¿cuántas manzanas no existen en dos manzanas?
La respuesta es indeterminada, pero trabajar con este concepto es la clave para el cálculo.
Por ejemplo, cuando uno conduce a la tienda, la velocidad del automóvil nunca es constante: las luces de parada, los atascos de tráfico y los diferentes límites de velocidad hacen que el automóvil se acelere o acelere. Pero, ¿cómo encontrar la velocidad del automóvil en un instante en particular? Aquí es donde el cero y el cálculo entran en la imagen.
Si quisiera conocer su velocidad en un instante en particular, tendría que medir el cambio en la velocidad que se produce en un período de tiempo determinado. Al hacer que ese período establecido sea cada vez más pequeño, puede estimar razonablemente la velocidad en ese instante.
En efecto, a medida que realiza el cambio en el tiempo de aproximación a cero, la proporción entre el cambio de velocidad y el cambio en el tiempo se vuelve similar a algún número sobre cero, el mismo problema que sorprendió a Brahmagupta.
En la década de 1600, Newton y Leibniz resolvieron este problema de forma independiente y abrieron el mundo a enormes posibilidades. Al trabajar con números a medida que se acercan a cero, el cálculo nació sin el cual no tendríamos física, ingeniería y muchos aspectos de la economía y las finanzas.
En el siglo veintiuno, el cero es tan familiar que hablar de eso no parece ser un gran problema. Pero es precisamente comprender y trabajar con esta nada lo que ha permitido el progreso de la civilización.
El desarrollo del cero en todos los continentes, siglos y mentes lo ha convertido en uno de los mayores logros de la sociedad humana. Debido a que las matemáticas son un lenguaje global y el cálculo de su logro culminante, el cero existe y se usa en todas partes.
Pero, al igual que su función como un símbolo y un concepto destinado a denotar la ausencia, el cero todavía puede parecer nada en absoluto. Sin embargo, recuerde los temores sobre Y2K y el cero ya no parece una historia contada por un idiota.
Leer también: Historia de la informatica, resumen; ciencias de la computación, computadoras; Etimología de Cero, origen de la palabra, de dónde proviene