Ley de Grosch

¿En qué consiste la ley de Grosch? Herb Grosch en 1953 teorizaba que el rendimiento informático se incrementa por el cuadrado de lo que cuesta.

[adsense_id=»4″]

Dicho de otra forma, para hacer un cálculo 10 veces más barato, es preciso hacerlo 100 veces más raudo o veloz.

Algunas derivaciones pudieran ser: Si el equipo de cómputo A cuesta 2 veces más que el B, Ud debe esperar que el equipo A sea 4 veces más rápido que la computadora B.

Cuanto más costoso es el ordenador, la relación precio rendimiento ha de ser considerablemente mejor. Es decir que los computadores de bajo costo no son competitivos.

[adsense_id=»4″]

Algunas críticas a dicha ley de Grosh, pueden ser: Paul Strassmann en 1997 dice que esta ha sido totalmente desmentida y que tuvo sentido en los años 60 y 70.

Defensas también las hay: tenía razón en que las economías de escala significativas y sus aciertos, se logran apoyándose en centrales de datos masivos, principio del cloud computing.

La ley de Grosh sería parcialmente desmentida por la Ley de Moore.

Leer también: Cloud Computing 1950-70; ventajas del Cloud computing; qué es Cloud Computing

Webgrafía consultada (23 de marzo 2014):

When the Cloud Goes Local: The Global Problem with Data Localization

This post is also available in: Español