El fundamento básico del tecno-optimismo es que la ciencia y la tecnología siempre encontrará una forma de solucionar los problemas ecológicos, económicos, sociales o políticos de la humanidad. Obviamente, como este argumento queda falsado en cuanto se observa la realidad, y se comprueba que la ciencia y la tecnología no han resuelto muchos de nuestros problemas civilizatorios, e incluso en algunos casos han sido precisamente los causantes, el contra-argumento es que en el futuro se inventará una tecnología sustitutiva de las actuales que permitirá solucionarlo. En definitiva, se apuesta el futuro de la humanidad y de los ecosistemas al progreso tecnológico.
El progreso tecnológico es una variable muy difícil de medir directamente, y no existe un modelo consensuado para ello, ya que además el desempeño de cada tecnología se mide en diferentes unidades y, por tanto, no se puede reducir a un único número. La mayor parte de las veces se trata de percepciones e intuiciones, tanto de científicos como de la sociedad, difíciles de objetivar. No obstante, en la historia reciente de la ciencia se han establecido algunas hipótesis (aunque las han denominado «leyes») que en cierta manera incluyen una forma de justificar el progreso tecnológico y que habitualmente se ha considerado como un crecimiento exponencial. El progreso tecnológico, además de crecimiento económico, se nos dice que nos proveerá de mejor calidad de vida a menor coste.
La ley de Wright, una hipótesis formulada por Theodore Wright en 1936 para la fabricación de aviones, establecía que el coste de producción se reduce conforme se incrementa o acumula la producción, no tanto por una economía de escala, sino porque cuanto más se realiza una tarea, menos tiempo supone la siguiente iteración, es decir, que existe una curva de aprendizaje. Las curvas de aprendizaje suponen que al principio de producir una tecnología nueva, es fácil duplicar nuestra experiencia, el progreso es rápido; en cambio, con tecnologías maduras, cuando tenemos una amplia experiencia, duplicar nuestro rendimiento puede ser muy costoso, y el progreso es lento. Obviamente, las curvas de aprendizaje también suponen que el coste de producción unitario se reduce sólo hasta que se encuentra un mercado masivo, y las tecnologías que no llegan a un precio unitario adecuado para un mercado masivo, simplemente se abandonan como postula Schumpeter con su «destrucción creativa».
La ley de Wright, a la vez que enuncia una hipótesis de progreso tecnológico, depende del mercado y, en definitiva, del consumo. Esto tiene una importancia trascendental, ya que el aumento en la eficencia en la producción de una tecnología depende de un mayor consumo de la misma, o no habrá incremento de la producción y, por tanto, curva de aprendizaje. En consecuencia, la eficiencia y progreso tecnológicos dependen de un aumento global del consumo de recursos y energía, que es lo que se conoce como la paradoja de Jevons o efecto rebote .
Esta ley de Wright también tiene otras implicaciones, ya que el primer desarrollo de cualquier tecnología importante es muy costosa y no tiene mercado. Entonces, ¿cómo se puede desarrollar una tecnología nueva muy costosa, para la que no hay demanda que alimente la producción y no se puede iniciar la curva de aprendizaje de mejora de la eficiencia? Los «liberalistos» nos dirán que la libre competencia de los mercados potenciarán el ingenio e innovación de los emprendedores que sabrán en qué tecnologías es mejor apostar. Sin embargo, eso puede ser así en innovaciones digamos simples o accesibles, como la exploración petrolífera o la «fiebre del oro», pero las que al principio son muy costosas no hay capital-riesgo que soporte la financiación de la producción inicial. Y ahí es donde aparece, aunque siempre se oculta o se «olvida», que han sido los presupuestos públicos los que han financiado los primeros desarrollos de las principales tecnologías más importantes o más utilizadas actualmente. El motivo es evidente: el presupuesto público, además de enorme, no pide dividendos ni resultados, y si la idea no sale bien, no pasa nada, nadie pide que se devuelva el dinero. Fijémonos en las principales tecnologías energéticas, del transporte y las telecomunicaciones imprescindibles para la globalización actual.
El petróleo se conoce y se ha explotado desde hace milenios, pero su primer impulso real vino de la utilización de motores diesel en los submarinos y navíos estadounidenses y británicos, alrededor de 1910, para alcanzar mayores velocidades que las máquinas de vapor impulsadas por la combustión del carbón. Los primeros motores diesel eran bastante grandes y sólo podían utilizarse a nivel industrial o para la navegación, por tanto, la tecnología es incipiente, reducida y cara.
En la aviación, más allá de prototipos previos, la fabricación en serie de aviones fueron para el ejército alemán en 1914, fabricando 1.200 aviones de combate. Las primeras aerolíneas comerciales no empiezan a surgir hasta los años 20, con Lufthansa, KLM, Qantas, United Airlines o Pan Am. En otros países, la aviación civil incluso necesitaba que fuera operada por empresas públicas como Iberia en España o British Overseas Airways Corporation (BOAC) en Reino Unido, o al menos con subsidios públicos para las aerolíneas privadas, dados los altos costes de inversión y operación, y el escaso rendimiento económico. De los descubrimientos en la física y la mecánica de fluidos, se tomó el principio de Bernoulli, teorema en el que se fundarían las bases para la invención de los cohetes bélicos y de los motores de reacción, cuyo principio se basa en leyes físicas como el principio de acción y reacción. Entre los años 1940 y 1942 se crearon los primeros motores a reacción para ser utilizados en los aviones de combate en la Segunda Guerra Mundial, y luego pasarían a generalizarse en la aviación civil.
La energía hidráulica se conoce desde antiguo y se ha utilizado en diversas aplicaciones, y las primeras centrales hidroeléctricas datan de finales del siglo XIX, pero su uso para la producción eléctrica a gran escala requería grandes presas de arco, siendo pionera la presa Hoover en la cuenca del rio Colorado. Este gran proyecto hidráulico sólo fue posible por la financiación pública del gobierno federal de los EEUU, culminándose la instalación de los generadores eléctricos en 1936.
Las primeras placas fotovoltáicas se desarrollaron comercialmente para el gobierno estadounidense que las comenzó utilizando en las ayudas a la navegación marítima (faros, boyas, etc.), señales ferroviarias y, sobre todo, para los satélites que la NASA comenzó a lanzar en los años 50 del siglo XX.
La energía nuclear se desarrolló gracias a los programas nucleares militares durante la Segunda Guerra Mundial y la Guerra Fría, es decir, los primeros reactores fueron financiados con presupuesto público, aunque fueran construidos por empresas privadas.
La revolución de la información que hoy domina la sociedad, la economía, la industria, la política y la administración, se basó, entre otros avances, en la tecnología de semiconductores, comenzando por los transistores MOSFET, normalmente de silicio. Una vez más, aunque la invención de ciertas tecnologías disruptivas se debe a investigadores, principalmente de empresas, la comercialización inicial sólo puede despegar con contratos públicos costosos. En el caso de las tecnologías de la información y las comunicaciones sucedió lo mismo. Los transistores MOSFET no se comercializaron para la informática personal, y ni siquiera empresarial, sino que fue la NASA el mayor consumidor que los utilizó por primera vez para sus naves espaciales y satélites en el programa de observación interplanetaria en 1966 . Los contratos con la NASA alimentaron el primer proceso de miniaturización de transistores que supuso la gran revolución en la reducción del consumo energético, a la vez que se incrementaba la potencia de cálculo, y dio paso a tecnologías como los ordenadores portátiles, teléfonos móviles o el Internet de las Cosas. Debido a esa gran mejora en los años 60, en el rendimiento de los chips y circuitos integrados, se llegó a otra «ley» del progreso tecnológico y el tecno-optimismo: la ley de Moore.
En la actualidad la producción de microchips es una tecnología altamente compleja que sólo realizan un puñado de empresas en todo el mundo: GlobalFoundries, TSMC, UMC, Samsung Foundry, SMIC. Y además sólo los producen en cinco países, porque no en cualquier país se dan las condiciones técnicas y de recursos para montarlas, ya que requiere energía, dinero, I+D, personas preparadas, universidades, fundiciones sumamente especializadas, materiales y procesos de producción tan avanzados y unas demandas de tal escala que solo megafábricas en lugares muy concretos del planeta pueden producir la cantidad y calidad demandada. Esto deja a muchos países industrializados en una situación de alta dependencia tecnológica, vulnerables a todo tipo de embargos tecnológicos o comerciales.
La ley de Moore es un modelo tecno-económico formulado en 1965 por Gordon Moore, ex-CEO de Intel, que ha caracterizado la industria de la tecnología de la información en la que se ha duplicado el rendimiento y la funcionalidad de la electrónica digital aproximadamente cada 2 años dentro de un coste, potencia y área fijos. Los avances en la litografía de silicio han permitido esta miniaturización exponencial de la electrónica, pero todo tiene un límite y, a medida que los transistores alcanzan la escala atómica y los costos de fabricación continúan aumentando, el vector tecnológico clásico que ha sustentado la ley de Moore durante 50 años está fallando y se prevé que se aplanará para 2025 .
La revolución de la información y el desarrollo de Internet, también nos da otro ejemplo de que el tecno-optimismo requiere de los presupuestos públicos y que no es ilimitado. En 1968, los primeros centros que desarrollaron redes de ordenadores (Mark I y ARPANET) que transmitieron paquetes de datos entre sí fueron el National Physical Laboratory, el principal centro de investigación gubernamental del Reino Unido y la Defense Advanced Research Projects Agency (DARPA), la agencia de investigación del Departamento de Defensa de los EEUU. Posteriormente, la tecnología de comunicación entre ordenadores se implantó, como redes privadas, en diferentes universidades y en empresas públicas (energía, ferrocarriles, aerolíneas, correos), y el primer servicio comercial o red pública se creó en 1972 en España, la Red Especial de Transmisión de Datos (RETD), por parte de la empresa pública Telefónica, principalmente para dar servicio a entidades financieras .
Las TICs se popularizaron en los años 90, e incluso tuvieron su burbuja financiera de las puntocom, pero el gran despegue se produjo con el nuevo milenio. Actualmente, hay miles de millones de smartphones, smart tv, ordenadores, tablets, y sensores en todo el mundo, generando diariamente ingentes cantidades de datos multimedia que se transmiten por Internet. Los canales de comunicación, como es Internet, también tienen sus límites, porque se convierten en lo que se denominan «canales ruidosos». En 1948, Claude Shannon, un matemático de los Bell Telephone Laboratories, mostró que hay un límite máximo de eficiencia al que es posible transmitir datos discretos (información digital) casi sin errores sobre un mismo canal ruidoso; se le conoce simplemente como «teorema de Shannon». La red global de Internet utiliza una serie de cables submarinos de fibra óptica que representan un cuello de botella para la capacidad máxima de ese canal, con una intensidad de uso cada vez mayor (streaming y reproducción de video en alta calidad), y ampliarlo es altamente costoso. El avance en la capacidad de transmisión de datos de la fibra óptica, aunque se ha incrementado mucho en los últimos años, está llegando a su límite, y la única forma de ampliar la capacidad de transmisión es instalar más cables submarinos de fibra óptica.
Por otro lado, está el problema del almacenamiento de la información. Actualmente, se estima que hay fabricados sistemas de almacenamiento de información para unos 3-5 ZettaBytes, teniendo en cuenta que la vida útil de la mayoría de sistemas de almacenamiento actuales es de unos 5 años. Además, se ha identificado también un pico de producción de sistemas de almacenamiento como discos duros, memorias SSD y procesadores, RAM, que puede estar causado por el pico de los combustibles fósiles.
El problema es que esto afecta también a los datos en la «nube» que, en definitiva, son conglomerados de servidores con millones de discos duros que hay que ir reemplanzando cada cinco años y que en todo el mundo consumen ingentes cantidades de energía, equivalentes al consumo de toda Europa.
Referencias