Por Nicholas G. Carr
Hacia un servicio publico de IT ´ Después de invertir millones de dólares en montar centros de datos, las empresas podrían descubrir que es tiempo de comenzar a cerrarlos. Nicholas G. Carr fue editor ejecutivo de la Harvard Business Review y es el autor de Does IT Matter? Information Technology and the Corrosion of Competitive Advantage (Harvard Business School Press, 2004).
principios del siglo XX sucedió algo hasta entonces impensable: los fabricantes empezaron a clausurar y desmantelar sus turbinas hidráulicas, máquinas a vapor y generadores eléctricos. Desde el comienzo de la Era Industrial, la generación de energía era parte intrínseca de la actividad de las empresas, y los molinos y fábricas tenían centrales eléctricas propias para hacer funcionar su maquinaria. Con la llegada del nuevo siglo, apareció una alternativa. Decenas de nuevos productores de electricidad comenzaron a construir plantas generadoras centrales, y a distribuir la energía a sus clientes a través de una red de cables. Los fabricantes ahora podían comprarles la electricidad a los nuevos proveedores. Un siglo después, la historia se repite. El desarrollo comercial más importante de los últimos 50 años, la tecnología de la información (IT), atraviesa una transformación similar. En forma inexorable, va dejando de ser un activo de las compañías (bajo la forma de computadoras, software y componentes relacionados), para transformarse en un servicio que se le compra a un proveedor. Pocos han percibido la magnitud de este cambio y sus implicancias en el largo plazo. Las conversaciones sobre el tema de la informática como servicio público no han ido más allá de los eslóganes de marketing de los proveedores de IT, llenos de términos ambiguos como “sistemas autónomos” o “arquitectura orientada a los servicios”. En vez de iluminar el futuro, esta palabrería lo ha oscurecido. Además, la retórica que prevalece es demasiado conservadora. Se presume que el modelo existente de abastecimiento y uso de la IT se mantendrá, como así también el centro de datos corporativo que se encuentra en su núcleo. Sin embargo, el fundamento económico del modelo tradicional se está desmoronando, y tiene pocas probabilidades de sobrevivir en el largo plazo. Como lo sugiere la transformación de la provisión de electricidad, cuando también la IT deje de ser un activo de capital fragmentado y pase a constituir un servicio público centralizado, habrá ocurrido algo trascendental. El cambio trastocará las premisas estratégicas y operativas, modificará la economía industrial, afectará a los mercados y planteará grandes desafíos a usuarios y proveedores. Si bien la historia de la aplicación comercial de la IT se caracteriza por los enormes avances, nada de lo que vimos —ni siquiera la introducción de la computadora personal (PC) o la creación de Internet— igualará a la revolución que nos aguarda.
A
De activo a gasto Como la energía del vapor y la electricidad, la IT es lo que los economistas denominan una tecnología para propósitos generales. La utilizan todo tipo de compañías para hacer toda clase de cosas, y trae cambios fundamentales al comercio y a la sociedad. Si el suministro se concentra, una tecnología para propósitos generales permite grandes economías de escala. Pero puede pasar mucho tiempo antes de que estas economías se aprecien por completo, y más aún hasta que sean plenamente aprovechadas. En las primeras etapas de su desarrollo, con escasos estándares técnicos y sin una red amplia de distribución, es imposible centralizar la provisión de la tecnología. Cada compañía debe comprar los componentes requeridos para usarla, fundirlos en un sistema de trabajo y contratar a especialistas para el mantenimiento.
1/6
TECNOLOGIA > TENDENCIAS
Por Nicholas G. Carr
Esta fragmentación del suministro es un desperdicio: exige grandes inversiones de capital e A fines de los ’90, Larry Ellison, presiimportantes costos fijos, y les gei hay un símbolo perfecto de la IT corponera a las firmas gastos superrativa es la computadora personal. Ubi- dente ejecutivo de Oracle, fue criticado fluos y un exceso de capacidad, cua, domina el escritorio de cualquier em- por pronosticar que la PC, a la que denotanto en términos de tecnología pleado, y también es un microcosmos del minaba “aparato ridículo”, sería suplantacomo de personal que la opera. La estado general de los recursos informáticos da por terminales y otros dispositivos cosituación es ideal para los proveeen las compañías: fragmentados, supera- nectados a computadoras centralizadas. dores de componentes, quienes bundantes y cada vez menos aprovechados. Pero su evaluación era correcta. Cuando se benefician del exceso de inverLa invención de la PC fue un gran se extiendan los servicios públicos de insión. Pero al final esto resulta inavance. Distribuyó el poder de la informá- formática, veremos menos computadoras sostenible. A medida que la tectica, estimuló el ingenio, incrementó la personales en las compañías. No así en nología madura y se hace posible productividad personal y aceleró el desa- los hogares, donde la PC es el motor. la distribución central, surgen los rrollo de redes, que sin embargo convirtieproveedores del servicio a gran ron a la PC en algo menos esencial, pese (Extraído del artículo “Ellison Resurrects Netescala, quienes desplazan a los al estallido de su capacidad, creciente- work Computer”, de Kim Girard, publicado en proveedores privados. Si bien las mente desaprovechada por los usuarios. periódicos virtuales en noviembre de 1999.) empresas pueden tardar años en abandonar el autoabastecimiento y sus costos irrecuperables, finalmente los ahorros ofrecidos por las empresas de servicios tientan incluso a las empresas más grandes. Salir del viejo modelo se convierte en una necesidad. La evolución del suministro de electricidad muestra claramente este proceso. Cuando la producción comercial se hizo posible, alrededor de 1880, surgieron rápidamente muchos pequeños proveedores del servicio. Casi todas eran empresas familiares que usaban dínamos a carbón para generar cantidades modestas de energía. La electricidad se producía bajo la forma de corriente directa, que no podía transmitirse a más de un kilómetro y medio. El alto costo de la operación se trasladaba a los precios, y sólo las tiendas y oficinas prósperas, las familias ricas y los organismos municipales la utilizaban, esencialmente para iluminación. Depender de estas pequeñas centrales no era una opción para los grandes establecimientos industriales, que no veían otro camino que operar sus propias plantas generadoras. Contrataban a compañías como General Electric o Westinghouse para obtener los componentes de los generadores y el personal necesario para armarlos, y a ingenieros eléctricos y otros especialistas para operarlos. En los primeros años de la electrificación, este esquema dominó la escena. Para 1902, se habían levantado 50.000 plantas generadoras privadas en los Estados Unidos, mientras que había 3.600 estaciones centrales manejadas por empresas de servicios públicos. Hacia 1907, las fábricas producían un 60 por ciento de toda la electricidad que se utilizaba en el país. Sin embargo, mientras los grandes fabricantes se apresuraban a instalar sus propios generadores, algunas imprentas y otros pequeños emprendimientos industriales tomaban un camino diferente. Como no podían afrontar los costos de instalación y operación de un generador, dependían de las centrales cercanas, aunque esto implicase altas tarifas por kilovatio e incluyera frecuentes interrupciones en el suministro. En ese entonces, estas pequeñas industrias deben de haberse sentido rezagadas en la carrera hacia la electrificación, pues se veían obligadas a adoptar un modelo aparentemente inferior. Sin embargo, estaban en la vanguardia. Pronto, hasta las más grandes seguirían su ejemplo, atraídas por las ventajas cada vez más evidentes de comprarles la electricidad a proveedores externos. Una serie de avances técnicos sentó las bases de este cambio. Primero, se desarrollaron enormes turbinas térmicas que ofrecían economías de escala mucho mayores. Segundo, la introducción de la corriente alterna permitió transmitir la energía a través de mayores distancias, y acceder a un espectro más amplio de clientes. Tercero, se crearon transformadores que permitían a los prestadores cambiar de tipo de corriente, e integrar al sistema el viejo equipamiento. Por último, se inventaron motores eléctricos capaces de operar con corriente alterna, lo que posibilitó que las fábricas se conectaran a la nueva red eléctrica. Hacia 1900, ya existían todas las piezas tecnológicas necesarias para centralizar el suministro de energía. Pero el progreso técnico no era suficiente. Para cambiar el statu quo se requería la presencia de un visionario: alguien que comprendiera que esta combinación de tendencias tecnológicas, de merca-
Adiós PC
S
2/6
Por Nicholas G. Carr
Los pioneros uando las empresas empezaron a acudir a los servicios públicos para abastecerse de electricidad, las organizaciones más pequeñas marcaron el rumbo. Sin dinero para construir sus propias plantas, no tuvieron otra opción que comprarles la electricidad a proveedores externos. Lo mismo ocurre con los servicios públicos de informática. Los más decididos, entre sus primeros adoptantes, son pequeñas y medianas empresas y entidades con recursos limitados, como oficinas gubernamentales y organizaciones sin fines de lucro. El estado de Pensilvania, por ejemplo, empezó a desplazarse hacia un servicio público de este tipo hace casi una década. Después de varios años de planificación, en 1999 se empezaron a cerrar
C
los centros de datos operados por 17 agencias gubernamentales, y el hardware y el software se concentraron en una nueva instalación manejada por un consorcio de proveedores, liderado por Unisys. Algunas grandes corporaciones también empiezan a adoptarlos. La firma australiana Qantas Airways Ltd. comenzó a desmontar su centro de datos en el 2004, trasladando cientos de servidores y computadoras centrales a las instalaciones de un proveedor, al que pagará un arancel basado en la utilización real de la capacidad. La aerolínea también derivó en un tercero, Amadeus Global Travel Distribution SA, su sistema de reservas y venta de pasajes. Como resultado, el porcentaje del presupuesto del centro de datos de la ae-
rolínea asignado a costos fijos bajó del 70 al 30 por ciento. Otras grandes compañías están instalando su propio “servicio público” interno, para proveer de recursos de informática a todas sus organizaciones. La empresa de envíos DHL concentró, en una instalación única, los ocho centros de datos que tenía en Norteamérica, y la división estadounidense de la compañía química y farmacéutica Bayer AG alojó 42 centros de datos en dos instalaciones, y redujo a la mitad el número de servidores, con lo que ahorró US$ 100 millones. (Extraído del artículo “Host With the Most”, de Meridith Levinson, publicado por la revista CIO en julio de 2004.)
do y económicas llevaba hacia un modelo completamente nuevo de provisión del servicio. Esa persona llegó bajo la forma de un tenedor de libros inglés llamado Samuel Insull. Fascinado por la electricidad, Insull emigró a Nueva York en 1880, donde pronto se convirtió en el principal asesor de Thomas Edison, a quien ayudó a expandir su imperio de negocios. Pero su mayor logro tuvo lugar en 1892, cuando ya no trabajaba con Edison y se había mudado a Chicago, donde presidía una pequeña productora independiente de energía eléctrica que tenía tres estaciones centrales y sólo 5.000 clientes. En menos de 25 años, convertiría a esa pequeña compañía en el gigante monopólico Commonwealth Edison. Insull fue el primero en darse cuenta de que, al aprovechar las nuevas tecnologías para concentrar la capacidad generadora, los servicios centralizados podrían satisfacer incluso las necesidades de energía de las grandes fábricas. Las economías de escala, combinadas con la posibilidad de distribuir la demanda entre múltiples usuarios y alcanzar índices más altos de aprovechamiento de la capacidad instalada, permitirían brindar electricidad mucho más barata. Insull actuó agresivamente al respecto. Compró pequeñas instalaciones en todo Chicago, donde instaló generadores monumentales de 5.000 kilovatios. También fue el pionero de los medidores de electricidad y de los precios variables. Así pudo bajar las tarifas para grandes usuarios y aumentar la demanda. Por último, lanzó una inteligente campaña de marketing para convencer a los fabricantes de Chicago, quienes llegaron en tropel. En 1908, un periodista de Electrical World and Engineer observó: “... aunque en Chicago las plantas aisladas son todavía numerosas, nunca se vieron tan presionadas como ahora por el servicio de la estación central... La Commonwealth Edison Company tiene, entre sus clientes, a establecimientos antes atendidos por algunas de las plantas aisladas más grandes de la ciudad”. El punto de inflexión había llegado. Aunque muchos fabricantes continuaban produciendo su propia electricidad, la transición hacia el servicio público estaba en marcha. Entre 1907 y 1920, la participación de las empresas de servicios en la producción eléctrica total de los Estados Unidos saltó del 40 al 70 por ciento, y en 1930 llegaba al 80 por ciento. Al pasar de un activo complejo a un gasto variable rutinario, los fabricantes achicaron sus costos fijos y liberaron capital para propósitos más productivos, además de reducir personal, atemperar el riesgo de obsolescencia tecnológica y aliviar a los gerentes de una importante fuente de distracción.
Empieza la transformación Como es obvio, las analogías históricas tienen sus límites, y la IT difiere de la electricidad en
3/6
Por Nicholas G. Carr
muchos aspectos importantes. Por ejemplo, la IT incorpora software, un producto de la creatividad humana protegido por la propiedad intelectual. Pero también hay profundas similitudes. Hoy, la gente ve a la electricidad como a un servicio público “simple”: una corriente estandarizada y ordinaria, segura y previsible, que viene a través de las fichas de la pared. Sus innumerables aplicaciones, desde las lámparas de mesa hasta las máquinas de la línea de montaje, se volvieron tan comunes que ya no las consideramos elementos de la tecnología subyacente: cobraron vida por separado. Pero no siempre fue así. Al comienzo, la electrificación era una fuerza compleja, impredecible e indomable, que modificaba casi todo lo que tocaba. Su capa de aplicación, para utilizar una expresión moderna, se extendía a la tecnología tanto como a las dínamos, las líneas de transmisión y la corriente misma. Todas las compañías tuvieron que resolver cómo aplicar la electricidad a su propio negocio, a veces a través de cambios profundos en la estructura, la práctica o el flujo de trabajo. A medida que la tecnología avanzaba, debieron luchar con los “sistemas heredados”: equipos viejos e incompatibles, que les impedían avanzar. Como recurso de negocios, la IT de hoy se parece mucho a la energía eléctrica de entonces. Las empresas acuden a proveedores para comprar los diversos componentes (computadoras, unidades de almacenamiento, placas de red y toda clase de software), con los cuales conforman complejas plantas de procesamiento de información (centros de datos) que mantienen dentro de sus instalaciones. Contratan a especialistas para ocuparse de esas plantas, y acuden a consultores externos para resolver los problemas más espinosos. La necesidad de asegurar el buen funcionamiento de la infraestructura de IT distrae a los ejecutivos de su verdadera tarea: por ejemplo, fabricar autos y venderlos para generar una ganancia. La creación de decenas de miles de centros de datos independientes, pero que usan prácticamente el mismo hardware, impone severas penalidades tanto a las firmas que los tienen como a la economía en general. El exceso de activos de IT condujo a niveles extraordinariamente bajos de utilización de la capacidad. Un estudio reciente, realizado en seis centros de datos corporativos, reveló que la mayor parte de su millar de servidores empleaba a lo sumo el 35 por ciento de la capacidad de procesamiento disponible. Con las computadoras de escritorio es todavía peor: IBM Corp. estima que la tasa promedio de utilización de la capacidad es del 5 por ciento. La consultora Gartner Inc. sugiere que cerca del 60 por ciento de la capacidad de almacenamiento de datos, de una compañía tipo, se desperdicia. El exceso de capacidad no se limita al hardware. Como las aplicaciones de software son altamente escalables (pueden servir a nuevos usuarios con un aumento mínimo o nulo del costo), la instalación de programas idénticos o muy similares en miles de sitios diferentes crea agudas “deseconomías”. La profusión de departamentos de IT que comparten muchas de las mismas capacidades técnicas, también representa un exceso de mano de obra. Según una encuesta realizada en el 2003, un 60 por ciento del presupuesto de personal de IT, en las compañías estadounidenses, financia funciones rutinarias de soporte y mantenimiento. Cuando el exceso de capacidad se combina con funcionalidad superabundante, las condiciones están dadas para cambiar a un suministro centralizado. Sin embargo, las empresas siguen invirtiendo grandes sumas en sus centros de datos. ¿Por qué? Por la falta de un modelo viable de servicio público a gran escala. Pero ahora empieza a surgir este modelo. Proliferan las formas rudimentarias de este tipo de servicio, y muchas compañías se apresuran a capitalizarlo. Algunas usan los enormes centros de datos de proveedores como IBM, Hewlett-Packard o Electronic Data Systems para complementar (o brindarle un sistema de seguridad adicional) a su propio hardware. Otros emplean aplicaciones que corren en las computadoras de distantes proveedores de software. Este tipo de programas, que incluyen sistemas de compras, administración del transporte, contabilidad financiera, servicio al cliente y gestión de la fuerza de ventas, entre muchos otros, demuestran que hasta las aplicaciones más complejas pueden proveerse como servicio público a través de Internet. Lo que estos primeros intentos no muestran es el alcance y el poder en plenitud de un verdadero modelo de servicio público. Los actuales servicios, parciales y no sistemáticos, existen como entradas a los centros de datos tradicionales, y las compañías aún deben conectarse mediante sus viejos hardware y software. Muchas veces las firmas se privan de servicios públicos atractivos o enfrentan problemas con la contratación de terceros, por las dificultades para integrarlos con sus sistemas heredados. El servicio público de computación sólo llegará cuando un proveedor ex-
4/6
Por Nicholas G. Carr
terno asuma la responsabilidad de satisfacer todos los requerimientos de IT de una compañía, desde el procesamiento de datos hasta el almacenamiento y las aplicaciones. Este modelo tomará años para desplegarse, pero los ladrillos tecnológicos ya se están colocando. Hay tres avances particularmente importantes: la “virtualización”, la computación en red y los servicios de Web. De diferentes maneras, estas tres tecnologías cumplen una función similar a la de los primeros convertidores de corriente: permiten la construcción de un sistema amplio y estrechamente integrado, a partir de componentes heterogéneos y hasta entonces incompatibles. La “virtualización” borra las diferencias entre las plataformas de computación propietarias, y hace posible que aplicaciones diseñadas para correr en un sistema operativo se desplieguen en otra parte. La computación en red permite que grandes cantidades de componentes de hardware, como servidores o discos rígidos, actúen efectivamente como un dispositivo único, reuniendo su capacidad y destinándola automáticamente a las diferentes tareas. Los servicios de Web estandarizan las interfaces entre aplicaciones, convirtiéndolas en módulos que pueden ensamblarse y desensamblarse. Si cada una de estas tecnologías es interesante, combinadas son revolucionarias. Sumadas a las redes de fibra óptica de alta capacidad, convierten a componentes de hardware y software fragmentados y difíciles de manejar en una única infraestructura flexible, que puede ser compartida y utilizada de diferentes formas por muchas compañías. A medida que crece el número de usuarios servidos por un sistema, se equilibra la carga de demanda, aumenta la utilización de la capacidad y se expanden las economías de escala. Con el previsible avance de estas tecnologías y el surgimiento de otras nuevas y relacionadas, se incrementará la posibilidad de proveer IT como un servicio público. Al igual que en el caso de la energía eléctrica, el principal obstáculo serán algunas premisas de management muy arraigadas, y las prácticas e inversiones en las que se basan. Las grandes compañías no suprimirán sus centros de datos hasta que la fiabilidad, la estabilidad y las ventajas del servicio público de IT queden bien establecidas. Para que ello suceda, debe aparecer un Samuel Insull moderno, con una visión clara de la operación del negocio del servicio, y con la imaginación y los recursos necesarios para llevarlo a la práctica. Como su predecesor, construirá plantas de IT altamente eficientes y a gran escala, entrelazará sofisticados sistemas de contabilidad y fijación de precios, y ofrecerá paquetes atractivos y flexibles de servicios adaptados a los diversos clientes. Y presentará un sólido argumento de marketing, para demostrar que la centralización de la gestión de recursos antes dispersos baja costos, libera capital, aumenta la seguridad y la flexibilidad y reduce el riesgo. En suma, esta persona inventará una industria.
La configuración de una industria El perfil de la nueva industria puede vislumbrarse. Probablemente tenga tres componentes principales. En el centro estarán los servicios públicos de IT mismos: grandes compañías que alojarán los principales recursos informáticos en plantas centrales, y los distribuirán a los usuarios finales. Estas compañías serán servidas por una colección de proveedores de componentes (computadoras, unidades de almacenamiento, engranajes de red, software operativo y de servicio, y aplicaciones). Finalmente, grandes operadores de red manejarán las líneas de comunicación de datos de capacidad “ultra-alta”. Algunas compañías tratarán de operar simultáneamente en más de una de estas categorías. Lo más notable de este modelo es que revela las características únicas por las cuales la IT es especialmente apropiada para convertirse en un servicio público. Con la electricidad, sólo la función de generación básica puede centralizarse, mientras que las aplicaciones (motores, lamparillas, dispositivos electrónicos) deben ser provistas localmente. Con la IT, las aplicaciones inmediatas toman la forma de software, que los servicios públicos o sus proveedores pueden correr a distancia. Incluso las aplicaciones personalizadas para un único cliente pueden almacenarse en el sitio del proveedor. El usuario final sólo necesita contar con varios dispositivos de entrada y salida, como monitores, impresoras, teclados, scanners, aparatos portátiles, sensores y otros, necesarios para recibir, transmitir y manipular información y, si es necesario, reconfigurar el paquete de servicios recibidos. Algunos clientes optarán por crear aplicaciones localmente, pero los servicios públicos tendrán y operarán la mayor parte del hardware y el software, lo cual maximizará sus ventajas de escala. ¿Qué compañías emergerán como servicios públicos de IT? Existen, al menos, cuatro posi-
5/6
Por Nicholas G. Carr
bilidades. Primero, los grandes fabricantes tradicionales de hardware de computación para empresas, expertos en instalar y operar complejos sistemas de negocios. IBM, Hewlett-Packard y Sun Microsystems ya se están posicionando agresivamente como proveedores de un servicio público. Sun alquila capacidad de procesamiento y almacenamiento por un arancel fijo, y prepara una subasta online para vender su exceso de potencia. Segundo, las diversas operaciones de hosting que, como VeriCenter Inc., de Texas, o el servicio Digex de MCI, manejan hoy los centros de datos completos de algunas pequeñas y medianas empresas. Tras sobrevivir al colapso de las “punto com”, estas firmas empiezan a parecerse a los operadores de las primeras centrales eléctricas. Tercero, los innovadores de Internet como Google y Amazon.com Inc., que están construyendo redes sofisticadas que podrían adaptarse a usos mucho más amplios. Finalmente, los nuevos emprendimientos que podrían surgir con estrategias nuevas e ingeniosas. Dado que la industria de los servicios públicos estará guiada por la escala y será intensiva en capital, el tamaño y el foco serán cruciales para el éxito. Hasta la fecha, los servicios públicos de informática parecen seguir el patrón de la innovación disruptiva definida por Clayton Christensen, de la Harvard Business School: ganar tracción en el extremo inferior del mercado, antes de surgir como modelo de provisión dominante. En este sentido pueden constituir una grave amenaza para algunos de los más exitosos proveedores actuales de componentes, como Microsoft, Dell, Oracle y SAP, que prosperaron vendiendo directamente a las corporaciones. El modelo de servicio público promete aislar a estos proveedores de los usuarios finales, y obligarlos a vender sus productos y servicios a (o a través de) grandes servicios públicos centralizados y con mayor poder de negociación. Es probable que la mayoría de los componentes ampliamente utilizados, desde computadoras hasta sistemas operativos y “aplicaciones para empresas” que automatizan los procesos corrientes de negocios, se compren como genéricos indiferenciados y baratos. Es cierto que los principales proveedores de componentes poseen hoy un considerable poder de mercado, gestionan con inteligencia y cuentan con tiempo para adaptar sus estrategias a medida que evolucione el nuevo modelo. Algunos tal vez intenten constituir ellos mismos un servicio público. Hay un buen precedente. Cuando los fabricantes empezaron a comprar electricidad a los servicios públicos, los dos principales proveedores de generadores y componentes asociados, General Electric y Westinghouse, se expandieron agresivamente en ese negocio, comprando participación en muchas compañías de electricidad. En 1895, GE había invertido más de US$ 59 millones en servicios públicos en los Estados Unidos y Europa. Para evitar que unas pocas empresas ejerzan un control excesivo sobre la infraestructura (con mayores costos para el usuario final), es esencial mantener un fuerte nivel de competencia, tanto entre las empresas que brinden el servicio público como entre los proveedores de componentes.
Visión del futuro Si bien los avances tecnológicos pueden resultar impredecibles, las fuerzas económicas y de mercado que guían la evolución de un negocio siguen, por lo general, caminos lógicos y coherentes. La historia del comercio muestra, una y otra vez, que la inversión superabundante y la capacidad fragmentada son fuertes incentivos para centralizar el suministro. Y los avances en computación y en redes permiten que la IT opere de una forma cada vez más “virtual”, con distancias crecientes entre el sitio de los activos tecnológicos fundamentales y el punto en el cual la gente accede, interpreta y manipula la información. Un cambio drástico parece inevitable. Hoy, al mirar hacia atrás, la evolución del suministro de energía tiene una lógica muy clara. El hecho de que cada compañía mantuviese su propia planta de energía se ve como un fenómeno transitorio, basado en la necesidad y sin mayor sentido económico. Ahora, imaginemos qué verán las generaciones futuras cuando observen nuestro tiempo. Los centros de datos privados, ¿no les parecerán un fenómeno igualmente transitorio? Y la aparición del servicio público de IT, ¿no les resultará tan natural como necesaria? ● © Gestión/MIT Sloan Management Review © 2005, Massachusetts Institute of Technology. Todos los derechos reservados. Distribuido por Tribune Media Services International.
6/6