Dilema de los innovadores (Nueva edición)

Text
Read preview
Mark as finished
How to read the book after purchase
Font:Smaller АаLarger Aa

Principio #2: los mercados pequeños no resuelven las necesidades de crecimiento de las empresas grandes

Las tecnologías de punta típicamente permiten la aparición de nuevos mercados. Existen evidencias significativas que muestran que las empresas que logran ingresar a estos mercados emergentes con la suficiente anticipación obtienen ventajas significativas sobre las que lo hacen después. Y sin embargo, cuando estas compañías logran volverse más grandes, se les hace progresivamente más difícil ingresar a los pequeños mercados aún más nuevos que vayan surgiendo, y que están destinados a convertirse en grandes en el futuro.

Para lograr mantener los precios de sus acciones en un nivel conveniente y crear oportunidades internas para que sus empleados extiendan el alcance de sus responsabilidades, las compañías exitosas deben seguir creciendo. Pero mientras que una compañía de u$s 40 millones necesita obtener solamente u$s 8 millones de ingreso para crecer un 20% durante el año siguiente, una compañía de u$s.4.000 millones necesita recaudar u$s 800 millones en concepto de nuevas ventas. Ningún mercado nuevo es tan grande. En consecuencia, cuanto mayor y más exitosa se hace una organización, más débil se hace la argumentación de que los mercados emergentes pueden convertirse en motores útiles para impulsar su crecimiento.

Muchas empresas grandes adoptan la estrategia de esperar hasta que los mercados nuevos se hagan “lo suficientemente grandes como para resultar interesantes”. Pero la evidencia presentada en el Capítulo 6 mostrará por qué razones esta no resulta a menudo una estrategia útil.

Aquellas firmas grandes ya establecidas que han logrado tener éxito en alcanzar una posición importante en los nuevos mercados creados por las tecnologías de punta, lo han conseguido asignando la responsabilidad de comercializar los nuevos productos a otra organización cuyo tamaño concuerde con el del mercado emergente. Las organizaciones pequeñas pueden responder más fácilmente a las oportunidades de crecimiento en un mercado reducido. Existe fuerte evidencia respecto de que las asignaciones, tanto formales como informales de recursos, hacen muy difícil para las organizaciones grandes concentrar la energía y el talento adecuados para los mercados pequeños, aun cuando la lógica sugiera que estos puedan algún día llegar a ser grandes.

Principio #3: no se pueden analizar aquellos mercados que aún no existen

La investigación concienzuda de mercado y la buena planificación seguida de una ejecución acorde con el plan constituyen todas características distintivas del buen management. Cuando estas prácticas se aplican a las innovaciones tecnológicas sostenidas, pueden resultar invalorables; son la primera razón, de hecho, por la que las firmas debidamente establecidas mantuvieron su liderazgo en cada instancia específica de innovación sostenida que hubo en la historia de la industria de las unidades del disco. Estos enfoques razonados son viables al operar con tecnologías sostenidas, porque el tamaño y las tasas de crecimiento de los mercados generalmente se conocen, se han establecido además las trayectorias de los progresos tecnológicos, y las necesidades de los principales clientes ya han sido generalmente bien articuladas. Debido a que la vasta mayoría de las innovaciones son de carácter sostenido, los ejecutivos ha aprendido a manejar la innovación en un contexto sostenido, donde el análisis y el planeamiento resultan factibles.

Al tener que ocuparse de tecnologías de punta conducentes a nuevos mercados, sin embargo, los investigadores de mercado y los planificadores de negocios logran notas consistentemente más bajas. De hecho, basándonos en la evidencia obtenida en las industrias de las unidades de disco, las motocicletas y los microprocesadores, examinadas en el Capítulo 7, la única cosa que podemos dar por segura cuando leemos los pronósticos de los expertos acerca del tamaño que tendrán finalmente los mercados emergentes es que estas cifras muy probablemente sean erróneas.

En muchas instancias, el liderazgo con relación a las innovaciones sostenidas –es decir, aquellas acerca de la cuales se conoce la información y para las cuales se puedan efectuar planes– no resulta competitivamente importante. En tales casos, a los que adoptan estas tecnologías sostenidas les va casi tan bien como a los líderes de las mismas. Es en las innovaciones de punta, cuyo mercado se conoce menos, donde existen ventajas para el que lleva a cabo los primeros movimientos. Este es el dilema que debe afrontar el innovador.

Las compañías grandes, cuyos procesos de inversión requieren de la cuantificación del tamaño de los mercados y los retornos financieros como condición previa al ingreso a un sector determinado, se paralizan o cometen serios errores cuando se ven enfrentadas a tecnologías de punta. Sus procesos previos requieren información de mercado cuando en la práctica esta no existe, y evaluaciones basadas sobre proyecciones financieras cuando no resulta posible conocer, de hecho, ni los ingresos ni los costes. La utilización de técnicas de planificación y marketing que hayan sido desarrolladas para administrar tecnologías sostenidas en el contexto absolutamente diferente de las tecnologías de punta resulta un mero ejercicio de prueba y error.

El Capítulo 7 aborda un enfoque diferente para la estrategia y la planificación: enuncia la ley de que tanto los mercados correctos como las estrategias adecuadas para explotarlos no pueden ser conocidas con anticipación. El nombre de “planificación basada en descubrimientos” sugiere que los managers den por sentado que los pronósticos son erróneos, en lugar de correctos, y que la estrategia que han elegido puede también estar equivocada. Invertir y gerenciar bajo tales supuestos obliga a desarrollar planes para aprender qué necesita ser conocido, una manera mucho más efectiva de confrontar las tecnologías de punta con éxito.

Principio #4: la provisión de tecnologías puede no ser igual que la demanda de mercado

Las tecnologías de punta, aunque inicialmente puedan ser utilizadas solamente en pequeños mercados alejados de los principales, son de punta justamente porque a posteriori pueden hacerse totalmente competitivas en el mercado principal, en lo que respecta a desempeño, comparadas con los productos tradicionales. Como se muestra en la Figura I.1 (en la página 26), esto sucede porque el ritmo del progreso tecnológico de un producto frecuentemente excede la velocidad con que se generan las solicitudes de mejoras por parte de sus usuarios principales. Como consecuencia, los productos cuyas características y funcionalidad se aproximen a lo que estos mercados necesitan en un momento determinado, por lo general siguen una trayectoria de mejoras en la cual, en algún punto futuro, excederán las necesidades de tales mercados en esa nueva circunstancia. Y los productos que al principio presentaban serios problemas de desempeño, relativos a las expectativas de los clientes presentes en los mercados principales, pueden tornarse en un futuro no demasiado lejano absolutamente competitivos para esos mismos mercados.

El Capítulo 8 muestra que cuando esto sucede, en mercados tan diversos como los de las unidades de disco, el software de contabilidad o el tratamiento de la diabetes, las pautas de competitividad –los criterios según los cuales los clientes seleccionan un producto en lugar de otro– se modifican. Cuando dos o más productos competitivos han mejorado más allá de lo que requiere el mercado, los clientes pueden no basar ya su elección en el parámetro del desempeño. La base para la elección de un producto a menudo se trasladará primero desde su funcionalidad a su confiabilidad, después a su conveniencia y, finalmente, a su precio.

Muchos estudiosos de los negocios han descrito fases del ciclo de vida de un producto de diferentes maneras. Pero el Capítulo 8 plantea que el principal mecanismo que gobierna los desplazamientos de un producto es el fenómeno por el cual el desempeño del mismo comienza a exceder las demandas de su mercado.

En sus esfuerzos por permanecer a la cabeza de su sector desarrollando productos competitivamente superiores, muchas empresas no aprecian la velocidad con la cual se están desplazando hacia arriba en el mercado, satisfaciendo en demasía las necesidades de sus clientes originales mientras corren contra la competencia en busca de mercados que requieran mejor desempeño y donde los márgenes puedan ser mayores. Al hacer esto, crean un vacío en ciertas zonas donde se requieren precios más bajos, a las cuales pueden ingresar entonces competidores que emplean tecnologías de punta. Sólo aquellas compañías que midan cuidadosamente las tendencias respecto de cómo sus clientes más importantes utilizan sus productos, podrán darse cuenta a tiempo de las zonas en las cuales las pautas de la competitividad serán proclives a cambiar en los mercados que son atendidos por ellas.

¿Dónde podrán aparecer las tecnologías de punta la próxima vez?

Algunos managers e investigadores que ya se encuentren familiarizados con estas ideas, seguramente han arribado a este punto de la explicación en un estado de ansiedad, porque la evidencia de que hasta los mejores managers tropezaron alguna vez cuando sus mercados fueron invadidos por tecnologías de punta, resulta muy contundente. Es obvio que querrán saber lo antes posible si sus propios mercados pueden resultar objeto del ataque de las tecnologías de punta y cómo pueden ellos defender su negocio antes que sea demasiado tarde. Otros, interesados en encontrar oportunidades de nuevos emprendimientos, se preguntan cómo pueden hacer para identificar las tecnologías potencialmente de punta en torno de las cuales se puedan establecer nuevas empresas y mercados.

 

El Capítulo 9 plantea estas cuestiones de manera poco convencional. En lugar de ofrecer una lista de comprobación con preguntas para ser formuladas o análisis para efectuar, crea un caso de estudio sobre un problema, particularmente molesto para determinadas empresas, pero bien conocido en la innovación tecnológica: el vehículo eléctrico. He asumido aquí el papel del protagonista: el manager del programa responsable del desarrollo del producto en una compañía automotriz importante, que se ve obligado a lidiar contra las disposiciones legales a fin de comenzar a vender vehículos eléctricos. Exploro primero la cuestión de si los vehículos eléctricos constituyen efectivamente una tecnología de punta y luego sugiero maneras de organizar el programa, establecer sus estrategias, y administrarlo hasta su concreción. Con la modalidad propia de todos los casos de estudio, el propósito de ese capítulo no es anticipar lo que considero la respuesta correcta a este desafío para el innovador.

El texto sugiere una metodología y una manera de pensar acerca del problema de administrar un cambio tecnológico abrupto, que en la práctica debería resultar de utilidad en muchos otros contextos.

El Capítulo 9 nos conduce por lo tanto de lleno al dilema del innovador: el descenso de las “buenas” empresas hacia el fracaso a menudo comienza invirtiendo agresivamente en los productos y servicios que desean sus clientes más lucrativos. Ninguna empresa automotriz se encuentra actualmente amenazada por los vehículos eléctricos, y ninguna de ellas tiene a consideración una incursión de sus ventas en ese terreno. La industria automovilística se encuentra saludable. Los motores de gasolina nunca han sido más confiables. Nunca antes ha habido tal grado de calidad disponible a precios tan bajos. De hecho, fuera de las reglamentaciones del gobierno, no hay razón alguna por la que debamos esperar que los fabricantes actuales de automóviles incursionen en la fabricación de vehículos eléctricos.

Pero el automóvil eléctrico es una tecnología de punta y una potencial amenaza futura. La tarea del innovador es asegurar que esta innovación –que actualmente no tiene sentido en ese mercado– sea considerada por la empresa sin poner al mismo tiempo en riesgo las necesidades de los clientes actuales que proveen rentabilidad y crecimiento. Como el Capítulo 9 lo establece concretamente, el problema puede ser resuelto sólo cuando se tomen en cuenta nuevos mercados y se proceda a desarrollarlos cuidadosamente, siguiendo las nuevas definiciones de valor, y cuando la responsabilidad por el desarrollo del negocio sea transferida a una organización específica cuyo tamaño e intereses estén cuidadosamente alineados con las necesidades específicas de los clientes de dichos nuevos mercados.

1. John McDonald, “Sears Makes it Look Easy”, Fortune, Mayo de 1964, 120-123.

2. Zinc Moukheiber, “Our Competitive Advantage”, Forbes, Abril 12, 1993, 59.

3. Steve Weiner, “It’s Not Over Until It’s Over”, Forbes, Mayo 28,1990, 58.

4. Business Week, Marzo 24, 1986, 98.

5. Thomas J. Peters y Robert H. Waterman, En busca de la excelencia, Buenos Aires, Editorial Atlántida, 1985.

6. Business Week, Mayo 9, 1994, 26.

7. Jeffrey Pfeffer y Gerald R. Salancik, The External Control of Organizations: A Resource Dependence Perspective (Nueva York: Harper & Row, 1978).

Primera parte

Por qué las grandes empresas pueden fracasar

Capítulo 1

¿Cómo puede ser que fracasen las grandes empresas?
Apreciaciones sobre la industria de los discos rígidos

Cuando comencé con mi investigación en busca de obtener una respuesta al interrogante de por qué aun las mejores empresas pueden fracasar, un amigo me ofreció un sabio consejo. “Los que estudian genética evitan trabajar con seres humanos”, observó. “Como las generaciones se renuevan más o menos cada treinta años, les lleva mucho tiempo comprender las causas y efectos de cualquier tipo de cambio. En vez de eso, se dedican a estudiar las moscas de la fruta, porque estas son engendradas, nacen, maduran y mueren, todo en un mismo día. Si quieres comprender por qué sucede una cosa en particular en el mundo de los negocios, estudia para eso la industria de las unidades de disco para ordenadores. Las empresas que encontrarás ahí constituyen lo más cercano a las moscas de la fruta que el mundo llegue a ver jamás.”

De hecho, nunca en la historia de las actividades comerciales ha habido una industria como la de las unidades de disco de ordenadores, donde los cambios de la tecnología, las estructuras del mercado, el alcance global y la integración vertical hayan sido tan penetrantes, rápidos y continuos. Aunque este ritmo y esta complejidad deben de haber resultado una pesadilla para sus managers, mi amigo tenía razón en su consideración de que esta industria constituía un terreno fértil para la investigación. Pocas ofrecen a los investigadores las mismas oportunidades de desarrollar teorías que expliquen cómo diversos tipos de cambios pueden hacer que ciertas empresas tengan éxito mientras que otras fracasan, y para comprobar estas teorías a medida que el sector repita sus ciclos de cambio.

Este capítulo resume la historia de la industria de las unidades de disco en toda su complejidad. A algunos lectores les servirá sencillamente por el interés que les pueda despertar su análisis8. Pero el verdadero valor de comprender esta historia reside en que de su complejidad emergen algunos factores sorprendentemente simples y consistentes que han sido los que determinaron de manera reiterada el éxito o el fracaso de las mejores empresas de ese sector. Puesto esto en términos sencillos, cuando las mejores firmas tuvieron éxito, fue porque prestaron la debida atención a sus clientes e invirtieron agresivamente en las tecnologías, productos y medios de producción que satisficieran las necesidades de mediano plazo de sus clientes. Pero, paradójicamente, cuando en otra ocasión las mejores empresas fracasaban, era también a causa de las mismas razones, o sea porque nuevamente prestaron la debida atención a sus clientes e invirtieron agresivamente en las tecnologías, productos y medios de producción que satisficieran las necesidades de mediano plazo de sus clientes. Ese constituye uno de los dilemas de los innovadores: seguir a rajatabla la máxima de que los buenos managers deben mantenerse en estrecho contacto con sus clientes y sus necesidades puede constituir algunas veces un error fatal.

La historia de la industria de las unidades de disco provee un marco de referencia adecuado para comprender cuándo “mantenerse cerca de los clientes” puede ser un buen consejo, y cuándo no lo es. La solidez de este marco de referencia puede constatarse solo si se investiga cuidadosamente la historia de esta industria a través del tiempo. Algunos de los detalles encontrados se describen tanto aquí como a lo largo de todo el libro, con la esperanza de que los lectores que se encuentren inmersos en las condiciones particulares de sus propias industrias puedan emerger de su lectura mejor capacitados para reconocer cómo los éxitos y fracasos de sus propias empresas y de sus competidores pudieron haber respondido a los mismos patrones generales.

Cómo funcionan las unidades de disco

Las unidades de disco recuperan y graban la información que utilizan los ordenadores. Están compuestas de: cabezales de lectura-escritura montados en el extremo de un brazo que se desplaza sobre la superficie de un disco giratorio, más o menos de la misma manera que una púa y el brazo a la que esta se halla acoplada se desplazan sobre un disco fonográfico; cilindros huecos de aluminio o vidrio revestidos de material magnético; por lo menos dos motores eléctricos, uno que gobierna la rotación de los discos a ser leídos y otro que mueve el cabezal hacia la posición requerida del disco; y varios circuitos electrónicos que controlan la operación global de la unidad de disco y su interface con el ordenador. En la Figura 1.1 se aprecia la configuración de una unidad de disco típica.

El cabezal de lectura-escritura consiste en un minúsculo electroimán cuya polaridad cambia cada vez que lo hace la dirección de la corriente eléctrica que circula por él. Esa fluctuación de la polaridad, que responde a la secuencia de bits que generaron los datos presentes en la memoria del ordenador, se transmite, de acuerdo con las leyes electromagnéticas, a la pequeña porción de disco que va quedando en cada instante justo debajo del sitio por el que pasa en ese momento el cabezal.

Fi­gu­ra 1.1. Com­po­nen­tes prin­ci­pa­les de una uni­dad de dis­co tí­pi­ca


De esta manera se van generando, en invisibles pistas concéntricas que se hallan dispuestas sobre la superficie del disco, pequeños imanes cuya polaridad positiva o negativa responde fielmente a la de la corriente que circula por el electroimán del cabezal que, como dijimos, responde a su vez a la codificación binaria –1 y 0– de los bits de datos que originaron la corriente eléctrica. Las unidades de disco recuperan la información desde los discos esencialmente de la misma manera, pero el proceso es justamente el opuesto: los campos magnéticos que generan cada uno de los minúsculos imanes presentes en el disco representan, a medida que el cabezal se desplaza sobre ellos, un flujo magnético de sentido variable: este induce en el electroimán del cabezal, también debido a leyes electromagnéticas, una diferencia de potencial, o voltaje, que genera a su vez una corriente eléctrica que constituye una réplica exacta de la que circuló cuando los datos fueron grabados en el disco. Esto representa una “lectura” electromagnética del disco, mediante la cual los datos son recuperados.

Surgimiento de las primeras unidades de disco

Un equipo de investigadores de los laboratorios de IBM en San José, California, desarrolló la primera unidad de disco entre 1952 y 1956. Denominada RAMAC (siglas de Random Access Method for Accounting and Control [Método de Acceso Aleatorio para Auditoría y Control]), era del tamaño de un refrigerador doméstico grande, constaba de cincuenta discos de veinticuatro pulgadas (61 centímetros), y podía almacenar hasta 5 megabytes (MB) de información (ver Figura 1.2). La mayoría de los conceptos fundamentales sobre la arquitectura y las tecnologías de los componentes que constituyen la base de los diseños de las unidades de disco de hoy en día fueron desarrollados también en IBM. Estas arquitecturas y tecnologías incluyen las unidades de discos rígidos removibles (introducidas en el mercado en 1961); las de discos flexibles (1971) y la arquitectura Winchester (1973). Todas ellas tuvieron una influencia poderosa y decisiva sobre la manera en que los diseñadores del resto de las empresas del sector definieron lo que constituía efectivamente una unidad de disco y lo que esta debería ser capaz de hacer.

Fi­gu­ra 1.2. La pri­me­ra uni­dad de dis­co, de­sa­rro­lla­da por IBM


Fuen­te: Cor­te­sía de IBM (In­ter­na­tio­nal Bu­si­ness Ma­chi­nes Cor­po­ra­tion).

A medida que IBM iba produciendo unidades de disco que satisficieran sus propias necesidades, fue surgiendo una industria paralela e independiente que comenzó a fabricar unidades de disco destinadas a dos mercados diferentes. Algunas firmas desarrollaron el mercado de las unidades compatibles (PCM, acrónimo de Plug-Compatible Market) en la década de los ’60, vendiendo clones de las unidades IBM a menor precio directamente a los usuarios de aquellas. Aunque la mayoría de los competidores de IBM en el mercado de los ordenadores (por ejemplo, Control Data, Burroughs y Univac) estaban asimismo integrados verticalmente en la fabricación de sus propias unidades de disco, la emergencia durante la década de los ’70 de fabricantes más pequeños y no integrados, tales como Nixdorf, Wang y Prime produjo un mercado de equipos originales (OEM, Original Equipment Manufacturer). Hacia 1976 ya se producían unidades de disco por un valor aproximado a los u$s 1.000 millones, de los cuales la producción de unidades cautivas representaba alrededor del 50 por ciento y los mercados PCM y OEM aproximadamente un 25 por ciento cada uno.

 

Durante los doce años siguientes tuvo lugar una notable historia de crecimientos rápidos, turbulencias de mercado y mejoras en el desempeño de los productos, como consecuencia de sucesivos desarrollos tecnológicos. El monto facturado por la industria de las unidades de disco rígido trepó hacia 1995 a alrededor de u$s 18.000 millones. Hacia mediados de los años 80, el mercado PCM se había vuelto insignificante, mientras que la producción de los OEM trepó hasta representar casi las tres cuartas partes de la producción mundial. De las diecisiete firmas que constituían la industria en 1976– todas las cuales eran corporaciones relativamente grandes y diversificadas, tales como Diablo, Ampex, Memorex, emm y Control Data– todas excepto IBM fracasaron o terminaron siendo adquiridas con anterioridad a 1995. Durante este período ingresaron al sector 129 firmas, de las cuales 109 también fracasaron. Fuera de IBM, Fujitsu, Hitachi y NEC, todos los fabricantes que quedaban hacia 1996 habían ingresado a esta industria como empresas nuevas y muy recientemente.

Algunos han atribuido esta alta tasa de mortalidad al casi imprevisible ritmo de cambios tecnológicos. Efectivamente, dicho ritmo ha sido impresionante. El número de megabits (Mb, la octava parte de un megabyte o mb) de información que los ingenieros de desarrollo iban siendo capaces de concentrar en una pulgada cuadrada9 se fue incrementado a razón de un 35 por ciento anual en promedio, desde 50 Kb en 1967 a 1,7 Mb en 1973, 12 Mb en 1981 y 1100 Mb en 1995. El tamaño físico de las unidades de disco se ha ido reduciendo a un ritmo similar. El volumen ocupado por la unidad de disco más pequeña disponible disminuyó de 800 pulgadas cúbicas (aproximadamente 13.000 cm3) en 1978 a 1,4 pulgadas cúbicas (23 cm3) en 1993, o sea el equivalente a una reducción anual del 35 por ciento.

La Figura 1.3 muestra que en la curva de experiencia de la industria (que compara el número acumulativo de terabytes [mil gigabytes] de capacidad de almacenamiento en disco suministrado a través de su historia con el precio en dólares constantes por megabyte de memoria) la pendiente de la misma fue del 53 por ciento, lo que en términos prácticos significa que cada vez que se duplicaba el número de terabytes, el coste por megabyte caía al 53 por ciento de su nivel anterior. Esto representa una variación mucho más abrupta de la declinación de precios que la que suministra la pendiente del 70 por ciento observada en los mercados de la mayoría de los otros productos microelectrónicos. El precio por megabyte ha ido disminuyendo en alrededor del 5 por ciento por trimestre durante más de veinte años.