viernes, 8 de abril de 2016

Un resumen de bibliografía de economías de aglomeración


FUENTES DE LAS ECONOMÍAS DE AGLOMERACIÓN: UNA REVISIÓN BIBLIOGRÁFICA




Olga Lucía Manrique*

* Profesora de la Facultad de Ciencias Económicas de la Universidad Nacional de Colombia. Estudiante del Programa de Doctorado en Economía Aplicada de la Universidad Autónoma de Barcelona. Enviar comentarios al correo: olmanriquec@unal.edu.co . Articulo recibido el 17 de octubre de 2006, aprobada su publicación el 14 de noviembre

Publicado en Cuadernos de Economía

Resumen

A partir de una revisión de la literatura sobre las economías de aglomeración se resaltan los aportes de diversos trabajos teóricos y empíricos, en particular, los que se relacionan con las causas de tales economías. Como referencias principales se toman dos trabajos pioneros, el de G. Duranton y D. Puga (2003) y el de S. Rosenthal y W. Strange (2003). El primero recopila trabajos teóricos y resume en tres categorías los mecanismos microeconómicos de las economías de aglomeración: sharing, matching y learning. El segundo recoge los trabajos empíricos y considera tres fuentes microeconómicas: input sharing, knowledge spillovers y labor market pooling.

Palabras claves: aglomeración, externalidades, participación en los beneficios, aprendizaje, emparejamiento. JEL: D62, D83, J41, R10, R12.



El tema de las economías de aglomeración ha sido estudiado por urbanistas, geólogos y economistas desde hace varias décadas. Tal como la definió William Strange (2005), "La aglomeración urbana es la concentración espacial de la actividad económica en las ciudades. También puede tomar la forma de concentración en grupos industriales o en centros de empleo en una ciudad". Se considera que la concentración espacial es una ventaja, en términos de eficiencia, para desempeñar las diferentes actividades de la sociedad (económicas, sociales, políticas, etc.), que se justifica desde el punto de vista económico por las indivisibilidades o economías de escala.

La concentración espacial de la actividad económica y de los factores productivos induce un proceso acumulativo de concentración de otros mercados y actividades, como el mercado laboral, la educación los servicios públicos. Pero este proceso está limitado por los costos de transporte y las deseconomías de aglomeración, dos temas que han atraído la atención de diversos autores pero que no detallamos en este escrito.

De manera general, las economías de aglomeración se clasifican en tres tipos: economías internas a la empresa, economías de localización y economías de urbanización. Las primeras hacen referencia a la concentración de la producción en una única empresa, las segundas se relacionan con la concentración en industrias particulares (Marshall 1890) y las últimas con el tamaño o la diversidad de la ciudad (Jacobs 1969).

Si las economías internas de escala generan la concentración en lugar de un volumen creciente de producción por parte de una misma empresa, las economías ´externas´ generan la concentración de empresas y actividades diversas sobre la base de las ventajas que se derivan de: la explotación de un capital fijo social localizado[ ...] o de recursos naturales específicos, la presencia de indivisibilidades en el suministro de bienes o servicios [ ...] , y la creación de efectos de sinergia que se manifiestan en una mejora de la eficiencia conjunta de la producción (Camagnani 2005).
Cada tipo genera una clase particular de externalidades (positivas o negativas). Entre las externalidades asociadas con las economías de localización están la posibilidad de la especialización de las empresas en el proceso productivo (menores costos globales), la reducción de los costos de transacción de las unidades productivas especializadas gracias a la proximidad y a la intensidad de las relaciones personales, las economías de aprendizaje individual y colectivo, las economías conexas al proceso de circulación y valorización, y la creación de una atmósfera industrial (economías dinámicas).

Por otra parte, la concentración de la intervención del sector público en la ciudad (concentración de capital social fijo, economías de escala en la provisión de servicios públicos), las externalidades que genera el gran mercado de la ciudad (acceso a mercados de grandes dimensiones, posibilidad de encontrar grandes nichos de especialización) y las que genera la ciudad como incubadora de factores productivos y de mercado de los factores de producción (acceso a un mercado de trabajo amplio y a funciones urbanas especializadas, oferta de capacidades empresariales y directivas, economías de comunicación e información) se asocian con las economías de urbanización.

En cuanto a las ventajas de las economías de aglomeración cabe mencionar la reducción de los costos de transacción y los efectos de sinergia. Pero, en general, se considera que a partir de cierta dimensión los elementos anteriores se convierten en deseconomías. Pensado como problema de óptimo social, se pueden dar diferentes definiciones a la dimensión crítica de la ciudad: la dimensión mínima, la dimensión óptima desde el punto de vista de los costos, la dimensión óptima en términos per cápita (dimensión óptima para la población), la dimensión óptima desde el punto de vista de la maximización de los beneficios, la dimensión óptima social y la dimensión máxima (costos y beneficios en equilibrio).

En cuanto a la dimensión mínima relacionada con el suministro de servicios urbanos hay relativo acuerdo en que es de 200 mil a 250 mil habitantes. Con respecto a la dimensión máxima eficiente vinculada al papel que desempeña la ciudad, se encuentra que ciudades de dimensión diferente desempeñan funciones diferentes, por lo que la dimensión máxima eficiente depende del papel que desempeña cada ciudad. Desde el punto de vista de los beneficios puede ser poco significativo definir la dimensión de una ciudad si no va acompañada de información sobre la estructura urbana y espacial global a la que está integrada. Esto permite entrever la dificultad para definir límites claros de las economías de aglomeración y explica por qué en el intento de definir la dimensión óptima han surgido diferentes posturas, como la económica liberal y la política radical, A pesar de la importancia de definir estos límites, la mayoría de los estudios han sido de carácter teórico, debido a las dificultades para realizar estudios empíricos concluyentes.

La importancia de las economías de aglomeración ha despertado el interés de algunos autores que intentan determinar y entender su origen (su naturaleza y sus fuentes). Como hechos principales se mencionan las ventajas naturales de las industrias y la aparición de rendimientos crecientes a escala externos. En este último caso, se señala como causas principales a factores tales como sharing , matching y learning . Para los fines de este escrito nos centramos en dos trabajos pioneros, el de Gilles Duranton y Diego Puga (2003) y el de Stuart Rosenthal y William Strange (2003). Los dos hacen excelentes revisiones, una desde el punto de vista teórico y la otra desde el punto de vista empírico.

ASPECTOS TEÓRICOS

En su artículo de 2003, Duranton y Puga revisan los trabajos teóricos sobre las economías de aglomeración elaborados a partir de los fundamentos microeconómicos, y especifican tres tipos: sharing (relación entre oferentes de bienes intermedios y oferentes de bienes finales), matching (interacciones en el mercado de trabajo) y learning (aprendizaje).

Sharing

En el caso de sharing muestran que existe una abundante literatura cuyo problema central es la provisión de ciertos bienes o servicios indivisibles y se enfocan en los conceptos de equilibrio y en los instrumentos de política 1. Se ha relacionado el concepto de sharing con las ganancias compartidas que genera la variedad ; a este respecto, los autores prestan especial atención al modelo de Ethier (1982) 2, que describe una industria cuyos rendimientos agregados son crecientes debido a las ventajas productivas de compartir una amplia variedad de insumos intermedios diferenciados. Los rendimientos crecientes en un sector obedecen a que un incremento del factor trabajo puede estar asociado con una mayor cantidad de productores intermedios, lo que hace más productivos a los productores finales por el acceso a un rango de variedades más amplio. "Un incremento de la producción final en virtud de compartir una mayor variedad de oferentes intermedios requiere un incremento menos que proporcional de los factores primarios" (Duranton y Puga 2003).

La especialización urbana se justifica porque los insumos son compartidos en los sectores y no entre ellos, y porque el intercambio de bienes finales es menos costoso mientras que el intercambio de bienes intermedios es infinitamente costoso.

Por otro lado, hay autores 3 que postulan, siguiendo a Adam Smith (1776), que hay ganancias de productividad como resultado del aumento de la especialización cuando los trabajadores se dedican a una sola tarea (Duranton y Puga las denominan ganancias de la especialización individual). Hay tres elementos que las explican, en primer lugar el proceso de learning by doing , ya que cuando hacen la misma tarea los trabajadores mejoran su destreza para dicha tarea; en segundo lugar, el ahorro de costos fijos por no cambiar de tarea a los trabajadores y, finalmente, el fomento a las innovaciones por el ahorro de trabajo, ya que las tareas más simples se pueden mecanizar más fácilmente. A partir de este argumento, se concluye que existen rendimientos crecientes al nivel de ciudad. "En el modelo, un incremento del tamaño de la fuerza de trabajo lleva a una profundización de la división del trabajo entre los trabajadores, lo que hace más productivo a cada trabajador. Sin embargo, hay ganancias de la división del trabajo que están limitadas por la extensión del mercado de trabajo" (Duranton y Puga 2003, 14).

Un mecanismo alternativo que se ha reconocido como fuente de economías de aglomeración es el labor pooling . La idea central es que una industria tiene ventajas que se traducen en mayores ganancias por el hecho de ofrecer un mercado constante para las destrezas de los trabajadores. A partir del modelo de Krugman (1991), que formaliza esa idea, se encuentra que la aversión al riesgo no juega ningún papel en el proceso de aglomeración. En las ganancias por compartir recursos entre firmas puede influir el desconocimiento ( ex ante ) de las firmas del monto de recursos que necesitan en su proceso productivo. En el esquema de salarios ´pegajosos´ con posibilidad de desempleo se refuerza la tendencia de las firmas y de los trabajadores a aglomerarse. En este caso los trabajadores tienen un mayor incentivo para minimizar el riesgo de quedar desempleados; por su parte, las firmas tienen mayor incentivo para aglomerarse con el fin de evitar presiones de la fuerza laboral cuando enfrentan choques positivos. El comportamiento estratégico de las firmas en el mercado laboral puede complicar los resultados, en particular, la posibilidad de poder de monopsonio debilita la tendencia de las firmas a aglomerarse.

Learning

Duranton y Puga definen el aprendizaje en sentido estricto como un proceso de tres etapas: enseñanza, entrenamiento (formación) e investigación. En este sentido, el aprendizaje es valioso en términos de sus fuentes y por su contribución al desarrollo económico. Puesto que es una actividad que se desarrolla de manera colectiva, las ciudades pueden facilitar el aprendizaje; aunque los mecanismos de aprendizaje pueden generar efectos de aglomeración en las ciudades, como insinuó Marshall (1890), las ciudades favorecen la difusión de innovaciones e ideas, y también Jacobs (1969) con el argumento de que el ambiente de las ciudades mejora las posibilidades de generar nuevas ideas. Por su parte, Lucas (1988) considera que las ventajas que ofrecen las ciudades no son únicamente técnicas, favorecen además la adquisición de destrezas y aumentan la generación, difusión y acumulación de conocimientos.

En cuanto a la generación de conocimiento es crucial considerar el papel de los ambientes urbanos diversificados para facilitar la investigación y la experimentación en innovación (Jacobs 1969), (Duranton y Puga 2001) construyen un modelo que justifica la coexistencia de ciudades diversificadas y especializadas y la aglomeración de firmas, y concluyen que "la combinación de economías de localización con costos de congestión crea ventajas estáticas para la especialización urbana" (Duranton y Puga 2001, 31).

La difusión de conocimiento se relaciona con la transmisión de destrezas, la difusión de información y la difusión de conocimiento propiamente dicha. Algunos modelos, como los de Jovanovic y Rob (1989), Jovanovic y Nyarko (1995) y Glaeser (1999) analizan la transmisión de destrezas y encuentran que la proximidad a individuos con más destrezas o conocimientos facilita la adquisición de destrezas y el intercambio y difusión de conocimientos. A partir de un modelo de generaciones traslapadas, Duranton y Puga (2003) encuentran que los trabajadores jóvenes eligen vivir en ciudades para adquirir destrezas y que los trabajadores cualificados permanecen en las ciudades para transmitir sus destrezas y habilidades. Sin embargo, afirmar que las ciudades ofrecen mejores oportunidades de aprendizaje es un supuesto, más que la derivación de una microestructura bien especificada.

Con respecto a la difusión de información y su relación con las ciudades, hay dos tendencias, la primera se fundamenta en el aprendizaje social y cuenta con una fuerte microfundamentación (Vives 1996, Bikhchandani, Hirshleifer y Welch 1998, Sobel 2000). Sus modelos tienen dos propiedades importantes: la posibilidad de rebaño ineficiente y la posibilidad de retraso estratégico. En el primer caso, los modelos de Banerjee (1992), Bikhchandani, Hirshleifer y Welch (1992) obtienen resultados de rebaño ineficiente porque las firmas reciben señales equivocadas en forma secuencial que las llevan a tomar decisiones equivocadas. Cada firma recibe información privada sobre la decisión que debe tomar. Las firmas toman sus decisiones secuencialmente a partir de las decisiones previas. La primera firma toma su decisión de acuerdo con la información privada que ha recibido, la segunda no sólo utiliza su información privada sino también la información sobre lo que hizo la primera, el proceso continúa sucesivamente de modo que si las primeras firmas reciben señales equivocadas las demás harán lo mismo porque dan más peso a la información sobre las acciones de las demás que a su información privada.

Con respecto al retraso estratégico , Chamley y Gale (1994) encuentran –en un esquema en el que el tiempo de decisión es endógeno–que las firmas prefieren esperar a que otras tomen sus decisiones de inversión, pues le es beneficioso esperar para aprender de las decisiones de las demás 4. Cuando el tiempo de decisión es exógeno no hay efectos de escala, generalmente la decisión se cristaliza después de pocos periodos, sin que importe el número de jugadores.

Por último, en lo referente a la acumulación de conocimiento, se suele utilizar modelos de crecimiento económico que incorporan el conocimiento como factor de acumulación y, de manera más específica, como capital humano. Los modelos de Romer (1986), Palivos y Wang (1996), Ioannides (1994), Black y Henderson (1999), Lucas (1988), y Eaton y Eckstein (1997) dan diferentes opciones de modelación, desde las más sencillas con los supuestos de economías con rendimientos constantes individuales y rendimientos crecientes a nivel agregado, pasando por economías con crecimiento de la población, hasta la modelación del crecimiento urbano utilizando externalidades dinámicas.

Matching

Cuando nos referimos al matching 5 delimitamos el estudio a un mercado particular, el mercado laboral, y en esencia nos referimos a la forma como se ´emparejan´ empleadores y trabajadores. Las economías de aglomeración pueden surgir por dos razones, porque la calidad de cada emparejamiento (match) mejora cuando aumenta el número de agentes que tratan de emparejarse (externalidad del emparejamiento, Helsley y Strange 1990 6) y por el ahorro de costos fijos cuando la competencia lleva a que el número de firmas crezca menos que proporcionalmente con la fuerza de trabajo.

Un aspecto que resaltan Duranton y Puga es que el problema del matching muestra que las economías de aglomeración van más allá de la mera presencia de rendimientos crecientes a escala, y que también las pueden originar externalidades que incrementan el ingreso por trabajador. "Cuando la fuerza de trabajo crece y el número de firmas aumenta, el trabajador promedio puede encontrar un empleador que es una mejor pareja para su destreza" 7.

El modelo de Helsley y Strange (1990) ha sido extendido en diferentes direcciones. Por ejemplo, el modelo de Brueckern et al. (2002) muestra que la relación entre hogares y mercado laboral es compleja. Kim (1989) modifica el modelo permitiendo que los trabajadores inviertan en capital humano general (reduciendo los costos de no emparejarse) o en capital humano específico (aumentando la productividad en habilidades específicas), y encuentra que cuando el tamaño de los mercados locales aumenta, la inversión en capital humano específico aumenta en relación con la inversión en capital humano general, lo que denomina "especialización creciente con el tamaño de la ciudad" 8.

Otros autores introducen características dinámicas en el modelo, como Helsey y Strange (1991) que consideran un modelo de dos períodos, y Zhang (2002), que lo extiende a un horizonte de tiempo infinito. Con un enfoque distinto, Ellison, Fudenberg y Möbius (2002) exploran un mecanismo de aglomeración en el contexto de subastas competitivas y consideran la elección simultánea de compradores y vendedores entre dos mercados competitivos. A partir de la elección de un mercado, los compradores conocen sus valoraciones privadas y se efectúa una subasta en cada mercado, y encuentran que cuanto más grandes son los mercados más eficientes son para una razón comprador a vendedor dada.

Storper y Venables (2002) consideran que las ciudades mejoran la calidad de los emparejamientos. En su modelo, los trabajadores se emparejan al azar con otro trabajador local para llevar a cabo ciertas tareas. Los trabajadores con alta destreza y los trabajadores con poca destreza son más productivos cuando se emparejan con trabajadores con alta destreza. Sin embargo, las ganancias productivas de tener una pareja con alta destreza son mayores para los trabajadores con alta destreza.

Por último, los modelos que relacionan la aglomeración urbana con el hecho de que un mayor número de agentes que tratan de emparejarse mejora la oportunidad de hacerlo incorporan elementos del desempleo de equilibrio en los que la búsqueda de empleo y el reclutamiento están sujetos a fricciones (Mortensen y Pissarides 1999, Petrongolo y Pissarides 2001). "Un incremento del número de agentes en una ciudad reduce las fricciones de búsqueda y resulta en proporciones más pequeñas de trabajadores desempleados y vacantes sin llenar. De manera más general, un incremento de todos los insumos asegura que una proporción más pequeña de estos insumos permanezca ociosa" (Duranton y Puga, 25) 9.

ASPECTOS EMPÍRICOS

En su artículo de 2003, Rosenthal y Strange revisan los trabajos empíricos sobre la naturaleza y las fuentes de las economías de aglomeración. Con relación a las fuentes y desde el punto de vista de los microfundamentos, consideran las que sugirió Marshall (1920), los insumos compartidos ( input sharing ), los procesos de aprendizaje ( knowledge spillovers ) y la agrupación del mercado laboral ( labor market pooling ).

Sharing

Compartir insumos (sharing) se justifica por la existencia de economías de escala en su producción. El trabajo de Holmes (1999) considera la relación entre localización de una firma e insumos compartidos en el caso de Estados Unidos, primero con un cálculo de la desintegración vertical de las industrias consideradas en el estudio, y luego con un análisis de regresión. En el primer caso, el grado de desintegración vertical, que utilizan como medida de insumos compartidos, se obtiene dividiendo los insumos comprados por las ventas totales. El resultado corresponde a la intensidad de insumos comprados. En este caso, el análisis muestra que las industrias más concentradas comparten insumos. En el análisis de regresión, la variable dependiente es la diferencia entre intensidad de insumos comprados e intensidad promedio de insumos comprados en la industria. Las variables explicativas son el volumen de empleo en la industria en el mismo Estado y en otros Estados. En este caso, el resultado también indica que se comparten insumos. Por tanto, Holmes encuentra evidencia de una relación positiva entre desintegración vertical y concentración industrial.

Aunque Rosenthal y Strange reconocen que el trabajo de Holmes ofrece la evidencia más directa y completa de insumos compartidos como fuente de las economías de aglomeración, piensan que el estudio sobreestima la influencia causal de la aglomeración sobre las oportunidades para compartir insumos (la localización de la planta es endógena en el modelo econométrico). No obstante, los resultados de Holmes apoyan la presencia de insumos compartidos como fuente de las economías de aglomeración.

Otros trabajos que aportan evidencia en este sentido, aunque no de manera directa, son los de Bartlesman et al. (1994), Holmes y Vernon (1960), y Stevens (2002); este último utiliza el tamaño del establecimiento como variable explicativa. Todos muestran fuerte evidencia de insumos compartidos como fuente de las economías de aglomeración.

Knowledge Spillovers

Para Rosenthal y Strange este es el más interesante de los fundamentos microeconómicos en diferentes áreas de la teoría económica. Pero son conscientes de la dificultad de identificarlo empíricamente, entre otras cosas porque el conocimiento muchas veces se intercambia sin comprarlo o venderlo, lo que impone un desafío a los econometristas que intentan medir el conocimiento.

El trabajo de Jaffee et al. (1993) intenta medir el conocimiento de manera directa, aunque no muestra claramente su relación con la aglomeración o la productividad. Otros trabajos (Audretsch y Feldman 1996) intentan determinar el efecto de las características industriales sobre la innovación, considerando el impacto de la aglomeración. Los resultados son compatibles con la presencia de procesos de aprendizaje. Mediante un análisis de regresión de la concentración espacial de la actividad innovadora condicionada por el número de atributos específicos locales e industriales, incluidos la investigación en las universidades, los gastos en investigación y desarrollo, y la disponibilidad del trabajo cualificado, obtienen resultados que confirman que el conocimiento orientado a las industrias que más concentran espacialmente la actividad innovadora es consistente con la presencia de knowledge spillovers.

Los trabajos de Rauch (1993), Acemoglu y Angrist (1999) y Moreti (2000) sugieren que las externalidades del capital humano dependen altamente de los trabajadores con alto nivel educativo, siguiendo la idea de Marshall de que los trabajadores son el principal mecanismo de transmisión del conocimiento 10. Rauch estudia el impacto del nivel promedio de educación sobre los salarios y las rentas. Usando un modelo hedonista muestra que la presencia de buenos efectos generales puede aumentar los salarios donde los niveles promedio de educación son altos, porque los trabajadores serán más productivos y los empleadores estarán dispuestos a pagar salarios altos. Además, las rentas serán más altas porque la productividad ligada a salarios más altos se capitalizará en los precios. Una objeción a los estudios de los efectos de los niveles de educación sobre los procesos de aprendizaje es que no especifican el canal de interacción.

Labor Market Pooling

Cuando se hace referencia a la agrupación del mercado laboral ( labor market pooling ) caben dos interpretaciones, como efecto urbanización (para los trabajadores es más fácil ´engranar´ en ciudades grandes) o como efecto localización (para los trabajadores es más fácil ´engranar´ en industrias concentradas). Algunos estudios han intentado determinar empíricamente el efecto de la calidad del emparejamiento entre trabajadores y empresarios sobre las economías de aglomeración. Aquí también los econometristas tienen dificultades para calcular la calidad del emparejamiento.

Una posibilidad es calcular las tasas de terminación de los emparejamientos; en ausencia de un buen reemplazo es menos probable que una firma despida a un trabajador, sin importar la calidad del emparejamiento. Otra alternativa es considerar la rotación de empleos; en este caso la hipótesis de agrupación del mercado laboral implica que los trabajadores pueden cambiar de trabajo fácilmente y que las firmas pueden cambiar de empleados con igual facilidad. Otra manera puede ser la de examinar la influencia de la especialización el trabajo: el estudio de Baumgartner (1988b) muestra que la aglomeración puede fomentar la especialización .

Una interpretación alternativa del labor market pooling lo asocia con el riesgo . Cuando los trabajadores eligen trabajar en una ciudad particular para un empleador particular, las firmas y los trabajadores enfrentan dos clases de riesgos. El primero, asociado a la relación específica firma-trabajador, consiste en que por razones de emparejamiento la relación pueda terminar. Cuando los requerimientos de una firma y las destrezas de los trabajadores son específicas a las industrias, el emparejamiento entre empresarios y trabajadores es más fácil en las industrias más concentradas. Así, el riesgo específico se puede reducir por efectos de localización.

El segundo es específico a una industria. La localización en ciudades especializadas expone a los trabajadores a grandes riesgos, pues en caso de perder el empleo no encuentran otro fácilmente si los demás empleadores del área están afectados por el mismo choque negativo. Por tanto, la localización en una ciudad especializada los expone a riesgos mayores. De modo que un choque en industrias específicas puede desalentar la localización, mientras que los choques de emparejamientos específicos pueden alentarla. Aquí surge una pregunta ¿cuál es el impacto del grado de especialización sobre el mercado laboral?

En esta línea de investigación, Simon (1988) examina la relación entre tasa de desempleo y especialización de la ciudad. Con ayuda de un índice de Herfindahl muestra que el desempleo es mayor cuanto más especializada es una ciudad, lo que coincide con el hecho de que los choques en industrias específicas son importantes. El mayor riesgo que enfrentan los trabajadores en una ciudad especializada requiere salarios más altos como compensación. En otro estudio, Diamond y Simon (1990) muestran que en ciudades más especializadas los trabajadores demandan salarios más altos, asociados a medidas específicas de la variabilidad cíclica del empleo en una industria. Por su parte, Costa y Kahn (2000) concluyen que el riesgo es menor y los emparejamientos son mejores en ciudades grandes a partir de un estudio de parejas con cierto grado de estudios en el periodo 1940-1990. Moretti (2000) encuentra que si la productividad de mayores niveles de educación es crucial para el desempeño económico (y los matrimonios se mantienen) las ciudades más grandes tienen ventajas de productividad en relación con las ciudades pequeñas. En la siguiente sección se describen con más detalle estos cuatro estudios.

EXTENSIONES: MATCHING Y ESTRUCTURA DE LAS CIUDADES

Para Simon (1988), la estructura industrial de las ciudades juega un papel importante en la determinación de la tasa nacional de desempleo. A partir de un trabajo empírico para 91 grandes áreas metropolitanas de Estados Unidos durante el período 1977-1981 encuentra que la tasa de desempleo friccional en una ciudad es menor cuanto más diversificada industrialmente es la ciudad 11. Su análisis supone que las fluctuaciones del empleo tienen componentes cíclicos, estacionales, seculares y friccionales 12. Como indicador de la diversidad industrial utiliza un índice de Herfindahl y encuentra una relación negativa significativa entre diversidad industrial y tasa de desempleo de la ciudad. Las ciudades más concentradas de la muestra tienen una tasa de desempleo friccional de cerca de 1,4 puntos porcentuales por encima del promedio, mientras que las ciudades diversificadas tienen una tasa de desempleo friccional de cerca de un punto porcentual por debajo del promedio.

En un trabajo posterior, Diamond y Simon (1990) extienden el estudio para determinar los efectos de la especialización de las ciudades sobre los salarios y el desempleo. Su argumento es que las ciudades más especializadas corren el riesgo de un desempleo mayor y, a partir de la teoría de la compensación de los salarios diferenciales, concluyen que los individuos que viven en ciudades más especializadas son compensados con tasas de salarios más altas. La diversidad de oportunidades de empleo potencial crea un efecto portafolio en el mercado laboral. Así, las ciudades más diversificadas industrialmente tendrán menores tasas de desempleo en promedio; mientras que las más especializadas tendrán tasas de desempleo más altas. Con ayuda de una medida de riesgo en el mercado laboral 13, examinan la relación con la especialización industrial. Cada ciudad tiene un portafolio de industrias, y en cada industria fluctúa la tasa de crecimiento del empleo 14.

Además construyen un índice de Herfindahl para medir la especialización industrial (que mide el riesgo de empleo de un trabajador típico en una ciudad), y encuentran que una ciudad diversificada (en un conjunto de industrias cuyo empleo tiene correlación alta y positiva) es más riesgosa que una ciudad igualmente diversificada cuyas industrias no están correlacionadas, aunque aclaran que sus índices de especialización no miden totalmente el riesgo de empleo. En su trabajo empírico establecen la relación entre salarios, desempleo y especialización industrial en 43 áreas metropolitanas de Estados Unidos, considerando individuos de 20 a 65 años que hayan sido empleados de tiempo completo al menos durante 26 semanas. También tienen en cuenta el tamaño de las firmas y el ciclo de los negocios. Los resultados del modelo econométrico indican que los individuos que viven en ciudades más especializadas tienen una probabilidad de desempleo más alta y tasas de salarios más altas como compensación. El trabajo aporta fuerte evidencia a favor de la hipótesis de compensación de salarios diferenciales por el aumento del riesgo de desempleo debido a la especialización de las ciudades.

Costa y Kahn, desde una perspectiva algo distinta (enfoque del capital humano), intentan determinar si las parejas (matrimonios) con cierto grado de escolaridad tienden a localizarse en grandes áreas metropolitanas y exploran las causas posibles: la mayor urbanización de los colegios, el crecimiento de hogares con carreras duales y el problema de colocación resultante. Para los autores esta última es la razón primaria. Las ciudades pequeñas tienen pocas entradas de capital humano y, por tanto, son más pobres. Para comprobarlo empíricamente toman datos de la tendencia de la elección de localización entre ciudades grandes, medianas y pequeñas en el periodo 1940-1990, y encuentran que la colocación es la explicación más probable de la tendencia observada. Las ciudades grandes facilitan el emparejamiento de individuos altamente educados y capacitan a las parejas profesionales para resolver el problema de localización conjunta, también preservan los matrimonios de parejas con carreras diferentes porque los mercados laborales son más diversos.

Moretti, desde una perspectiva similar a la de Costa y Kahn, examina el efecto del crecimiento del nivel de capital humano total sobre la economía de una ciudad y el efecto sobre la productividad, los salarios y los precios de la tierra cuando aumenta el stock de capital humano. Analiza las ganancias sociales de la educación, haciendo énfasis en las externalidades que afectan las áreas geográficas locales. Sin embargo, encuentra que los resultados no son concluyentes, porque las ganancias sociales del capital humano pueden tener implicaciones en otras esferas (como la política) y por la gran dificultad para medir los niveles de capital humano. Para esto sugiere algunas metodologías. La primera, comparar la productividad o los costos unitarios de firmas idénticas localizadas en ciudades con altos y bajos niveles de capital humano. La segunda, identificar los spillovers comparando los precios de la tierra en ciudades con altos y bajos niveles de capital humano, y la última, comparar los salarios de trabajadores idénticos localizados en ciudades con altos y bajos niveles de capital humano. Para Moretti es muy pronto para sacar conclusiones sobre el tamaño de las externalidades, ya que aunque la literatura teórica ha estudiado ampliamente el tema, aún falta profundizar los desarrollos a nivel empírico.

CONCLUSIONES

En las últimas décadas se han publicado numerosos trabajos teóricos sobre las causas de las economías de aglomeración en comparación con los trabajos empíricos. Esto obedece en parte a la dificultad para medir las externalidades producidas por factores tales como el conocimiento, la calidad de las relaciones empresarios-trabajadores, el capital humano, y muchos otros que tienen importancia en las economías modernas, pero que por su naturaleza impiden una medición exacta para obtener resultados concluyentes de sus efectos sobre los diferentes aspectos que son objeto de estudio.

La literatura sobre los microfundamentos de las economías de aglomeración ha hecho grandes progresos desde mediados de los ochenta y la publicación de los dos primeros volúmenes del Handbook de economía regional y urbana . Los mayores progresos se observan en áreas como la organización industrial, la economía laboral y el crecimiento económico. Se considera que la heterogeneidad de los trabajadores y las firmas es la raíz de los mecanismos microeconómicos que justifican la existencia de las ciudades y, pese a su importancia, los trabajos empíricos tienen graves dificultades para representar esta heterogeneidad.

La información incompleta también juega un papel importante en las economías de aglomeración, los modelos más utilizados para representarla son los de learning , matching y sharing . La idea que da base a estos modelos es que los beneficios de las ciudades son mayores en ambientes inciertos y cambiantes. Los dos últimos mecanismos están bien desarrollados en comparación con los de aprendizaje, especialmente los knowledge spillovers , por lo que aún hay que hacer muchos esfuerzos en esta área.

A pesar de los problemas de los estudios empíricos, confirman los resultados de los estudios teóricos. En el caso del sharing , confirman el surgimiento de economías a escala debido a que las industrias comparten insumos. En el caso del matching , la especialización juega un papel importante y guarda estrecha relación con el nivel de salarios de las ciudades. En el caso del learning , la evidencia es menos concluyente, ya que no se ha encontrado una herramienta que permita medir el conocimiento de manera diferente a la del capital humano, que supone una relación directa con los niveles de educación.

Para finalizar, cabe señalar que las investigaciones empíricas sobre economías de aglomeración utilizan microdatos que permiten hacer estudios más sofisticados y estimaciones más confiables resolviendo diversos problemas econométricos.

NOTAS AL PIE

1 Aspectos relacionados con la existencia de las ciudades a partir de ´grandes indivisibilidades´ que indican rendimientos crecientes en el nivel agregado, ´grandes indivisibilidades´ en la producción (Koopmans 1957, Mills 1967, Mirrlees 1972) y ´grandes indivisibilidades´ que determinan la ubicación de los mercados.

2 Una versión del modelo de Dixit y Stiglitz (1977) desde el lado de la producción.

3 Rosen (1983), Baumgardner (1988), Becker y Murphy (1992), Duranton (1998), Becker y Henderon (2000), y Henderson y Becker (2000).

4 Otros autores estudian el uso de la tierra urbana bajo externalidades informacionales espaciales (Fujita y Ogawa 1982, Imai 1982, Helsley 1990, Ota y Fujita 1993, Lucas 2001, Berliant, Peng y Wang 2002, y Lucas y Rossi-Hansberg 2002). En este caso, las ciudades experimentan una transición de una estructura monocéntrica a una multicéntrica y completan la dispersión cuando la decadencia espacial se debilita.

5 Se hará referencia a este término como engranaje o emparejamiento, aunque el término puede tener un significado más complejo.

6 Una versión del modelo del mercado de trabajo de Salop.

7 Las habilidades de los trabajadores se distribuyen de manera uniforme sobre un círculo unitario de densidad igual a la fuerza de trabajo (Duranton y Puga 2003).

8 Tharakan y Tropeano (2001) y Amiti y Pissarides (2002) utilizan el modelo de Salop en un contexto distinto al urbano estándar, por ejemplo, en un ámbito regional.

9 Butters (1977), Hall (1979), Peters (1991), Lagos (2000), Coles (1994) y Coles y Smith (1998) justifican la función de emparejamiento agregada a partir de microfundamentos.

10 Estos trabajos sobre conocimiento y aprendizaje tienen el problema de que la evidencia sobre los mecanismos a través de los que se transmite el conocimiento no es convincente. Charlot y Duranton (2002), por ejemplo, aportan evidencia para concluir que el premio a la educación puede depender de algo diferente al conocimiento y al aprendizaje.

11 El desempleo friccional es el resultado de fluctuaciones aleatorias en los despidos y la contratación de trabajadores entre industrias, ciudades y tiempo.

12 Puesto que las fluctuaciones no están correlacionadas entre industrias, la contratación friccional en algunas industrias puede coincidir con despidos friccionales en otras.

13 Tomada de la medida de riesgo de la teoría de portafolio en finanzas.

14 La medida del riesgo es la varianza del crecimiento del empleo en cada ciudad asociada a su variedad industrial.

miércoles, 6 de abril de 2016

Como entrar a Google sin ser mano de obra calificada



Así consiguieron trabajar en Google, y no sabían nada de tecnología

La única sede de la tecnológica en España, ubicada en Madrid, cuenta con 200 empleados. La media de edad es de 32 años


ANA TORRES MENÁRGUEZ . El País


Un grupo de trabajadores de Google en la sede de Madrid. ©Jaime Villanueva


Las preguntas extrañas en los procesos de selección de Google no son un mito. Calcular cuántas pelotas de ping pong caben en el interior de un autobús de dos plantas era hasta hace unos años una de las pruebas de lógica que el candidato debía resolver in situ frente a su entrevistador. El objetivo era analizar su habilidad para salir airoso de un problema desconocido. El tema suscitó tal interés que en 2012 el autor estadounidense William Poundstone publicó el best seller Are you Smart enough to work at Google? (en español, ¿eres suficientemente inteligente para trabajar en Google?), una guía en la que desglosaba algunos de los retos de lógica más frecuentes planteados por la tecnológica en sus entrevistas.

En abril de 2015 el máximo responsable de recursos humanos de Google, Laszlo Bock, lanzó Work Rules, un libro en el que aseguraba que ese tipo de preguntas no servían para predecir el comportamiento de los candidatos en sus futuros puestos de trabajo. En su lugar, la compañía emplearía otros métodos avalados por investigaciones para tratar de detectar las posibles reacciones de los entrevistados ante situaciones reales.

LAS CUATRO ENTREVISTAS PERSONALES PARA ENTRAR EN GOOGLE


Para acceder a los procesos de selección hay que analizar los puestos que se ofertan en la web Google Carrers y enviar los documentos solicitados. En caso de que el perfil les encaje, la primera criba se efectúa mediante una llamada telefónica en inglés.
Si el candidato supera esa prueba, pasa a la siguiente fase integrada por cuatro entrevistas personales. Cada una de ellas será conducida por un empleado de Google, normalmente el responsable del departamento del puesto ofertado, el jefe de ese empleado, alguna persona con una posición similar y otra de un departamento distinto. En cada una de estas pruebas, que las realizan empleados de diferentes nacionalidades y género, se mide una habilidad concreta:
- Googleyness: se analiza la capacidad del candidato para encajar en la cultura corporativa de la compañía. Se mide su predisposición para el trabajo en equipo o para el aprendizaje autónomo, entre otras.
- General cognitive ability: consiste en una serie de preguntas sobre posibles retos y vulnerabilidades relacionados con el mundo de los negocios para analizar la capacidad de razonar e hilar argumentos lógicos del candidato.
- Liderazgo: se centra en analizar su capacidad de movilizar al resto del equipo. Se le pregunta por situaciones concretas en las que lideró la gestión de una crisis corporativa o gestionó un equipo para resolver un problema concreto.
- Conocimiento técnico del trabajo a desempeñar: en palabras del director de recursos humanos de Google España, Javier Martín, esta cuarta entrevista es la que menos cuenta a la hora de seleccionar a un candidato.
También se puede acceder a las ofertas para la realización de prácticas en las diferentes sedes internacionales en esta web.

Hoy, esa prueba, conocida comoGeneral Cognitive Ability, sigue siendo parte del proceso, pero ahora está más enfocada a la realidad del mundo de los negocios, explica Javier Martín, director de recursos humanos deGoogle España. Preguntar cuántos aviones sobrevuelan el cielo de Madriden hora punta es una de las opciones. “No se busca una respuesta exacta, sino ver cómo piensa y razona el candidato y su capacidad para identificar las variables. En el caso de los aviones, puede hacer referencia al número de compañías aéreas que operan en el país o a las conexiones del aeropuerto de Barajas”, apunta Martín.

Quienes se plantean incorporarse a Google, tienen que saber que no hace falta ser un experto en tecnología. "Hay muchos graduados que no se presentan a los procesos de selección por ideas preconcebidas que no son ciertas. No contratamos solo a ingenieros informáticos ni a frikis de la tecnología", añade el director de recursos humanos. Cada año la tecnológica recibe a escala internacional una media de 2,5 millones de inscripciones a sus ofertas de empleo.

Imprescindible es tener un buen dominio de inglés, de hecho la primera entrevista es telefónica y en ese idioma. “Una de nuestras normas es que la nacionalidad del entrevistador debe ser distinta a la del candidato”, señala Martín. Los 200 empleados de la sede de Google en España, que abrió sus puertas en 2005 en la planta 26 del rascacielos Torre Picasso en Madrid, realizan más del 50% de sus comunicaciones diarias en inglés.

En Google no se entra enviando el currículum y llamando insistentemente a sus oficinas. Solo se puede optar a las vacantes que oferta la compañía en la web Google Careers, en la que se pueden hacer búsquedas personalizadas y filtrar por ciudad o departamento.

Además de las famosas instalaciones con salas provistas de hamacas para el descanso, futbolines y comida gratuita en cualquier momento del día, en Google se pueden realizar estancias de tres meses en cualquiera de sus 70 sedes internacionales, localizadas en 40 países, o pedir el traslado. En 2015, el 10% de la plantilla de España optó por esa opción. "Incentivamos a los empleados a que cada dos años cambien de rol y para ello les formamos constantemente. Cada trabajador recibe al menos 10 horas de cursos al mes. Avanzan al ritmo de la tecnología", asegura Martín.

El perfil de cuatro trabajadores españoles de la sede de Madrid demuestra que se puede acceder con una licenciatura de letras o sin apenas conocimientos de tecnología. Estas son sus historias.


Fran Ruiz (49 años), director de relaciones internacionales


Nunca pensé que lo conseguiría; soy de letras puras


El 24 de agosto de 2006, la portada de The Economist le hizo replantearse su carrera. El tema de apertura Who killed the newspaper (en español, quién mató al periódico) vaticinaba el fin del periodismo impreso en 2043. Tras más de 19 años como periodista en varios medios nacionales, Fran Ruiz decidió ampliar su perfil profesional. Dos años más tarde, se matriculó en un curso de economía y gestión de empresas de laUniversidad de Yale, en Estados Unidos, de tres meses de duración. Pidió permiso a su periódico, en ese momento la Gaceta de los Negocios, y la empresa se hizo cargo del coste de matrícula, unos 4.500 dólares, y le mantuvo el sueldo durante la estancia.

Ese viaje cambió su rumbo. Le fichó una consultora italiana de relaciones internacionales para su sede de Madrid y un año y medio después fue seleccionado por Google. "Pasé siete entrevistas y en ninguna de ellas me hicieron preguntas raras. Se centraron en analizar mi capacidad de resolución de problemas y de liderazgo", cuenta. No se esperaba de él que tuviese nociones básicas de programación ni que supiese cómo gestionar los productos de la compañía.

"Hay que creer en uno mismo y ponerse las pilas con los idiomas, eso es lo más importante", recalca Ruiz, que acaba de cumplir seis años en Google, durante los que ha realizado estancias temporales en las sedes de California, Londres, Dublín y París. "En esta empresa te avalúan cada seis meses en función de los objetivos que alcanzas, son muy exigentes pero se preocupan mucho de tu crecimiento profesional".


Miquel Trías (32 años), analista



No lo había intentado antes porque no soy graduado en Informática


"La escala temporal en Google es totalmente diferente a la de otras empresas. Cada seis meses hay cambios y tu ritmo de aprendizaje es brutal". Miquel Trías, que se incorporó a la tecnológica hace tres años, es graduado en Física y el primer estudiante de doctorado de ondas gravitacionales en España. "Google siempre había sido el top, pero no lo había intentado antes porque pensaba que solo entraban informáticos".

Tras finalizar el doctorado, cursó un máster en dirección de empresas. "Me di cuenta de las pocas posibilidades que brinda España para la carrera investigadora y tomé otro camino", explica.

De las entrevistas en Google recuerda que no se centraron en sus conocimientos específicos, sino en su capacidad resolutiva. "Durante los cinco años de carrera aprendí a enfrentarme a problemas complicados y a diseñar soluciones creativas. De eso va la física y eso fue lo que valoraron". En la sede de España la mayoría de empleados se dedica a la parte de estrategia de negocio digital, y Miquel ya tiene la vista en Estados Unidos, donde se concentran la mayoría de departamentos de innovación. "En un par de años me gustaría sumarme al equipo de inteligencia artificial".


Anaïs Pérez (32 años), directora de comunicación



No tenía experiencia en el campo tecnológico


A Anaïs Pérez la seleccionaron para unas prácticas en el departamento de comunicación de Google apenas unos años después de su graduación. Era 2007 y habían pasado dos años desde la apertura de la sede de la tecnológica en Madrid. "No tenía experiencia en el campo tecnológico, pero buscaban a alguien que entendiese cómo funcionan los medios tradicionales y que supiese crear contenidos noticiables".

Tras licenciarse en Periodismo por la Universidad Carlos III, realizó prácticas en Telecinco y la Cadena Ser y dio el saltó a México gracias a una beca del Banco Santander. Se incorporó durante un año a un periódico local de Tehuacán. "Mi principal reto cuando llegué a Google era traducir un lenguaje y unos conceptos ininteligibles para los periodistas". Siete años y medio después, fue nombrada directora de comunicación.

Durante la carrera, Anaïs mejoró su inglés con dos estancias de tres meses en Irlanda y Londres. "Cuando entras en Google el ritmo de aprendizaje del inglés se multiplica y en pocos meses eres perfectamente capaz de comunicar cualquier asunto".


Carmen García (32 años), manager de cuentas estratégicas



Tenía que reinventarme y encajé en Google


El perfil de Carmen García destaca por su experiencia internacional. Graduada en Ingeniería Industrial por ICAI, cursó un MBA en la India y trabajó durante más de un año en la banca en Nueva York. "Por cuestiones personales regresé a Madrid y decidí intentarlo en Google".

Carmen cree que la seleccionaron por su experiencia en el campo de los negocios y por su espíritu de reinvención. En su currículum también constaba un año y medio de trabajo en una startup y casi dos años en la consultora Deloitte. "En la carrera de ingeniería falta formación en negocio, es la carencia de casi todos los ingenieros", opina. A diferencia del resto de empresas en las que ha trabajado, cree que en Google se fomenta el cambio de rol y la puesta en marcha de nuevas ideas sin miedo al fracaso. "Te permiten arriesgar. Su filosofía es la de probar y medir los resultados. Es muy difícil caer en la monotonía o aburrirse".

lunes, 4 de abril de 2016

Una revisión de la industria del software (2/12)

¿Por qué la industria del software es independiente de la industria del hardware?

Por Anne Shields • Market Realista

La industria del software en comparación con la industria del hardware


Software son instrucciones de ordenador que se almacenan electrónicamente. Los dispositivos que almacenan estas instrucciones se denominan hardware. Software y hardware están íntegramente vinculados, lo que hace que sea confuso para distinguir una de la otra. Además, el rápido avance de las tecnologías está borrando la diferencia entre el software y el hardware. El siguiente gráfico muestra la relación entre el software y el hardware y la forma en que se complementan entre sí.



Características que lo distinguen de hardware del software


  • El hardware se refiere a partes físicas del ordenador. Software se refiere a las instrucciones dadas a la computadora.
  • El hardware se puede ver, tocar y sentir en software no puede.
  • El hardware se construye utilizando componentes físicos. Software se construye escribiendo instrucciones en lenguaje de programación.
  • En caso de daño, hardware necesita ser reemplazado. Para el software, la copia de seguridad tiene que ser re-instalado cuando hay daño.
  • Los virus impactan al software, pero no el hardware. 
  • El software puede ser transferido electrónicamente a través de una red, pero el hardware no puede.
  • El hardware no puede ser duplicada. Sin embargo, muchas copias duplicadas de software se pueden hacer.


La inversión en la industria del software

Hay varios fondos cotizados (o ETF) que invierten en acciones de software y tecnología. Ejemplos populares son la tecnología Fondo Select SPDR Sector (XLK), cuyas posiciones más importantes incluyen Apple (AAPL), Microsoft (MSFT) y Verizon Communications (VZ). Otro ejemplo es la tecnología de la información Índice Fondo Vanguard (VGT) que invierte en Oracle (ORCL), Microsoft (MSFT) e IBM Corp. (IBM), así como el Fondo Índice de Tecnología de EE.UU. Sector iShares Dow Jones (IYW), cuya cima participaciones incluyen Apple (AAPL), Microsoft (MSFT) y Oracle (ORCL).

domingo, 3 de abril de 2016

Una revisión de la industria del software (1/12)

Una revisión de la industria del software

Por Anne Shields - Market Realist

¿Qué es un software?


La industria del software ha transformado la forma en las organizaciones, las empresas, e incluso la gente de coordenadas y el trabajo. Su impacto en la economía mundial ya través de diversas industrias se puede medir por el aumento de las innovaciones, el progreso técnico, el aumento de la productividad, y la mano de obra. "Software" se refiere a programa de computadora o datos (bits y bytes almacenado), que se puede almacenar electrónicamente. Es usado por el procesador de sistema para realizar distintas tareas. aplicaciones de software móviles (o aplicaciones) funcionan de la misma manera que sus contrapartes de software de ordenador. Aplicaciones están diseñadas para tareas específicas, como los juegos, sistema de posicionamiento global (GPS o), y la música.




Microsoft lidera el mercado de software

El gráfico anterior muestra la contribución de los ingresos de los diferentes actores de la industria del software. De acuerdo con Gartner, en 2013, los ingresos por software en todo el mundo se situó en $ 407,3 mil millones, en comparación con $ 388,5 millones en 2012, registrando un aumento del 4,8%. Microsoft (MSFT) sigue siendo el líder del mercado en el segmento y mantiene la cuota de mercado del 16%, seguido de Oracle (ORCL) e IBM (IBM) en el 7,3% y 7,1%, respectivamente. SAP AG (SAP) y Symantec (SYMC) se encuentran entre los diez mejores jugadores de la industria.

Se espera que el software que la industria de más rápido crecimiento en el espacio de TI


De acuerdo con Forrester, en 2014 y que la economía mejora, se espera que la industria del software para el sector de más rápido crecimiento con un crecimiento esperado del 7,1%, seguido de la tecnología de la información (o IT), consultoría y sistemas de servicios de integración en el 6,6% en el espacio de TI . consultoría de TI se refiere a los servicios de asesoramiento que ayudan a los clientes a evaluar los beneficios de las diferentes tecnologías. Ayuda a formular una estrategia de tecnología adecuada para alinearlo con las estrategias de negocio de los clientes.

La integración de sistemas se refiere al proceso de hacer diversos componentes de hardware y software trabajan conjuntamente como un sistema. Es un proceso de agregación de valor de vincular diferentes sistemas informáticos y aplicaciones de software para que las aplicaciones independientes funcionan como uno solo. La mayoría de los fondos asignados para el gasto en TI entra en el desarrollo de software, lo que indica claramente su dominio. La aparición de la nube, la computación móvil, y aplicaciones como inteligencia de negocio y análisis se aseguran de que este crecimiento no se está desacelerando.

La industria del software está involucrado en el desarrollo, marketing y ventas y es multifacético. Su ámbito de aplicación abarca desde aplicaciones de computadoras personales, sistemas operativos, herramientas de gestión de red, software de la empresa, aplicaciones de software, sistemas operativos y software personalizado.

sábado, 2 de abril de 2016

Índices de concentración de mercado




Concentración de mercado

Tutor2u

La concentración del mercado mide el grado en que las ventas en un mercado están dominados por una o más empresas

¿Cuál es la concentración del mercado y cómo se mide?
  • El coeficiente de concentraciones mide la cuota de mercado combinada de las "n" firmas en la industria.
  • Las participaciones o cuotas pueden ser por ventas, empleo o cualquier otro indicador pertinente.
  • El valor de "n" es a menudo cinco, pero puede ser de tres o cualquier otro número pequeño. Si las 'n' firmas top adquieren una alta cuota de mercado de la industria se dice que ha vuelto más altamente concentrado.

Cuota de mercado del Reino Unido en búsquedas de Google


El índice de Herfindahl-Hirschman (IHH)


Esta es una medida de la concentración del mercado. El índice se calcula elevando al cuadrado la cuota de mercado% de cada empresa en el mercado y sumando estos números.

Por ejemplo, en un mercado que consiste en sólo cuatro empresas con cuotas de 30%, 30%, 20% y 20% el índice de Herfindahl sería 2600 (900 + 900 + 400 + 400).

  • El índice puede ser tan alto como 10.000 si el mercado es un monopolio puro (100 *)
  • Cuanto más bajo es el índice más competitivo es el mercado y puede llegar a casi cero para la competencia perfecta
  • Si una industria tiene 1000 empresas cada una con una cuota de mercado de 0,1%, entonces el índice sólo habría 10 (1000 x 0,1 *).

Una de las últimas directrices sobre las concentraciones en cuenta en el Reino Unido sugiere que un mercado con una medida inferior o igual a 2.000 HHI puede caracterizarse como "altamente concentrado.

Por ejemplo, si un mercado estación de radio local constaba de dos empresas con un 40 por ciento cada uno, y de dos empresas con 10 por ciento cada uno, tendría un IHH de 3400

La calidad superior y la precisión del índice Herfindahl sobre la relación de concentración sencilla se puede ver cuando tres mercados se examinan cada uno con una relación de concentración firma de cuatro de 85%.

Supongamos que en cada mercado del 15% restante del mercado está controlado por 15 firmas cada uno con 1% del mercado.

  • Mercado A: 40% 20% 20% 5% = 85% - Índice de Herfindahl = 2440
  • Mercado B: 25% 20% 20% 20% = 85% - Índice de Herfindahl = 1840
  • Mercado C: 75% 5% 3% 2% = 85% Índice de Herfindahl = 5678

domingo, 20 de marzo de 2016

viernes, 18 de marzo de 2016

Escasez de oferta laboral en la industria informática argentina



Escasean los empleados para la industria informática argentina: faltan 5000 profesionales
En en país, el negocio del software es uno de los que más creció. Sin embargo, el mercado no llega a cubrir la demanda de expertos requeridos. El gerente de Hexacta, Pablo Viola, alerta sobre los peligros para el rubro y habla sobre la problemática en cuestión

iProfesional



La industria de software y servicios informáticos demostró un crecimiento exponencial que logró posicionarla dentro de una de las industrias más competitivas de todo el mundo. "Ya no somos los nuevos, somos reconocidos y tenemos experiencia", indica Pablo Viola, gerente de Hexacta, compañía que brinda servicios de desarrollo.
Sin embargo, este crecimiento está limitado por un obstáculo no menor: la falta de profesionales. "Estamos hablando de un problema muy serio, que puede terminar afectando una industria exitosa y reconocida mundialmente", sugiere Viola.
Según la Cámara de Empresas de Software y Servicios Informáticos de Argentina (CESSI), el sector requiere al menos a 5000 personas más para cubrir sus necesidades.
"Creemos que se necesita un esfuerzo mancomunado para acercar el mundo de la informática a todos y generar un contexto en el cual prepararse para trabajar en el sector no sea sólo elegible para unos pocos", añade Viola, "la competencia es muy dura y la Argentina tiene lo que se necesita para ser los mejores".
Para lograr una relación directa entre el mercado del Software y la esfera educativa, desde Hexacta crearon una capacitación a alumnos de informática Hexacta Labs y, a su vez, participa del Proyecto GEMA, por el cual recibe a alumnos de escuelas secundarias para que realicen prácticas profesionales en la compañía.
Según el informe anual del sector de software y servicios informáticos de la República Argentina elaborado por la CESSI, entre 2003 y 2013 el número de empresas aumentó en un 132%.
Hexacta grafica dicho crecimiento a través de su trayectoria. "Hexacta comenzó su actividad hace 15 años con sólo 4 personas y superó la  crisis de 2001, que afectó definitivamente a muchos emprendimientos locales de tecnología. Actualmente, emplea a más de 350 personas en sus cuatro sedes locales y, además, tiene oficinas en Brasil, Uruguay y Estados Unidos y forma parte del 1% de las empresas argentinas del sector que tienen más de 200 empleados", explica Viola.
Con respecto a la escasez de profesionales, Pablo Viola señala que desde la compañía se hacen cargo de esta cuestión y se comprometen a brindar su aporte para revertir la situación. "Nuestra principal apuesta es que las nuevas generaciones estén familiarizadas con la programación y que los jóvenes puedan formarse en estas profesiones desde chicos y en todos los sectores sociales", agregó.
En esa misma línea, en Hexacta Labs contribuyen a la formación de los talentos a través de cursos gratuitos que dan los profesionales de la programación a los alumnos, tanto en sus oficinas como en ambientes universitarios.

La industria informática en Argentina

La industria informática fue la que más creció en los últimos años en el país.
Es a través del número de empresas que surgieron y permanecieron activas, que es posible percibir el crecimiento, indicado por el Reporte anual del sector de software y servicios informáticos de la República Argentina elaborado por la CESSI.
Según este informe, entre los años 2003 y 2013 la cantidad de compañías del rubro, creció un 132%. Al mismo tiempo, se espera un panorama favorable para febrero de 2015 con respecto a 2014: si bien se prevé un crecimiento algo menor para las ventas totales en Pesos, se espera un crecimiento alto para los ingresos desde el exterior en USD y el empleo.
¿Cómo interpretar este dato? En primer lugar, existe un continuo aumento de la exportación de servicios y con respecto al empleo hay una alta demanda de personal calificado, lo que demuestra la buena voluntad y capacidad de crecimiento que todavía tienen las empresas especializadas.
El aumento del 5.4% del 2014 denota el crecimiento del rubro, sobre todo si se tiene en cuenta la generación del empleo privado en general en la economía argentina, que posee una caída interanual del 0.5% a diciembre de 2014.
Es por esto que el informe establece que las altas expectativas vinculadas al empleo están relacionadas a la satisfacción con demanda del personal calificado cuando no por su oferta.

jueves, 17 de marzo de 2016

Inserción exportable de la industria del software argentina

El sector de software y servicios informáticos en la Argentina: ¿Es posible una inserción exportadora sostenible?

Por Andrés López

Enlace al original

miércoles, 16 de marzo de 2016

Evolución en 2014 del mercado de software



La industria argentina de software y servicios informáticos ya es una marca país competitiva en el mundo
José María Louzao Andrade - Tiempo Argentino
 La ciencia y la tecnología son grandes pilares para el desarrollo del país.
     
  Cada vez más contribuyen a aumentar el nivel educativo y cultural, a generar beneficios para la competitividad de la economía y a favorecer la calidad de vida de la sociedad al tomar protagonismo para afrontar los retos sociales.




Es importante reflexionar acerca de la relevancia de que Argentina, y América Latina en su conjunto, cuenten con una creciente Industria de Software y Servicios Informáticos. El Instituto de Competitividad de ADEN, que realiza desde 2010 mediciones de competitividad para América Latina, toma como base diez aspectos fundamentales para evaluar competitividad, entre los que se encuentra la tecnología como indicador prioritario.
El mercado SSI (Software y Servicios Informáticos) en Argentina ha experimentado un crecimiento sostenido a lo largo de la última década. Ha crecido en un promedio de entre un 15 y 20% anual desde 2003, su facturación actual alcanza los 3700 millones de dólares, sus exportaciones están en 900 millones de dólares y hoy en día el sector emplea alrededor de 80 mil personas. Durante los últimos diez años el objetivo de CESSI ha sido impulsar el crecimiento y posicionamiento de la industria de tecnología de la información (TI) Argentina en el país y en el mundo, procurando generar valor agregado y reducir la brecha digital. Además, se ha logrado una intensa articulación de la industria con el Estado, otras industrias y sectores productivos del país y del exterior. También ha sido importante la mejora de la calidad y cantidad de recursos humanos profesionales a través de las numerosas acciones realizadas junto con universidades, centros de estudios, colegios y áreas del Estado, así como las acciones de inclusión social, digital y laboral para colaborar en alcanzar una sociedad más justa y equilibrada.
Para 2014 se estima un crecimiento del sector promedio como el que venimos observando desde 2003. Se continuarán propiciando las acciones tendientes a mejorar la calidad y cantidad de recursos humanos profesionales así como aquellas que elevan el valor a la oferta de productos de software y servicios informáticos, a través de la Investigación + Desarrollo + Innovación, el aumento en los niveles de calidad, competitividad de las empresas del sector y el posicionamiento comercial de la Marca País.
En los próximos años la industria del software continuará trabajando en los ejes de Inclusión, Innovación, Internacionalización y Transversalidad. Se espera  desarrollar acciones para incentivar aun más el crecimiento del sector y su posicionamiento nacional e internacional. El Plan Estratégico Industrial 2020, elaborado por el Ministerio de Industria de la Nación en conjunto con el sector en el año 2010, ha proyectado como metas a alcanzar por la Industria de Software y Servicios Informáticos para el año 2020: duplicar los puestos de trabajo, triplicar la facturación y cuadruplicar las exportaciones. El Estado requiere de este sector y de sus empresas que permiten integrar, con potencial asociativo en toda su cadena de valor, los distintos esquemas que las nuevas tecnologías necesitan. El software es fundamental para dar respuestas innovadoras a fin de continuar desarrollando una sociedad con mejor calidad de vida y transparencia y una economía con empresas de los distintos sectores productivos altamente competitivas. Argentina ya cuenta con una Industria SSI que hoy en día es una marca país capaz de hacer frente a los exigentes desafíos del mundo global actual.

miércoles, 2 de marzo de 2016

La educación escolar en Silicon Valley: sin WiFi ni computadoras

Sin ordenadores ni wifi: así son los colegios que triunfan en Silicon Valley
En lugares como California proliferan cada vez más los colegios sin tecnología. En España, con nuestro cuestionado sistema educativo, muchos padres también optan por métodos alternativos.

Rita Abundancia - El País


Sin ordenadores ni wifi: así son los colegios que triunfan en Silicon Valley
¿Tiene sentido enseñarles una tecnología que estará obsoleta en 10 años? Foto: Corbis


Los gurús de Silicon Valley, los cerebros detrás de Apple, Google, Yahoo o Hewlett-Packard, los que inundan el mundo con nuevos softwares y aplicaciones, envían a sus hijos a escuelas en las que los ordenadores brillan por su ausencia y el material escolar se parece más al de una comunidad Amish que al de una oficina en el laboratorio tecnológico de ideas más grande del mundo. Los mismos que diseñan tablets, juegos interactivos y programas informáticos para niños, eligen una infancia sin pantallas para sus retoños, en escuelas alternativas, libres de wifi.

La Waldorf School de Península, en California, es uno de los centros que concentran más hijos de la tecnología, con una pedagogía que apuesta por la experimentación en el mundo real, una vuelta al papel y al lápiz y un énfasis en fomentar la creatividad, curiosidad y habilidades artísticas innatas en los más pequeños. De hecho, muchos empiezan a cuestionarse el papel de la informática en las aulas. Como apuntaba The Guardian en un artículo al respecto, la Organisation for Economic Co-operation and Development (OECD), sugiere en un informe global que los sistemas de educación que han invertido mucho en ordenadores han registrado una “insignificante mejora” en sus resultados de lectura, matemáticas y ciencias, en los test del Programme for International Student Assessment (PISA); mientras, en palabras del director de educación de la OECD, Andreas Schleicher, “los mejores sistemas educativos, han sido muy cautos a la hora de usar tecnología en las aulas”.

Beverly Amico, líder de la asociación de escuelas Waldorf de Norteamérica, comentaba al mismo periódico que “sus centros enseñan a los alumnos las nuevas formas de pensar que muchos empresarios demandan” y añadía que “los estudiantes criados con tecnología acusan a menudo poca disposición para pensar de forma distinta y resolver problemas. Habilidades como tomar decisiones, la creatividad o la concentración son mucho más importantes que saber manejar un iPad o rellenar una hoja de Excel, sin contar con que la tecnología que utilizamos ahora, resultará primitiva y obsoleta en el mundo del mañana”.

Nuestro país se sitúa a la cabeza de Europa en cuanto a índices de fracaso escolar y abandono educativo, conceptos distintos. Los últimos datos de la Encuesta de Población Activa (EPA), correspondientes al 2015, pero publicados el pasado enero, alardeaban de un ligero descenso de seis puntos en la tasa de abandono educativo temprano. Algo que los expertos atribuyen al paro y a la decisión de seguir con los estudios al no haber trabajo. Aún así, España no solo sigue a la cabeza de la UE en este aspecto, sino que además duplica la media europea. Ésta y otras razones son las que han hecho que muchos padres se replanteen la educación de sus hijos y opten por escuelas alternativas, con programas educativos y planes de estudios heterodoxos, que huyen de la uniformidad, los libros de texto y la división de los alumnos por edades.

El auge de las pedagogías alternativas

Almudena García, madre y programadora informática en Girona, es la creadora del portal Ludus, un directorio de pedagogías alternativas que inició hace año y medio. García sustituyó la impersonal guardería por un grupo de crianza, en el que madres e hijos compartían un espacio de juego libre, y ahora piensa a qué colegio llevará a su hija cuando ésta cumpla los 6 años. “La economía es la que marca le educación”, comenta Almudena, “la escuela tradicional, que todavía tenemos, nace con la época industrial, en la que se demandaban individuos homogéneos, con una cultura y preparación muy similar y aptos para cumplir órdenes y no cuestionarse demasiado las cosas. Con clases en las que el profesor era el único protagonista, basadas en libros de texto y en la capacidad para memorizar determinadas enseñanzas. La pedagogía alternativa propone todo lo contrario, un trabajo basado en proyectos en los que el niño es el autor de su propio aprendizaje”.

Muchas de estas nuevas filosofías educativas florecen en la escuela infantil, lo que antes se llamaba preescolar, pero son menos las que continúan hasta una edad más avanzada, en parte por problemas legales. Según Almudena, “hasta los 6 años la ley no dice nada, pero a partir de esa edad y hasta los 16, la normativa obliga a escolarizar a los niños en un colegio homologado. Homologar un centro educativo requiere de una serie de requisitos que no están al alcance de todos, por razones económicas (polideportivo, cancha de baloncesto, tener un determinado número de váteres, un aula para cada edad o grado…), lo que hace que muchas escuelas no entren en esta categoría. Esto depende de las diversas comunidades autónomas y, la mayor parte de los casos no ocurre nada, pero si hay problemas o inspecciones, los padres son los culpables. Hace poco, los servicios sociales enviaron cartas a los padres de los alumnos de una escuela no homologada, en las que se les instaba a que los pequeños abandonaran el colegio, con la amenaza de retirarle la custodia de sus hijos; ya que tener el niño en un centro no homologado equivale al absentismo escolar. Si hay planes de que el estudiante ‘alternativo’ continúe en el mundo académico, lo que se suele hacer es matricularlo en el último curso de ESO, para que se reincorpore a la educación ortodoxa”.

Alternativas a la vieja escuela

El Tomillar, en Torrelodones, es lo que se denomina una escuela constructivista, y acoge niños hasta los 6 años, pero también una escuela infantil pública de la Comunidad de Madrid. Según Piedad Pozo, directora del centro, “en vez de que el niño se adapte al colegio, aquí pensamos que somos nosotros los que tenemos que adaptarnos al alumno y los profesores son meros mediadores en el proceso de aprendizaje. Aquí no hay libros de texto, ni fichas. No todos los niños trabajan en la misma cosa a la vez y respetamos los tiempos de aprendizaje de cada uno. Tratamos de enseñarles procedimientos en los que irán profundizando a medida que se hagan mayores. Por ejemplo, podemos hablar de los castillos y ellos deben buscar cosas, hacer dibujos, preguntar a sus padres. Empezar a investigar en la medida de sus posibilidades”.

El Bosque Escuela Cerceda, en el municipio de Cerceda, Madrid, renuncia a las aulas para que los niños aprendan en plena naturaleza. Una tendencia que nació en Alemania, donde ya hay más de mil centros de este tipo. Esta escuela admite niños de entre 3 y 6 años y cuesta 387 euros mensuales. Según Philip Bruchner, licenciado en ciencias forestales, educador infantil y director gerente y promotor de la idea, “los planes de estudios son los mismos que en un colegio normal, la diferencia es que aquí las clases son al aire libre y los niños no cargan con libros sino con una pizarra, que llevan en su mochila, además de una cantimplora, el almuerzo y ropa para la lluvia”.

Según Philip apunta, “se ha demostrado que el contacto con el aire fortalece el sistema inmunológico. En Suecia se hizo un estudio que reveló que los niños que pasan más tiempo fuera tienen menos enfermedades y faltan a clase un 8% menos que el resto. Aún así, tenemos una cabaña para los días que hace muy mal tiempo. En un medio natural se fomenta más la fantasía, la creatividad, la concentración y la autonomía a la hora de resolver conflictos”, señala este educador.

Ojo de Agua, en Alicante, más que un colegio es, como a sus miembros les gusta llamarlo, un ‘ambiente educativo’. Nació en 1999 y forma parte de la red de educación democrática. Su principal característica es que los alumnos, de entre 3 y 18 años, eligen las actividades que quieren hacer, en función de sus intereses. Según Javier Herrero, codirector del centro, los niños no solo están interesados en el baloncesto o la música, “las demandas son muy variadas: hacer una revista, idiomas, cursos de supervivencia, pero también nos piden aprender reglas de ortografía, matemáticas, grupos de lectura. Hay actividades más estructuradas para que todos los estudiantes salgan con unos conocimientos básicos y, además, preparamos para los exámenes de acceso a escuelas o a la universidad”. Como casi todos los colegios alternativos, este centro no divide por edades y dedica mucho tiempo a los padres. “Lo que fomentamos, teniendo en cuenta las diferentes individualidades, es la seguridad en uno mismo, la alegría de vivir, la iniciativa, empatía, capacidad de diálogo y escucha”, afirma Herrero. La escuela es privada y cuesta 400 € al mes.

¿Educar para un mundo feliz?

Algo en lo que casi la totalidad de los profesionales de la educación coinciden, es en la urgencia de reformar el sistema educativo español. Estela d’Angelo es psicóloga y pedagoga, además de profesora, dentro del departamento de didáctica y organización escolar, de la Facultad de Educación de la Universidad Complutense de Madrid. D’Angelo opina que “el sistema se niega a cambiar y obliga a que los alumnos sean los que deben adaptarse a él, cuando lo deseable sería lo contrario”. A grandes rasgos las críticas de esta experta se concentran en una mejor y nueva formación de los profesores; en la necesidad de dejar margen, en el sistema educativo, a la diversidad y en crear otros ambientes de aprendizaje. “Se aprende en interacción y esto es algo aceptado ya en todo el mundo. Sin embargo, la aulas todavía miran para delante, el profesor es el eje central y se trabaja muy poco en equipo”.

Según Estela los propios espacios hablan por si mismos, en un país en el que, desde fuera, los colegios se asemejan a prisiones de máxima seguridad. “En Finlandia, nación que siempre se toma como referencia del ideal educativo, las escuelas se asemejan mucho a las casas, con lugares comunes, que recuerdan a saloncitos, o cocinas donde los propios alumnos recogen y ordenan las cosas. Aquí hay un excesivo control, en aras de la seguridad, que vuelve a los niños muy dependientes. Pero, a veces es un control en cosas sin importancia o más arbitrarias, mientras luego se ven casos de acoso que no han tenido la atención necesaria”.
Por todo lo anterior D’ Angelo comprende el giro de muchos padres hacia la educación alternativa, pero apunta también un riesgo en algunas de estas escuelas, “el hecho de crear situaciones ideales y contextos en los que el alumno es siempre tenido en cuenta, respetado y donde se aceptan siempre sus gustos. A veces, algunos centros actúan como invernaderos, que aíslan a los chicos del mundo exterior y les brindan un ecosistema ideal, pero la vida real no es así y puede que cuando salgan registren un choque importante”, puntualiza esta pedagoga.

Twitter Delicious Facebook Digg Stumbleupon Favorites More

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Hostgator Coupon Code