miércoles, 20 de abril de 2016

La piratería y el efecto de red

El "efecto de red": la búsqueda de un hombre para demostrar a las empresas de software que se benefician de la piratería




Christine Dobby |  Financial Post


La búsqueda de Dale Thompson para probar el software falsificado no es piratería


Dale Thompson creó un sitio web para vender versiones falsas de software de algunos de los nombres más grandes en el negocio - pero él estaba tratando de fijar un punto, dice, y eso no lo convertía en un pirata.

"Esta palabra" piratería "se menciona tanto que la gente ha perdido el significado real de la misma", dijo el residente de Toronto, en una entrevista reciente.

"Es evidente que el sentido original de la piratería es sobre ladrones carentes de bondad recorriendo arriba y abajo de la costa, robando y el saqueando y matando a la gente de sus mercancías. Eso no es el caso de la piratería de software, ya que nadie está robando una cosa. La gente está copiando binarios, no están robando objetos físicos ".

El Tribunal Federal no estuvo de acuerdo con el Sr. Thompson - no en la definición de piratería, sino que sus acciones no afectaban la Ley de Derecho de Autor.

La gente está copiando binarios, no están robando objetos físicos
En una decisión reciente, se encontró con que infringido los derechos de autor pertenecen a Microsoft Corp., Adobe Systems Inc. y Rosetta Stone Ltd. y le ordenó pagar las empresas daños y costos de la corte por un total de $ 445.000.

Pero el señor Thompson dice que no se arrepiente de la multa considerable, porque su intención era poner de relieve una estrategia llamado el "efecto de red" que emplean los fabricantes de software para establecer una posición dominante. A través del efecto de red, según la teoría, las tecnologías se vuelven más valiosos como el número de personas que utilizan los aumentos, que a su vez aumenta el efecto hasta que se convierten en todas partes y sus propietarios más ricos y poderosos.

También fue la investigación, dijo el Sr. Thompson, para una película documental sobre el que se compromete llamado "El efecto de red: Cómo la industria del software se benefició de la piratería," que se vaya a financiar a través respaldo privado y una campaña en un sitio web de crowdfunding.

La teoría se puede utilizar para explicar fenómenos tales como el triunfo de la cinta de vídeo VHS sobre su rival Betamax y el éxito de Facebook y que ayuda a describir cómo muchas empresas la tecnología del cemento predominio de sus productos.

Que resultó ser una defensa ineficaz contra la infracción de copyright en el caso del Sr. Thompson.

En diciembre de 2011, Adobe, Microsoft y Rosetta Stone lo demandado por la publicación de las reproducciones no autorizadas de sus programas de software y arte de la cubierta en un sitio web y también su puesta a la venta en los sitios web de Kijiji y Craigslist.

El Sr. Thompson - que representó a sí mismo y presentó un escrito de contestación, pero no apareció en la corte para la audiencia - argumentó que los demandantes no se instalaron medidas de protección en su software y, de hecho tolera la piratería con el fin de aumentar la distribución y la popularidad de sus productos , ayudándoles a convertirse en actores dominantes en sus respectivos mercados, asegurando así los beneficios futuros.

No negó la evidencia que los demandantes presentaron para demostrar que había creado un sitio web con copias no autorizadas de su software ni que vende discos con software falsificado instalado para los investigadores tanto de la Business Software Alliance (un grupo de la industria de software) y Smart y Biggar quemado / Fetherstonhaugh, bufete de abogados de los demandantes.

En una decisión emitida el 18 de octubre, el juez Douglas Campbell declaró al Sr. Thompson ha infringido los derechos de autor de los demandantes en 17 trabajos separados.

El juez caracteriza su defensa como una "actitud equivocada del derecho con respecto a su conducta infractora."

Al decidir la moción de juicio sumario, que se determina sobre la base de un registro escrito y no una prueba oral, el juez Campbell encontró que no había problema real para el juicio y ordenó al Sr. Thompson para pagar los daños máximos establecidos por la legislación de derechos de autor.

A $ 20,000 por infracción, más $ 45,000 en daños punitivos y $ 60,000 en honorarios legales, el premio total fue de $ 445.000 (más intereses antes y después de la sentencia).

"No me arrepiento de hacerlo, porque he expuesto, y manifestará en mi película, ¿por qué las empresas de software están haciendo dinero con esto", dijo el Sr. Thompson, agregando que él no obtener un beneficio mediante la venta de software.

A una persona que le gustaría entrevistar por su documental es Ariel Katz, profesor de derecho en la Universidad de Toronto, que publicó un artículo de 2005 en la "perspectiva de los efectos de red sobre la política de software."

"El argumento de que el papel es que tolerar la piratería es una manera de maximizar el efecto de red totalmente sin canibalizar sus ventas", dijo Katz en una entrevista. Dijo que las personas que instalan versiones ilegales de software pueden no haber sido propensos a comprar versiones completas precio en cualquier caso.

"Usted realmente no desea excluir las personas que no están dispuestos a pagar el precio que cobran, porque si se les excluye, su red se vuelve menos valiosa", dijo. "Por lo tanto permitir o tolerar un cierto nivel de piratería le permite convertirse en un monopolio."

El Sr. Katz señaló que la teoría podría proporcionar una base para la discusión en los casos de derechos de autor, no alrededor de la ilegalidad de la piratería en sí, sino en todo el alcance de los daños y perjuicios efectivamente sufridos por los fabricantes de software en los casos de piratería.

Permitir o tolerar un cierto nivel de piratería le permite convertirse en un monopolio
Los abogados de los demandantes dijeron en un documento presentado a la corte que las alegaciones de que las empresas se beneficiaron de manera consciente o participaron "en el llamado" efecto red "son patentemente ridículo y basado en la especulación y suposiciones."

"Incluso si se benefician de lo que los demandantes entienden a la demandada a decir con" efecto red "(que se niega), dicha circunstancia no puede soportar cualquier defensa razonable a las alegaciones de infracción de los derechos de autor."

"No sólo no prueba el efecto de red, en este caso, pero no es sólo un fenómeno general probada. Porque presume que un fabricante de software quiere que la gente a utilizar el software unlicensced, "Vik Tenekjian, uno de los abogados de los demandantes, dijo en una entrevista. "La cantidad de dinero que gastan en nuestras cuentas me dice lo contrario."

Marcos Hayes, un abogado de la tecnología y los derechos de autor que está administrando director en Heydary Hayes PC en Toronto, dijo que no ha oído hablar de alguien que trata de utilizar la teoría de los efectos de red como una defensa frente a una demanda de infracción de los derechos de autor antes.

"Usted es ciertamente ninguna obligación como propietario de un derecho de autor para proteger sus obras con copyright de ninguna manera", dijo. "No tiene mucho sentido para tratar de argumentar que sólo porque alguien no puso protecciones en él que usted tiene derecho a utilizarlo de la forma que desea."

martes, 19 de abril de 2016

Estonia se vuelve un gobierno digital (y emprendedor)



e-Estonia: Cómo este país de la UE maneja su gobierno como una startup

Chris O'Brien - Venture Beat


Crédito de la imagen: E-Estonia
Metido en una pequeña esquina del noreste de Europa, Estonia se está convirtiendo en un modelo poco probable que los gobiernos de todo el mundo sobre cómo utilizar Internet para re-imaginar lo que significa ser un país en la era digital.

Es una sorpresa porque Estonia solamente tiene una población de 1,3 millones de personas, y que obtuvo su independencia de la antigua Unión Soviética hace menos de tres décadas. Pero bajo su iniciativa de barrido e-Estonia, el gobierno se ha convertido en una incubadora de ideas pioneras sobre ciudadanía digital, seguridad, negocio virtual, y la educación.

De acuerdo con Kaspar Korjus, uno de los jugadores clave en la revolución digital de Estonia, el pequeño tamaño del país, la historia moderna corta, y el aislamiento se han convertido en ventajas en lo que les permite la libertad de repensar la noción de nación.

En un país donde el primer ministro tiene 36 años, no hay una gran cantidad de tiempo dedicado a aferrarse al pasado o viejos hábitos.

"La nueva generación se está ejecutando el gobierno de Estonia," dijo Korjus en una entrevista por teléfono. "Y es por eso que el gobierno es rápido y ágil. La gente entiende el mundo digital. Usted no tiene que explicarlo ".

Karjus es de tan sólo 27 años de edad a sí mismo, y ahora está supervisando la última versión del programa que ha llegado a ser el epítome ambiciones de la revolución de Estonia: e-residencia.

La idea surgió a partir de algunas iniciativas hace unos años por el gobierno de pensar con ambición por el futuro de Estonia y la forma de poner en marcha su economía. Una noción de que burbujeaba: ¿Cómo podría atraer al país 10 millones de nuevos residentes para el año 2025?

Por supuesto, es poco probable que mucha gente nunca mover a Estonia. Pero lo que si no se tienen que mover? Esto comenzó una cadena de pensamiento que condujo al programa de correo residencia. Karjus, que estaba trabajando en el inicio de Estonia TeliaSonera, fue reclutado para desarrollar el programa de correo de residencia.

En el momento en Karjus se involucró, Estonia ya había pasado casi dos décadas poniendo la base para el programa. Pocos años después de ganar su independencia, el país tenía esencialmente para empezar a construir toda una infraestructura nacional de TI desde cero.

La culminación de estos esfuerzos iniciales fue en 2002, cuando el gobierno decidió emitir todos los ciudadanos una tarjeta nacional de identificación con un chip que utiliza el cifrado de clave pública de 2048 bits. La tarjeta puede ser utilizada por los residentes en todo el gobierno de Estonia como la identificación definitiva.

Entonces, ¿qué pueden hacer con ella? Es su documento nacional de salud, que puede ser utilizado para iniciar sesión en sus cuentas bancarias, que permite la firma digital de documentos, los residentes pueden utilizarlo para votar desde casa en línea en las elecciones, o tener acceso a sus registros médicos. Ah, y que puedan iniciar un negocio en línea en cuestión de minutos, pagar sus impuestos en menos de cinco minutos, y conecte sus negocios privados en la plataforma para verificar las transacciones.



Con el e-residencia, la idea era entonces para tomar este servicio nacional y ponerlo a disposición de todo el mundo. Al principio, sin embargo, Karjus y su puñado de desarrolladores no tienen realmente un sentido de quién fuera de Estonia podría querer hacer tal cosa, ni por qué. Ellos simplemente decidieron construir algo y ver qué pasaba.

"No sabemos por quien estaban haciendo esto para, o lo que la propuesta de valor era el caso de Estonia," dijo. "Sabíamos que en términos generales que la gente se mueve mucho, y que el restablecimiento de su identidad en cada país y hacer transacciones a través de fronteras podría ser un montón de trabajo."

El proceso para inscribirse es muy simple, y sólo toma unos minutos. A los pocos meses de puesta en marcha, había 2.000 e-residentes. Ahora hay 10.000.

"Simplemente valida existe esta necesidad," dijo.

Karjus dijo que están viendo la gente que quiere comenzar compañías de Internet utilizan el sistema para establecer sus negocios en Estonia, lo que les permite gestionar desde cualquier lugar del mundo. Ellos también están viendo las empresas que lo utilizan para lanzar operaciones en Europa, que a menudo puede ser un proceso difícil de manejar de la creación de filiales y cuentas separadas en cada país.

Hasta el momento, los e-residentes han establecido cerca de 500 empresas en Estonia. Ellos no sólo pagan impuestos en Estonia, sino que también impulsan el negocio a los bancos, bufetes de abogados, y otros servicios de apoyo. Mientras que él no puede poner un precio bastante sobre esto en términos de impacto económico, sin embargo, los servicios también están atrayendo a empresas como Braintree de PayPal, que está utilizando el sistema para facilitar los pagos.

Hay límites. Las personas que se convierten en correos residentes no pueden votar en Estonia, y no pueden utilizar la residencia como documento de viaje. Karjus También está claro que las empresas creadas a través del programa no obtienen reducciones de impuestos. El país no tiene la intención de crear un paraíso fiscal. En lugar de ello, se desea que la atracción sea la comodidad y eficiencia.

De hecho, eso fue lo que hizo un llamamiento a Stampery sede en San Francisco, que anunció a principios de este mes que utilizar el programa de correo residencia con sus servicios de certificación y autenticación basada en blockchain.

"Nuestra misión es permitir a nuestros usuarios para generar una prueba precisa, fiable e irrefutable de la existencia e integridad de todos sus archivos y comunicaciones digitales", dijo Daniele Levi, director general de Stampery, en un comunicado. "Esta asociación con el programa de correo Residencia de Estonia es el primero de este tipo en el mundo y hará la vida más fácil para los hombres y mujeres de negocios de todo el mundo."

Karjus cree que esto es sólo el comienzo para Estonia, lo que parece haber abierto un camino para que otros gobiernos a seguir. Se necesitará tiempo para que otros puedan ponerse al día. Pero una vez que lo hacen, Karjus dijo que los beneficios para los ciudadanos serán enormes.

"Se necesitan años y años antes de tener la aceptación social de estas cosas", dijo Karjus. "Pero creo que en 20 años, la gente va a mirar hacia atrás y les resulta difícil creer que lo hicimos una vez todas estas cosas en el papel."

lunes, 18 de abril de 2016

¿Fintech puede cambiar la banca y las finanzas?




La dominación del mundo: La nueva Fintech

Oscar A. Jofre

La banca, finanzas y seguros han sido en gran parte constante e invariable durante décadas. Ha sido la propia definición de una institución del tipo "club de viejos amigos": estática, monopolista, y de gran alcance. La competencia no ha llegado desde el interior, por lo menos no en la misma medida en que lo hizo una vez, con los bancos monstruo trabajando duro para tomar simplemente trozos de unos a otros. Fintech está tomando lentamente sobre segmentos de negocio completos, y la movilización de un nuevo grupo demográfico que es cualquier cosa menos de edad.

Para aquellos que están totalmente opuesto al sector Fintech, esto realmente va a asustar.

El cambio es de miedo, pero es necesario. La tecnología ha intervenido y ha creado la innovación del estancamiento, y pivota toda una industria llena de jugadores demasiado altos cargos y prudentes para siquiera moverse. De repente, los bancos no tienen más remedio que volver a pensar su estrategia a largo plazo con el fin de seguir compitiendo contra soluciones tecnológicas financieros ágiles más que se han infiltrado en el mercado y de alguna manera para ganar fuerza contra los oligopolios de mercado en algunos casos, y enorme financiera recursos de la mayoría.

Fintech es bastante aterrador para muchas personas, especialmente cuando teniendo en cuenta lo perjudicial este sector ha sido. Fintech ya se ha interrumpido la banca, lo que demuestra el modelo se rompió, en segundo lugar, ha perturbado los mercados de capitales mediante la democratización de cómo el capital se puede elevar e invirtió, y en tercer lugar, está empezando a cambiar cómo funciona el negocio de seguros. Se utiliza la tecnología y los cambios culturales hacia cambios regulatorios para permitir a los inversores de todos los días no acreditadas para invertir. Crowdfunding la equidad faculta a la gente a llegar a ser potencialmente una parte del gran cambio, tomar algo antes de la competencia de los capitalistas de riesgo, inversores ángel, y la riqueza, y hacerlo accesible. Los empresarios se benefician de un acceso más fácil al capital, y los inversores de más opciones.

Lo que todo esto demuestra es que estamos en medio de una revolución Fintech, y no hay manera de detenerlo. El aferrarse a las viejas maneras de hacer las cosas, insistiendo en que eran de alguna manera mejor porque estaban familiarizados implica que no hay lugar para el miedo en las finanzas y en los negocios. Fintech es un positivo. Los inversores, consumidores, y de hecho incluso los bancos deben saber que esto es motivo de optimismo, porque representa una oportunidad para ser mejor, para hacerlo mejor, y para hacer más.

Lo que esto significa es que los nuevos operadores que están impactando en estos sectores se están convirtiendo en empresas globales dominantes durante la noche, algo que no hemos visto en el pasado. Considere algunas de las historias de éxito de crowdfunding la equidad en los EE.UU. e internacionalmente: OurCrowd tiene ofertas cerrado con éxito para las empresas que buscan por más de $ 25 millones en financiación y StartEngine cuenta con más de $ 70 millones en reservas, y estas historias no son ni siquiera un rasguño en la superficie.

Se necesita muy inversores con visión de futuro para ver esto y muchos están recibiendo en la lista. No son los inversores que frenan, diciendo que las nuevas formas de financiación crowdfunding como la equidad no funcionarán, son los actores de la industria establecidos, y lo hacen porque tienen miedo. Se niegan a adaptarse. Ellos ven el cambio, y que 2016 es el año en que las empresas Fintech avanzar al primer plano, y comienzan a convertirse en la casa dominante en todo el mundo. Ellos no están acostumbrados a este tipo de competidor. Ellos solamente nunca he competido contra las organizaciones exactamente iguales a los suyos, y que les asusta.

Prepárate, para aquellos que creen que esto sólo ocurre en su ciudad o país: la irrupción es global y Fintech es una onda de marea.

jueves, 14 de abril de 2016

Salario promedio de un programador en Argentina



¿Cuánto gana un programador de software en la Argentina?
La cámara que agrupa a la industria del software en el país hizo una encuesta entre 150 empresas para determinar el sueldo promedio de un desarrollador de software



La Cámara de la industria del software de la Argentina (Cessi) difundió ayer los resultados de una encuesta realizada entre 150 empresas de software de todo el país, que alcanza a 12.000 empleados. Lo hizo el Observatorio Permanente de la Industria de Software y Servicios Informáticos de la Argentina (Opssi), que tomó como referencia el sueldo bruto mensual que pagan esas 150 empresas.

Según el estudio, el sueldo bruto promedio de un programador sin experiencia en la Argentina es de $ 13.100, monto que se eleva a 17.598 pesos mensuales para un desarrollador de software semi senior, y a 23.500 pesos de sueldo bruto para un programador con experiencia. Como es evidente, hay compañías que pagan más y otras que pagan menos; lo que marca el estudio es el promedio de esas 150 compañías encuestadas.

Según Aníbal Carmona, presidente de la Cámara, "el objetivo de este estudio es brindar información de calidad para un mercado donde existe una verdadera guerra por el talento, ya que se estima que hay 5000 puestos que no pueden ser cubiertos cada año" en nuestro país.

La Nación

martes, 12 de abril de 2016

El valor de las redes según Reed



La Ley de la Manada
David P. Reed - Harvard Business Review



La Internet es una red de redes, y su valor radica en las conexiones que hace posibles. Como gerentes y empresarios tratan de medir ese valor, que han pagado una gran cantidad de atención a dos tipos de redes. El más simple es el o uno-a-muchos de difusión de la red, a través de la cual un centro de transmisiones proveedor de información a un gran número de usuarios. Un ejemplo es el portal Web, que ofrece noticias y otros contenidos a muchos visitantes. Más complejo, y más valiosos, es el uno-a-uno o transaccional de la red, que conecta a los usuarios individuales con otros usuarios individuales para intercambiar información o realizar otras transacciones. Los ejemplos más comunes son el correo electrónico y la mensajería instantánea.

Pero hay un tercer tipo de red que, aunque menos entendido que los otros dos, es en realidad el más valioso de todos. Es la red de formación de grupo-muchos-a-muchos-o, lo que permite a los miembros de la red para formar y mantener grupos de comunicación. Ejemplos de grupos de formación de redes, o GFNs, incluyen las comunidades en línea, intercambio de negocio a negocio, y los carteles de comprador.

He estado estudiando GFNs durante los últimos cuatro años y han llegado a darse cuenta de que requieren una nueva forma de medir el valor de la red. De hecho, creo que las empresas que pueden aprovechar el poder de GFNs obtendrán las ventajas competitivas más fuertes que Internet tiene para ofrecer.

Las empresas que capitalizan en las redes de formación de grupo obtendrán la ventaja más fuerte que Internet tiene para ofrecer.

Las formas de medir el valor de las redes de transmisión y transaccionales están bastante bien establecidos. A medida que el número de usuarios en una transmisión en la red se eleva, su valor aumenta de forma lineal. Cada nuevo miembro añade la misma cantidad de valor, independientemente del tamaño de la red se convierte. En una red transaccional, el valor crece mucho más rápido. Debido a que cada nuevo miembro aumenta el número de conexiones posibles a disposición de todos los demás miembros, el valor de cada miembro sigue subiendo medida que se expande la red. Esta relación se recoge en la Ley de Metcalfe, que establece que el valor de una red de uno-a-uno crece en proporción al cuadrado del número de usuarios. Si el número de miembros de la red es igual a n, en otras palabras, el valor de una red de uno a muchos crece en proporción a n mientras que el valor de una red de uno-a-uno crece en proporción a n2.

Pero incluso la Ley de Metcalfe subestima el valor creado por una red de formación de grupo a medida que crece. Digamos que usted tiene un GFN con n miembros. Si se suman todos los posibles grupos de dos personas, grupos de tres personas, y así sucesivamente que podría formar esos miembros, el número de posibles grupos es igual a 2n. Así que el valor de un GFN aumenta de manera exponencial, en proporción a 2n. Yo llamo a esto la ley de Reed. Y sus implicaciones son profundas.

Considere la posibilidad de un negocio de la red de plataformas como America Online. Proporciona una mezcla de servicios basados ​​en la red a sus clientes. Una cosa que hace es contenido de difusión como informes meteorológicos y noticias. Dado que el contenido se sirve a un usuario a la vez, se crea valor proporcional al número de usuarios en la red. Otro de los servicios de AOL es la mensajería, un medio de uno-a-uno. Según la ley de Metcalfe, el valor de la mensajería crece proporcionalmente al cuadrado del número de usuarios. Por último, permite a los usuarios de AOL para formar grupos a través de mecanismos tales como salas de chat y juegos multijugador. De acuerdo con la Ley de Reed, el valor de tales GFNs crece exponencialmente. Así pues, estas redes llegan rápidamente a dominar el valor total creado por AOL (para una ilustración, véase el gráfico adjunto, "El valor relativo de los servicios de AOL"). No es de extrañar, ya que la pertenencia de AOL se ha expandido, una gran parte de la atención del usuario se ha desplazado de acceso a los contenidos y hacia las actividades de formación de grupo.

El más potente aplicación de la Ley de Reed puede estar en el espacio de negocio a negocio. Intercambios y las redes de negocios basados ​​en redes similares pueden ayudar a los clientes se unen para solicitar productos y servicios personalizados a los proveedores, y pueden ayudar a los proveedores organizan alianzas para crear nuevos productos y servicios. A medida que crecen estas redes, el valor que ofrecen a sus empresas miembros en magnificar grandemente, y las organizaciones o consorcios que operan ellos ganará cada vez mayor poder de mercado. Como indicaría Ley de Reed, las empresas más exitosas en Internet viajarán en paquetes.

viernes, 8 de abril de 2016

Un resumen de bibliografía de economías de aglomeración


FUENTES DE LAS ECONOMÍAS DE AGLOMERACIÓN: UNA REVISIÓN BIBLIOGRÁFICA




Olga Lucía Manrique*

* Profesora de la Facultad de Ciencias Económicas de la Universidad Nacional de Colombia. Estudiante del Programa de Doctorado en Economía Aplicada de la Universidad Autónoma de Barcelona. Enviar comentarios al correo: olmanriquec@unal.edu.co . Articulo recibido el 17 de octubre de 2006, aprobada su publicación el 14 de noviembre

Publicado en Cuadernos de Economía

Resumen

A partir de una revisión de la literatura sobre las economías de aglomeración se resaltan los aportes de diversos trabajos teóricos y empíricos, en particular, los que se relacionan con las causas de tales economías. Como referencias principales se toman dos trabajos pioneros, el de G. Duranton y D. Puga (2003) y el de S. Rosenthal y W. Strange (2003). El primero recopila trabajos teóricos y resume en tres categorías los mecanismos microeconómicos de las economías de aglomeración: sharing, matching y learning. El segundo recoge los trabajos empíricos y considera tres fuentes microeconómicas: input sharing, knowledge spillovers y labor market pooling.

Palabras claves: aglomeración, externalidades, participación en los beneficios, aprendizaje, emparejamiento. JEL: D62, D83, J41, R10, R12.



El tema de las economías de aglomeración ha sido estudiado por urbanistas, geólogos y economistas desde hace varias décadas. Tal como la definió William Strange (2005), "La aglomeración urbana es la concentración espacial de la actividad económica en las ciudades. También puede tomar la forma de concentración en grupos industriales o en centros de empleo en una ciudad". Se considera que la concentración espacial es una ventaja, en términos de eficiencia, para desempeñar las diferentes actividades de la sociedad (económicas, sociales, políticas, etc.), que se justifica desde el punto de vista económico por las indivisibilidades o economías de escala.

La concentración espacial de la actividad económica y de los factores productivos induce un proceso acumulativo de concentración de otros mercados y actividades, como el mercado laboral, la educación los servicios públicos. Pero este proceso está limitado por los costos de transporte y las deseconomías de aglomeración, dos temas que han atraído la atención de diversos autores pero que no detallamos en este escrito.

De manera general, las economías de aglomeración se clasifican en tres tipos: economías internas a la empresa, economías de localización y economías de urbanización. Las primeras hacen referencia a la concentración de la producción en una única empresa, las segundas se relacionan con la concentración en industrias particulares (Marshall 1890) y las últimas con el tamaño o la diversidad de la ciudad (Jacobs 1969).

Si las economías internas de escala generan la concentración en lugar de un volumen creciente de producción por parte de una misma empresa, las economías ´externas´ generan la concentración de empresas y actividades diversas sobre la base de las ventajas que se derivan de: la explotación de un capital fijo social localizado[ ...] o de recursos naturales específicos, la presencia de indivisibilidades en el suministro de bienes o servicios [ ...] , y la creación de efectos de sinergia que se manifiestan en una mejora de la eficiencia conjunta de la producción (Camagnani 2005).
Cada tipo genera una clase particular de externalidades (positivas o negativas). Entre las externalidades asociadas con las economías de localización están la posibilidad de la especialización de las empresas en el proceso productivo (menores costos globales), la reducción de los costos de transacción de las unidades productivas especializadas gracias a la proximidad y a la intensidad de las relaciones personales, las economías de aprendizaje individual y colectivo, las economías conexas al proceso de circulación y valorización, y la creación de una atmósfera industrial (economías dinámicas).

Por otra parte, la concentración de la intervención del sector público en la ciudad (concentración de capital social fijo, economías de escala en la provisión de servicios públicos), las externalidades que genera el gran mercado de la ciudad (acceso a mercados de grandes dimensiones, posibilidad de encontrar grandes nichos de especialización) y las que genera la ciudad como incubadora de factores productivos y de mercado de los factores de producción (acceso a un mercado de trabajo amplio y a funciones urbanas especializadas, oferta de capacidades empresariales y directivas, economías de comunicación e información) se asocian con las economías de urbanización.

En cuanto a las ventajas de las economías de aglomeración cabe mencionar la reducción de los costos de transacción y los efectos de sinergia. Pero, en general, se considera que a partir de cierta dimensión los elementos anteriores se convierten en deseconomías. Pensado como problema de óptimo social, se pueden dar diferentes definiciones a la dimensión crítica de la ciudad: la dimensión mínima, la dimensión óptima desde el punto de vista de los costos, la dimensión óptima en términos per cápita (dimensión óptima para la población), la dimensión óptima desde el punto de vista de la maximización de los beneficios, la dimensión óptima social y la dimensión máxima (costos y beneficios en equilibrio).

En cuanto a la dimensión mínima relacionada con el suministro de servicios urbanos hay relativo acuerdo en que es de 200 mil a 250 mil habitantes. Con respecto a la dimensión máxima eficiente vinculada al papel que desempeña la ciudad, se encuentra que ciudades de dimensión diferente desempeñan funciones diferentes, por lo que la dimensión máxima eficiente depende del papel que desempeña cada ciudad. Desde el punto de vista de los beneficios puede ser poco significativo definir la dimensión de una ciudad si no va acompañada de información sobre la estructura urbana y espacial global a la que está integrada. Esto permite entrever la dificultad para definir límites claros de las economías de aglomeración y explica por qué en el intento de definir la dimensión óptima han surgido diferentes posturas, como la económica liberal y la política radical, A pesar de la importancia de definir estos límites, la mayoría de los estudios han sido de carácter teórico, debido a las dificultades para realizar estudios empíricos concluyentes.

La importancia de las economías de aglomeración ha despertado el interés de algunos autores que intentan determinar y entender su origen (su naturaleza y sus fuentes). Como hechos principales se mencionan las ventajas naturales de las industrias y la aparición de rendimientos crecientes a escala externos. En este último caso, se señala como causas principales a factores tales como sharing , matching y learning . Para los fines de este escrito nos centramos en dos trabajos pioneros, el de Gilles Duranton y Diego Puga (2003) y el de Stuart Rosenthal y William Strange (2003). Los dos hacen excelentes revisiones, una desde el punto de vista teórico y la otra desde el punto de vista empírico.

ASPECTOS TEÓRICOS

En su artículo de 2003, Duranton y Puga revisan los trabajos teóricos sobre las economías de aglomeración elaborados a partir de los fundamentos microeconómicos, y especifican tres tipos: sharing (relación entre oferentes de bienes intermedios y oferentes de bienes finales), matching (interacciones en el mercado de trabajo) y learning (aprendizaje).

Sharing

En el caso de sharing muestran que existe una abundante literatura cuyo problema central es la provisión de ciertos bienes o servicios indivisibles y se enfocan en los conceptos de equilibrio y en los instrumentos de política 1. Se ha relacionado el concepto de sharing con las ganancias compartidas que genera la variedad ; a este respecto, los autores prestan especial atención al modelo de Ethier (1982) 2, que describe una industria cuyos rendimientos agregados son crecientes debido a las ventajas productivas de compartir una amplia variedad de insumos intermedios diferenciados. Los rendimientos crecientes en un sector obedecen a que un incremento del factor trabajo puede estar asociado con una mayor cantidad de productores intermedios, lo que hace más productivos a los productores finales por el acceso a un rango de variedades más amplio. "Un incremento de la producción final en virtud de compartir una mayor variedad de oferentes intermedios requiere un incremento menos que proporcional de los factores primarios" (Duranton y Puga 2003).

La especialización urbana se justifica porque los insumos son compartidos en los sectores y no entre ellos, y porque el intercambio de bienes finales es menos costoso mientras que el intercambio de bienes intermedios es infinitamente costoso.

Por otro lado, hay autores 3 que postulan, siguiendo a Adam Smith (1776), que hay ganancias de productividad como resultado del aumento de la especialización cuando los trabajadores se dedican a una sola tarea (Duranton y Puga las denominan ganancias de la especialización individual). Hay tres elementos que las explican, en primer lugar el proceso de learning by doing , ya que cuando hacen la misma tarea los trabajadores mejoran su destreza para dicha tarea; en segundo lugar, el ahorro de costos fijos por no cambiar de tarea a los trabajadores y, finalmente, el fomento a las innovaciones por el ahorro de trabajo, ya que las tareas más simples se pueden mecanizar más fácilmente. A partir de este argumento, se concluye que existen rendimientos crecientes al nivel de ciudad. "En el modelo, un incremento del tamaño de la fuerza de trabajo lleva a una profundización de la división del trabajo entre los trabajadores, lo que hace más productivo a cada trabajador. Sin embargo, hay ganancias de la división del trabajo que están limitadas por la extensión del mercado de trabajo" (Duranton y Puga 2003, 14).

Un mecanismo alternativo que se ha reconocido como fuente de economías de aglomeración es el labor pooling . La idea central es que una industria tiene ventajas que se traducen en mayores ganancias por el hecho de ofrecer un mercado constante para las destrezas de los trabajadores. A partir del modelo de Krugman (1991), que formaliza esa idea, se encuentra que la aversión al riesgo no juega ningún papel en el proceso de aglomeración. En las ganancias por compartir recursos entre firmas puede influir el desconocimiento ( ex ante ) de las firmas del monto de recursos que necesitan en su proceso productivo. En el esquema de salarios ´pegajosos´ con posibilidad de desempleo se refuerza la tendencia de las firmas y de los trabajadores a aglomerarse. En este caso los trabajadores tienen un mayor incentivo para minimizar el riesgo de quedar desempleados; por su parte, las firmas tienen mayor incentivo para aglomerarse con el fin de evitar presiones de la fuerza laboral cuando enfrentan choques positivos. El comportamiento estratégico de las firmas en el mercado laboral puede complicar los resultados, en particular, la posibilidad de poder de monopsonio debilita la tendencia de las firmas a aglomerarse.

Learning

Duranton y Puga definen el aprendizaje en sentido estricto como un proceso de tres etapas: enseñanza, entrenamiento (formación) e investigación. En este sentido, el aprendizaje es valioso en términos de sus fuentes y por su contribución al desarrollo económico. Puesto que es una actividad que se desarrolla de manera colectiva, las ciudades pueden facilitar el aprendizaje; aunque los mecanismos de aprendizaje pueden generar efectos de aglomeración en las ciudades, como insinuó Marshall (1890), las ciudades favorecen la difusión de innovaciones e ideas, y también Jacobs (1969) con el argumento de que el ambiente de las ciudades mejora las posibilidades de generar nuevas ideas. Por su parte, Lucas (1988) considera que las ventajas que ofrecen las ciudades no son únicamente técnicas, favorecen además la adquisición de destrezas y aumentan la generación, difusión y acumulación de conocimientos.

En cuanto a la generación de conocimiento es crucial considerar el papel de los ambientes urbanos diversificados para facilitar la investigación y la experimentación en innovación (Jacobs 1969), (Duranton y Puga 2001) construyen un modelo que justifica la coexistencia de ciudades diversificadas y especializadas y la aglomeración de firmas, y concluyen que "la combinación de economías de localización con costos de congestión crea ventajas estáticas para la especialización urbana" (Duranton y Puga 2001, 31).

La difusión de conocimiento se relaciona con la transmisión de destrezas, la difusión de información y la difusión de conocimiento propiamente dicha. Algunos modelos, como los de Jovanovic y Rob (1989), Jovanovic y Nyarko (1995) y Glaeser (1999) analizan la transmisión de destrezas y encuentran que la proximidad a individuos con más destrezas o conocimientos facilita la adquisición de destrezas y el intercambio y difusión de conocimientos. A partir de un modelo de generaciones traslapadas, Duranton y Puga (2003) encuentran que los trabajadores jóvenes eligen vivir en ciudades para adquirir destrezas y que los trabajadores cualificados permanecen en las ciudades para transmitir sus destrezas y habilidades. Sin embargo, afirmar que las ciudades ofrecen mejores oportunidades de aprendizaje es un supuesto, más que la derivación de una microestructura bien especificada.

Con respecto a la difusión de información y su relación con las ciudades, hay dos tendencias, la primera se fundamenta en el aprendizaje social y cuenta con una fuerte microfundamentación (Vives 1996, Bikhchandani, Hirshleifer y Welch 1998, Sobel 2000). Sus modelos tienen dos propiedades importantes: la posibilidad de rebaño ineficiente y la posibilidad de retraso estratégico. En el primer caso, los modelos de Banerjee (1992), Bikhchandani, Hirshleifer y Welch (1992) obtienen resultados de rebaño ineficiente porque las firmas reciben señales equivocadas en forma secuencial que las llevan a tomar decisiones equivocadas. Cada firma recibe información privada sobre la decisión que debe tomar. Las firmas toman sus decisiones secuencialmente a partir de las decisiones previas. La primera firma toma su decisión de acuerdo con la información privada que ha recibido, la segunda no sólo utiliza su información privada sino también la información sobre lo que hizo la primera, el proceso continúa sucesivamente de modo que si las primeras firmas reciben señales equivocadas las demás harán lo mismo porque dan más peso a la información sobre las acciones de las demás que a su información privada.

Con respecto al retraso estratégico , Chamley y Gale (1994) encuentran –en un esquema en el que el tiempo de decisión es endógeno–que las firmas prefieren esperar a que otras tomen sus decisiones de inversión, pues le es beneficioso esperar para aprender de las decisiones de las demás 4. Cuando el tiempo de decisión es exógeno no hay efectos de escala, generalmente la decisión se cristaliza después de pocos periodos, sin que importe el número de jugadores.

Por último, en lo referente a la acumulación de conocimiento, se suele utilizar modelos de crecimiento económico que incorporan el conocimiento como factor de acumulación y, de manera más específica, como capital humano. Los modelos de Romer (1986), Palivos y Wang (1996), Ioannides (1994), Black y Henderson (1999), Lucas (1988), y Eaton y Eckstein (1997) dan diferentes opciones de modelación, desde las más sencillas con los supuestos de economías con rendimientos constantes individuales y rendimientos crecientes a nivel agregado, pasando por economías con crecimiento de la población, hasta la modelación del crecimiento urbano utilizando externalidades dinámicas.

Matching

Cuando nos referimos al matching 5 delimitamos el estudio a un mercado particular, el mercado laboral, y en esencia nos referimos a la forma como se ´emparejan´ empleadores y trabajadores. Las economías de aglomeración pueden surgir por dos razones, porque la calidad de cada emparejamiento (match) mejora cuando aumenta el número de agentes que tratan de emparejarse (externalidad del emparejamiento, Helsley y Strange 1990 6) y por el ahorro de costos fijos cuando la competencia lleva a que el número de firmas crezca menos que proporcionalmente con la fuerza de trabajo.

Un aspecto que resaltan Duranton y Puga es que el problema del matching muestra que las economías de aglomeración van más allá de la mera presencia de rendimientos crecientes a escala, y que también las pueden originar externalidades que incrementan el ingreso por trabajador. "Cuando la fuerza de trabajo crece y el número de firmas aumenta, el trabajador promedio puede encontrar un empleador que es una mejor pareja para su destreza" 7.

El modelo de Helsley y Strange (1990) ha sido extendido en diferentes direcciones. Por ejemplo, el modelo de Brueckern et al. (2002) muestra que la relación entre hogares y mercado laboral es compleja. Kim (1989) modifica el modelo permitiendo que los trabajadores inviertan en capital humano general (reduciendo los costos de no emparejarse) o en capital humano específico (aumentando la productividad en habilidades específicas), y encuentra que cuando el tamaño de los mercados locales aumenta, la inversión en capital humano específico aumenta en relación con la inversión en capital humano general, lo que denomina "especialización creciente con el tamaño de la ciudad" 8.

Otros autores introducen características dinámicas en el modelo, como Helsey y Strange (1991) que consideran un modelo de dos períodos, y Zhang (2002), que lo extiende a un horizonte de tiempo infinito. Con un enfoque distinto, Ellison, Fudenberg y Möbius (2002) exploran un mecanismo de aglomeración en el contexto de subastas competitivas y consideran la elección simultánea de compradores y vendedores entre dos mercados competitivos. A partir de la elección de un mercado, los compradores conocen sus valoraciones privadas y se efectúa una subasta en cada mercado, y encuentran que cuanto más grandes son los mercados más eficientes son para una razón comprador a vendedor dada.

Storper y Venables (2002) consideran que las ciudades mejoran la calidad de los emparejamientos. En su modelo, los trabajadores se emparejan al azar con otro trabajador local para llevar a cabo ciertas tareas. Los trabajadores con alta destreza y los trabajadores con poca destreza son más productivos cuando se emparejan con trabajadores con alta destreza. Sin embargo, las ganancias productivas de tener una pareja con alta destreza son mayores para los trabajadores con alta destreza.

Por último, los modelos que relacionan la aglomeración urbana con el hecho de que un mayor número de agentes que tratan de emparejarse mejora la oportunidad de hacerlo incorporan elementos del desempleo de equilibrio en los que la búsqueda de empleo y el reclutamiento están sujetos a fricciones (Mortensen y Pissarides 1999, Petrongolo y Pissarides 2001). "Un incremento del número de agentes en una ciudad reduce las fricciones de búsqueda y resulta en proporciones más pequeñas de trabajadores desempleados y vacantes sin llenar. De manera más general, un incremento de todos los insumos asegura que una proporción más pequeña de estos insumos permanezca ociosa" (Duranton y Puga, 25) 9.

ASPECTOS EMPÍRICOS

En su artículo de 2003, Rosenthal y Strange revisan los trabajos empíricos sobre la naturaleza y las fuentes de las economías de aglomeración. Con relación a las fuentes y desde el punto de vista de los microfundamentos, consideran las que sugirió Marshall (1920), los insumos compartidos ( input sharing ), los procesos de aprendizaje ( knowledge spillovers ) y la agrupación del mercado laboral ( labor market pooling ).

Sharing

Compartir insumos (sharing) se justifica por la existencia de economías de escala en su producción. El trabajo de Holmes (1999) considera la relación entre localización de una firma e insumos compartidos en el caso de Estados Unidos, primero con un cálculo de la desintegración vertical de las industrias consideradas en el estudio, y luego con un análisis de regresión. En el primer caso, el grado de desintegración vertical, que utilizan como medida de insumos compartidos, se obtiene dividiendo los insumos comprados por las ventas totales. El resultado corresponde a la intensidad de insumos comprados. En este caso, el análisis muestra que las industrias más concentradas comparten insumos. En el análisis de regresión, la variable dependiente es la diferencia entre intensidad de insumos comprados e intensidad promedio de insumos comprados en la industria. Las variables explicativas son el volumen de empleo en la industria en el mismo Estado y en otros Estados. En este caso, el resultado también indica que se comparten insumos. Por tanto, Holmes encuentra evidencia de una relación positiva entre desintegración vertical y concentración industrial.

Aunque Rosenthal y Strange reconocen que el trabajo de Holmes ofrece la evidencia más directa y completa de insumos compartidos como fuente de las economías de aglomeración, piensan que el estudio sobreestima la influencia causal de la aglomeración sobre las oportunidades para compartir insumos (la localización de la planta es endógena en el modelo econométrico). No obstante, los resultados de Holmes apoyan la presencia de insumos compartidos como fuente de las economías de aglomeración.

Otros trabajos que aportan evidencia en este sentido, aunque no de manera directa, son los de Bartlesman et al. (1994), Holmes y Vernon (1960), y Stevens (2002); este último utiliza el tamaño del establecimiento como variable explicativa. Todos muestran fuerte evidencia de insumos compartidos como fuente de las economías de aglomeración.

Knowledge Spillovers

Para Rosenthal y Strange este es el más interesante de los fundamentos microeconómicos en diferentes áreas de la teoría económica. Pero son conscientes de la dificultad de identificarlo empíricamente, entre otras cosas porque el conocimiento muchas veces se intercambia sin comprarlo o venderlo, lo que impone un desafío a los econometristas que intentan medir el conocimiento.

El trabajo de Jaffee et al. (1993) intenta medir el conocimiento de manera directa, aunque no muestra claramente su relación con la aglomeración o la productividad. Otros trabajos (Audretsch y Feldman 1996) intentan determinar el efecto de las características industriales sobre la innovación, considerando el impacto de la aglomeración. Los resultados son compatibles con la presencia de procesos de aprendizaje. Mediante un análisis de regresión de la concentración espacial de la actividad innovadora condicionada por el número de atributos específicos locales e industriales, incluidos la investigación en las universidades, los gastos en investigación y desarrollo, y la disponibilidad del trabajo cualificado, obtienen resultados que confirman que el conocimiento orientado a las industrias que más concentran espacialmente la actividad innovadora es consistente con la presencia de knowledge spillovers.

Los trabajos de Rauch (1993), Acemoglu y Angrist (1999) y Moreti (2000) sugieren que las externalidades del capital humano dependen altamente de los trabajadores con alto nivel educativo, siguiendo la idea de Marshall de que los trabajadores son el principal mecanismo de transmisión del conocimiento 10. Rauch estudia el impacto del nivel promedio de educación sobre los salarios y las rentas. Usando un modelo hedonista muestra que la presencia de buenos efectos generales puede aumentar los salarios donde los niveles promedio de educación son altos, porque los trabajadores serán más productivos y los empleadores estarán dispuestos a pagar salarios altos. Además, las rentas serán más altas porque la productividad ligada a salarios más altos se capitalizará en los precios. Una objeción a los estudios de los efectos de los niveles de educación sobre los procesos de aprendizaje es que no especifican el canal de interacción.

Labor Market Pooling

Cuando se hace referencia a la agrupación del mercado laboral ( labor market pooling ) caben dos interpretaciones, como efecto urbanización (para los trabajadores es más fácil ´engranar´ en ciudades grandes) o como efecto localización (para los trabajadores es más fácil ´engranar´ en industrias concentradas). Algunos estudios han intentado determinar empíricamente el efecto de la calidad del emparejamiento entre trabajadores y empresarios sobre las economías de aglomeración. Aquí también los econometristas tienen dificultades para calcular la calidad del emparejamiento.

Una posibilidad es calcular las tasas de terminación de los emparejamientos; en ausencia de un buen reemplazo es menos probable que una firma despida a un trabajador, sin importar la calidad del emparejamiento. Otra alternativa es considerar la rotación de empleos; en este caso la hipótesis de agrupación del mercado laboral implica que los trabajadores pueden cambiar de trabajo fácilmente y que las firmas pueden cambiar de empleados con igual facilidad. Otra manera puede ser la de examinar la influencia de la especialización el trabajo: el estudio de Baumgartner (1988b) muestra que la aglomeración puede fomentar la especialización .

Una interpretación alternativa del labor market pooling lo asocia con el riesgo . Cuando los trabajadores eligen trabajar en una ciudad particular para un empleador particular, las firmas y los trabajadores enfrentan dos clases de riesgos. El primero, asociado a la relación específica firma-trabajador, consiste en que por razones de emparejamiento la relación pueda terminar. Cuando los requerimientos de una firma y las destrezas de los trabajadores son específicas a las industrias, el emparejamiento entre empresarios y trabajadores es más fácil en las industrias más concentradas. Así, el riesgo específico se puede reducir por efectos de localización.

El segundo es específico a una industria. La localización en ciudades especializadas expone a los trabajadores a grandes riesgos, pues en caso de perder el empleo no encuentran otro fácilmente si los demás empleadores del área están afectados por el mismo choque negativo. Por tanto, la localización en una ciudad especializada los expone a riesgos mayores. De modo que un choque en industrias específicas puede desalentar la localización, mientras que los choques de emparejamientos específicos pueden alentarla. Aquí surge una pregunta ¿cuál es el impacto del grado de especialización sobre el mercado laboral?

En esta línea de investigación, Simon (1988) examina la relación entre tasa de desempleo y especialización de la ciudad. Con ayuda de un índice de Herfindahl muestra que el desempleo es mayor cuanto más especializada es una ciudad, lo que coincide con el hecho de que los choques en industrias específicas son importantes. El mayor riesgo que enfrentan los trabajadores en una ciudad especializada requiere salarios más altos como compensación. En otro estudio, Diamond y Simon (1990) muestran que en ciudades más especializadas los trabajadores demandan salarios más altos, asociados a medidas específicas de la variabilidad cíclica del empleo en una industria. Por su parte, Costa y Kahn (2000) concluyen que el riesgo es menor y los emparejamientos son mejores en ciudades grandes a partir de un estudio de parejas con cierto grado de estudios en el periodo 1940-1990. Moretti (2000) encuentra que si la productividad de mayores niveles de educación es crucial para el desempeño económico (y los matrimonios se mantienen) las ciudades más grandes tienen ventajas de productividad en relación con las ciudades pequeñas. En la siguiente sección se describen con más detalle estos cuatro estudios.

EXTENSIONES: MATCHING Y ESTRUCTURA DE LAS CIUDADES

Para Simon (1988), la estructura industrial de las ciudades juega un papel importante en la determinación de la tasa nacional de desempleo. A partir de un trabajo empírico para 91 grandes áreas metropolitanas de Estados Unidos durante el período 1977-1981 encuentra que la tasa de desempleo friccional en una ciudad es menor cuanto más diversificada industrialmente es la ciudad 11. Su análisis supone que las fluctuaciones del empleo tienen componentes cíclicos, estacionales, seculares y friccionales 12. Como indicador de la diversidad industrial utiliza un índice de Herfindahl y encuentra una relación negativa significativa entre diversidad industrial y tasa de desempleo de la ciudad. Las ciudades más concentradas de la muestra tienen una tasa de desempleo friccional de cerca de 1,4 puntos porcentuales por encima del promedio, mientras que las ciudades diversificadas tienen una tasa de desempleo friccional de cerca de un punto porcentual por debajo del promedio.

En un trabajo posterior, Diamond y Simon (1990) extienden el estudio para determinar los efectos de la especialización de las ciudades sobre los salarios y el desempleo. Su argumento es que las ciudades más especializadas corren el riesgo de un desempleo mayor y, a partir de la teoría de la compensación de los salarios diferenciales, concluyen que los individuos que viven en ciudades más especializadas son compensados con tasas de salarios más altas. La diversidad de oportunidades de empleo potencial crea un efecto portafolio en el mercado laboral. Así, las ciudades más diversificadas industrialmente tendrán menores tasas de desempleo en promedio; mientras que las más especializadas tendrán tasas de desempleo más altas. Con ayuda de una medida de riesgo en el mercado laboral 13, examinan la relación con la especialización industrial. Cada ciudad tiene un portafolio de industrias, y en cada industria fluctúa la tasa de crecimiento del empleo 14.

Además construyen un índice de Herfindahl para medir la especialización industrial (que mide el riesgo de empleo de un trabajador típico en una ciudad), y encuentran que una ciudad diversificada (en un conjunto de industrias cuyo empleo tiene correlación alta y positiva) es más riesgosa que una ciudad igualmente diversificada cuyas industrias no están correlacionadas, aunque aclaran que sus índices de especialización no miden totalmente el riesgo de empleo. En su trabajo empírico establecen la relación entre salarios, desempleo y especialización industrial en 43 áreas metropolitanas de Estados Unidos, considerando individuos de 20 a 65 años que hayan sido empleados de tiempo completo al menos durante 26 semanas. También tienen en cuenta el tamaño de las firmas y el ciclo de los negocios. Los resultados del modelo econométrico indican que los individuos que viven en ciudades más especializadas tienen una probabilidad de desempleo más alta y tasas de salarios más altas como compensación. El trabajo aporta fuerte evidencia a favor de la hipótesis de compensación de salarios diferenciales por el aumento del riesgo de desempleo debido a la especialización de las ciudades.

Costa y Kahn, desde una perspectiva algo distinta (enfoque del capital humano), intentan determinar si las parejas (matrimonios) con cierto grado de escolaridad tienden a localizarse en grandes áreas metropolitanas y exploran las causas posibles: la mayor urbanización de los colegios, el crecimiento de hogares con carreras duales y el problema de colocación resultante. Para los autores esta última es la razón primaria. Las ciudades pequeñas tienen pocas entradas de capital humano y, por tanto, son más pobres. Para comprobarlo empíricamente toman datos de la tendencia de la elección de localización entre ciudades grandes, medianas y pequeñas en el periodo 1940-1990, y encuentran que la colocación es la explicación más probable de la tendencia observada. Las ciudades grandes facilitan el emparejamiento de individuos altamente educados y capacitan a las parejas profesionales para resolver el problema de localización conjunta, también preservan los matrimonios de parejas con carreras diferentes porque los mercados laborales son más diversos.

Moretti, desde una perspectiva similar a la de Costa y Kahn, examina el efecto del crecimiento del nivel de capital humano total sobre la economía de una ciudad y el efecto sobre la productividad, los salarios y los precios de la tierra cuando aumenta el stock de capital humano. Analiza las ganancias sociales de la educación, haciendo énfasis en las externalidades que afectan las áreas geográficas locales. Sin embargo, encuentra que los resultados no son concluyentes, porque las ganancias sociales del capital humano pueden tener implicaciones en otras esferas (como la política) y por la gran dificultad para medir los niveles de capital humano. Para esto sugiere algunas metodologías. La primera, comparar la productividad o los costos unitarios de firmas idénticas localizadas en ciudades con altos y bajos niveles de capital humano. La segunda, identificar los spillovers comparando los precios de la tierra en ciudades con altos y bajos niveles de capital humano, y la última, comparar los salarios de trabajadores idénticos localizados en ciudades con altos y bajos niveles de capital humano. Para Moretti es muy pronto para sacar conclusiones sobre el tamaño de las externalidades, ya que aunque la literatura teórica ha estudiado ampliamente el tema, aún falta profundizar los desarrollos a nivel empírico.

CONCLUSIONES

En las últimas décadas se han publicado numerosos trabajos teóricos sobre las causas de las economías de aglomeración en comparación con los trabajos empíricos. Esto obedece en parte a la dificultad para medir las externalidades producidas por factores tales como el conocimiento, la calidad de las relaciones empresarios-trabajadores, el capital humano, y muchos otros que tienen importancia en las economías modernas, pero que por su naturaleza impiden una medición exacta para obtener resultados concluyentes de sus efectos sobre los diferentes aspectos que son objeto de estudio.

La literatura sobre los microfundamentos de las economías de aglomeración ha hecho grandes progresos desde mediados de los ochenta y la publicación de los dos primeros volúmenes del Handbook de economía regional y urbana . Los mayores progresos se observan en áreas como la organización industrial, la economía laboral y el crecimiento económico. Se considera que la heterogeneidad de los trabajadores y las firmas es la raíz de los mecanismos microeconómicos que justifican la existencia de las ciudades y, pese a su importancia, los trabajos empíricos tienen graves dificultades para representar esta heterogeneidad.

La información incompleta también juega un papel importante en las economías de aglomeración, los modelos más utilizados para representarla son los de learning , matching y sharing . La idea que da base a estos modelos es que los beneficios de las ciudades son mayores en ambientes inciertos y cambiantes. Los dos últimos mecanismos están bien desarrollados en comparación con los de aprendizaje, especialmente los knowledge spillovers , por lo que aún hay que hacer muchos esfuerzos en esta área.

A pesar de los problemas de los estudios empíricos, confirman los resultados de los estudios teóricos. En el caso del sharing , confirman el surgimiento de economías a escala debido a que las industrias comparten insumos. En el caso del matching , la especialización juega un papel importante y guarda estrecha relación con el nivel de salarios de las ciudades. En el caso del learning , la evidencia es menos concluyente, ya que no se ha encontrado una herramienta que permita medir el conocimiento de manera diferente a la del capital humano, que supone una relación directa con los niveles de educación.

Para finalizar, cabe señalar que las investigaciones empíricas sobre economías de aglomeración utilizan microdatos que permiten hacer estudios más sofisticados y estimaciones más confiables resolviendo diversos problemas econométricos.

NOTAS AL PIE

1 Aspectos relacionados con la existencia de las ciudades a partir de ´grandes indivisibilidades´ que indican rendimientos crecientes en el nivel agregado, ´grandes indivisibilidades´ en la producción (Koopmans 1957, Mills 1967, Mirrlees 1972) y ´grandes indivisibilidades´ que determinan la ubicación de los mercados.

2 Una versión del modelo de Dixit y Stiglitz (1977) desde el lado de la producción.

3 Rosen (1983), Baumgardner (1988), Becker y Murphy (1992), Duranton (1998), Becker y Henderon (2000), y Henderson y Becker (2000).

4 Otros autores estudian el uso de la tierra urbana bajo externalidades informacionales espaciales (Fujita y Ogawa 1982, Imai 1982, Helsley 1990, Ota y Fujita 1993, Lucas 2001, Berliant, Peng y Wang 2002, y Lucas y Rossi-Hansberg 2002). En este caso, las ciudades experimentan una transición de una estructura monocéntrica a una multicéntrica y completan la dispersión cuando la decadencia espacial se debilita.

5 Se hará referencia a este término como engranaje o emparejamiento, aunque el término puede tener un significado más complejo.

6 Una versión del modelo del mercado de trabajo de Salop.

7 Las habilidades de los trabajadores se distribuyen de manera uniforme sobre un círculo unitario de densidad igual a la fuerza de trabajo (Duranton y Puga 2003).

8 Tharakan y Tropeano (2001) y Amiti y Pissarides (2002) utilizan el modelo de Salop en un contexto distinto al urbano estándar, por ejemplo, en un ámbito regional.

9 Butters (1977), Hall (1979), Peters (1991), Lagos (2000), Coles (1994) y Coles y Smith (1998) justifican la función de emparejamiento agregada a partir de microfundamentos.

10 Estos trabajos sobre conocimiento y aprendizaje tienen el problema de que la evidencia sobre los mecanismos a través de los que se transmite el conocimiento no es convincente. Charlot y Duranton (2002), por ejemplo, aportan evidencia para concluir que el premio a la educación puede depender de algo diferente al conocimiento y al aprendizaje.

11 El desempleo friccional es el resultado de fluctuaciones aleatorias en los despidos y la contratación de trabajadores entre industrias, ciudades y tiempo.

12 Puesto que las fluctuaciones no están correlacionadas entre industrias, la contratación friccional en algunas industrias puede coincidir con despidos friccionales en otras.

13 Tomada de la medida de riesgo de la teoría de portafolio en finanzas.

14 La medida del riesgo es la varianza del crecimiento del empleo en cada ciudad asociada a su variedad industrial.

miércoles, 6 de abril de 2016

Como entrar a Google sin ser mano de obra calificada



Así consiguieron trabajar en Google, y no sabían nada de tecnología

La única sede de la tecnológica en España, ubicada en Madrid, cuenta con 200 empleados. La media de edad es de 32 años


ANA TORRES MENÁRGUEZ . El País


Un grupo de trabajadores de Google en la sede de Madrid. ©Jaime Villanueva


Las preguntas extrañas en los procesos de selección de Google no son un mito. Calcular cuántas pelotas de ping pong caben en el interior de un autobús de dos plantas era hasta hace unos años una de las pruebas de lógica que el candidato debía resolver in situ frente a su entrevistador. El objetivo era analizar su habilidad para salir airoso de un problema desconocido. El tema suscitó tal interés que en 2012 el autor estadounidense William Poundstone publicó el best seller Are you Smart enough to work at Google? (en español, ¿eres suficientemente inteligente para trabajar en Google?), una guía en la que desglosaba algunos de los retos de lógica más frecuentes planteados por la tecnológica en sus entrevistas.

En abril de 2015 el máximo responsable de recursos humanos de Google, Laszlo Bock, lanzó Work Rules, un libro en el que aseguraba que ese tipo de preguntas no servían para predecir el comportamiento de los candidatos en sus futuros puestos de trabajo. En su lugar, la compañía emplearía otros métodos avalados por investigaciones para tratar de detectar las posibles reacciones de los entrevistados ante situaciones reales.

LAS CUATRO ENTREVISTAS PERSONALES PARA ENTRAR EN GOOGLE


Para acceder a los procesos de selección hay que analizar los puestos que se ofertan en la web Google Carrers y enviar los documentos solicitados. En caso de que el perfil les encaje, la primera criba se efectúa mediante una llamada telefónica en inglés.
Si el candidato supera esa prueba, pasa a la siguiente fase integrada por cuatro entrevistas personales. Cada una de ellas será conducida por un empleado de Google, normalmente el responsable del departamento del puesto ofertado, el jefe de ese empleado, alguna persona con una posición similar y otra de un departamento distinto. En cada una de estas pruebas, que las realizan empleados de diferentes nacionalidades y género, se mide una habilidad concreta:
- Googleyness: se analiza la capacidad del candidato para encajar en la cultura corporativa de la compañía. Se mide su predisposición para el trabajo en equipo o para el aprendizaje autónomo, entre otras.
- General cognitive ability: consiste en una serie de preguntas sobre posibles retos y vulnerabilidades relacionados con el mundo de los negocios para analizar la capacidad de razonar e hilar argumentos lógicos del candidato.
- Liderazgo: se centra en analizar su capacidad de movilizar al resto del equipo. Se le pregunta por situaciones concretas en las que lideró la gestión de una crisis corporativa o gestionó un equipo para resolver un problema concreto.
- Conocimiento técnico del trabajo a desempeñar: en palabras del director de recursos humanos de Google España, Javier Martín, esta cuarta entrevista es la que menos cuenta a la hora de seleccionar a un candidato.
También se puede acceder a las ofertas para la realización de prácticas en las diferentes sedes internacionales en esta web.

Hoy, esa prueba, conocida comoGeneral Cognitive Ability, sigue siendo parte del proceso, pero ahora está más enfocada a la realidad del mundo de los negocios, explica Javier Martín, director de recursos humanos deGoogle España. Preguntar cuántos aviones sobrevuelan el cielo de Madriden hora punta es una de las opciones. “No se busca una respuesta exacta, sino ver cómo piensa y razona el candidato y su capacidad para identificar las variables. En el caso de los aviones, puede hacer referencia al número de compañías aéreas que operan en el país o a las conexiones del aeropuerto de Barajas”, apunta Martín.

Quienes se plantean incorporarse a Google, tienen que saber que no hace falta ser un experto en tecnología. "Hay muchos graduados que no se presentan a los procesos de selección por ideas preconcebidas que no son ciertas. No contratamos solo a ingenieros informáticos ni a frikis de la tecnología", añade el director de recursos humanos. Cada año la tecnológica recibe a escala internacional una media de 2,5 millones de inscripciones a sus ofertas de empleo.

Imprescindible es tener un buen dominio de inglés, de hecho la primera entrevista es telefónica y en ese idioma. “Una de nuestras normas es que la nacionalidad del entrevistador debe ser distinta a la del candidato”, señala Martín. Los 200 empleados de la sede de Google en España, que abrió sus puertas en 2005 en la planta 26 del rascacielos Torre Picasso en Madrid, realizan más del 50% de sus comunicaciones diarias en inglés.

En Google no se entra enviando el currículum y llamando insistentemente a sus oficinas. Solo se puede optar a las vacantes que oferta la compañía en la web Google Careers, en la que se pueden hacer búsquedas personalizadas y filtrar por ciudad o departamento.

Además de las famosas instalaciones con salas provistas de hamacas para el descanso, futbolines y comida gratuita en cualquier momento del día, en Google se pueden realizar estancias de tres meses en cualquiera de sus 70 sedes internacionales, localizadas en 40 países, o pedir el traslado. En 2015, el 10% de la plantilla de España optó por esa opción. "Incentivamos a los empleados a que cada dos años cambien de rol y para ello les formamos constantemente. Cada trabajador recibe al menos 10 horas de cursos al mes. Avanzan al ritmo de la tecnología", asegura Martín.

El perfil de cuatro trabajadores españoles de la sede de Madrid demuestra que se puede acceder con una licenciatura de letras o sin apenas conocimientos de tecnología. Estas son sus historias.


Fran Ruiz (49 años), director de relaciones internacionales


Nunca pensé que lo conseguiría; soy de letras puras


El 24 de agosto de 2006, la portada de The Economist le hizo replantearse su carrera. El tema de apertura Who killed the newspaper (en español, quién mató al periódico) vaticinaba el fin del periodismo impreso en 2043. Tras más de 19 años como periodista en varios medios nacionales, Fran Ruiz decidió ampliar su perfil profesional. Dos años más tarde, se matriculó en un curso de economía y gestión de empresas de laUniversidad de Yale, en Estados Unidos, de tres meses de duración. Pidió permiso a su periódico, en ese momento la Gaceta de los Negocios, y la empresa se hizo cargo del coste de matrícula, unos 4.500 dólares, y le mantuvo el sueldo durante la estancia.

Ese viaje cambió su rumbo. Le fichó una consultora italiana de relaciones internacionales para su sede de Madrid y un año y medio después fue seleccionado por Google. "Pasé siete entrevistas y en ninguna de ellas me hicieron preguntas raras. Se centraron en analizar mi capacidad de resolución de problemas y de liderazgo", cuenta. No se esperaba de él que tuviese nociones básicas de programación ni que supiese cómo gestionar los productos de la compañía.

"Hay que creer en uno mismo y ponerse las pilas con los idiomas, eso es lo más importante", recalca Ruiz, que acaba de cumplir seis años en Google, durante los que ha realizado estancias temporales en las sedes de California, Londres, Dublín y París. "En esta empresa te avalúan cada seis meses en función de los objetivos que alcanzas, son muy exigentes pero se preocupan mucho de tu crecimiento profesional".


Miquel Trías (32 años), analista



No lo había intentado antes porque no soy graduado en Informática


"La escala temporal en Google es totalmente diferente a la de otras empresas. Cada seis meses hay cambios y tu ritmo de aprendizaje es brutal". Miquel Trías, que se incorporó a la tecnológica hace tres años, es graduado en Física y el primer estudiante de doctorado de ondas gravitacionales en España. "Google siempre había sido el top, pero no lo había intentado antes porque pensaba que solo entraban informáticos".

Tras finalizar el doctorado, cursó un máster en dirección de empresas. "Me di cuenta de las pocas posibilidades que brinda España para la carrera investigadora y tomé otro camino", explica.

De las entrevistas en Google recuerda que no se centraron en sus conocimientos específicos, sino en su capacidad resolutiva. "Durante los cinco años de carrera aprendí a enfrentarme a problemas complicados y a diseñar soluciones creativas. De eso va la física y eso fue lo que valoraron". En la sede de España la mayoría de empleados se dedica a la parte de estrategia de negocio digital, y Miquel ya tiene la vista en Estados Unidos, donde se concentran la mayoría de departamentos de innovación. "En un par de años me gustaría sumarme al equipo de inteligencia artificial".


Anaïs Pérez (32 años), directora de comunicación



No tenía experiencia en el campo tecnológico


A Anaïs Pérez la seleccionaron para unas prácticas en el departamento de comunicación de Google apenas unos años después de su graduación. Era 2007 y habían pasado dos años desde la apertura de la sede de la tecnológica en Madrid. "No tenía experiencia en el campo tecnológico, pero buscaban a alguien que entendiese cómo funcionan los medios tradicionales y que supiese crear contenidos noticiables".

Tras licenciarse en Periodismo por la Universidad Carlos III, realizó prácticas en Telecinco y la Cadena Ser y dio el saltó a México gracias a una beca del Banco Santander. Se incorporó durante un año a un periódico local de Tehuacán. "Mi principal reto cuando llegué a Google era traducir un lenguaje y unos conceptos ininteligibles para los periodistas". Siete años y medio después, fue nombrada directora de comunicación.

Durante la carrera, Anaïs mejoró su inglés con dos estancias de tres meses en Irlanda y Londres. "Cuando entras en Google el ritmo de aprendizaje del inglés se multiplica y en pocos meses eres perfectamente capaz de comunicar cualquier asunto".


Carmen García (32 años), manager de cuentas estratégicas



Tenía que reinventarme y encajé en Google


El perfil de Carmen García destaca por su experiencia internacional. Graduada en Ingeniería Industrial por ICAI, cursó un MBA en la India y trabajó durante más de un año en la banca en Nueva York. "Por cuestiones personales regresé a Madrid y decidí intentarlo en Google".

Carmen cree que la seleccionaron por su experiencia en el campo de los negocios y por su espíritu de reinvención. En su currículum también constaba un año y medio de trabajo en una startup y casi dos años en la consultora Deloitte. "En la carrera de ingeniería falta formación en negocio, es la carencia de casi todos los ingenieros", opina. A diferencia del resto de empresas en las que ha trabajado, cree que en Google se fomenta el cambio de rol y la puesta en marcha de nuevas ideas sin miedo al fracaso. "Te permiten arriesgar. Su filosofía es la de probar y medir los resultados. Es muy difícil caer en la monotonía o aburrirse".

lunes, 4 de abril de 2016

Una revisión de la industria del software (2/12)

¿Por qué la industria del software es independiente de la industria del hardware?

Por Anne Shields • Market Realista

La industria del software en comparación con la industria del hardware


Software son instrucciones de ordenador que se almacenan electrónicamente. Los dispositivos que almacenan estas instrucciones se denominan hardware. Software y hardware están íntegramente vinculados, lo que hace que sea confuso para distinguir una de la otra. Además, el rápido avance de las tecnologías está borrando la diferencia entre el software y el hardware. El siguiente gráfico muestra la relación entre el software y el hardware y la forma en que se complementan entre sí.



Características que lo distinguen de hardware del software


  • El hardware se refiere a partes físicas del ordenador. Software se refiere a las instrucciones dadas a la computadora.
  • El hardware se puede ver, tocar y sentir en software no puede.
  • El hardware se construye utilizando componentes físicos. Software se construye escribiendo instrucciones en lenguaje de programación.
  • En caso de daño, hardware necesita ser reemplazado. Para el software, la copia de seguridad tiene que ser re-instalado cuando hay daño.
  • Los virus impactan al software, pero no el hardware. 
  • El software puede ser transferido electrónicamente a través de una red, pero el hardware no puede.
  • El hardware no puede ser duplicada. Sin embargo, muchas copias duplicadas de software se pueden hacer.


La inversión en la industria del software

Hay varios fondos cotizados (o ETF) que invierten en acciones de software y tecnología. Ejemplos populares son la tecnología Fondo Select SPDR Sector (XLK), cuyas posiciones más importantes incluyen Apple (AAPL), Microsoft (MSFT) y Verizon Communications (VZ). Otro ejemplo es la tecnología de la información Índice Fondo Vanguard (VGT) que invierte en Oracle (ORCL), Microsoft (MSFT) e IBM Corp. (IBM), así como el Fondo Índice de Tecnología de EE.UU. Sector iShares Dow Jones (IYW), cuya cima participaciones incluyen Apple (AAPL), Microsoft (MSFT) y Oracle (ORCL).

domingo, 3 de abril de 2016

Una revisión de la industria del software (1/12)

Una revisión de la industria del software

Por Anne Shields - Market Realist

¿Qué es un software?


La industria del software ha transformado la forma en las organizaciones, las empresas, e incluso la gente de coordenadas y el trabajo. Su impacto en la economía mundial ya través de diversas industrias se puede medir por el aumento de las innovaciones, el progreso técnico, el aumento de la productividad, y la mano de obra. "Software" se refiere a programa de computadora o datos (bits y bytes almacenado), que se puede almacenar electrónicamente. Es usado por el procesador de sistema para realizar distintas tareas. aplicaciones de software móviles (o aplicaciones) funcionan de la misma manera que sus contrapartes de software de ordenador. Aplicaciones están diseñadas para tareas específicas, como los juegos, sistema de posicionamiento global (GPS o), y la música.




Microsoft lidera el mercado de software

El gráfico anterior muestra la contribución de los ingresos de los diferentes actores de la industria del software. De acuerdo con Gartner, en 2013, los ingresos por software en todo el mundo se situó en $ 407,3 mil millones, en comparación con $ 388,5 millones en 2012, registrando un aumento del 4,8%. Microsoft (MSFT) sigue siendo el líder del mercado en el segmento y mantiene la cuota de mercado del 16%, seguido de Oracle (ORCL) e IBM (IBM) en el 7,3% y 7,1%, respectivamente. SAP AG (SAP) y Symantec (SYMC) se encuentran entre los diez mejores jugadores de la industria.

Se espera que el software que la industria de más rápido crecimiento en el espacio de TI


De acuerdo con Forrester, en 2014 y que la economía mejora, se espera que la industria del software para el sector de más rápido crecimiento con un crecimiento esperado del 7,1%, seguido de la tecnología de la información (o IT), consultoría y sistemas de servicios de integración en el 6,6% en el espacio de TI . consultoría de TI se refiere a los servicios de asesoramiento que ayudan a los clientes a evaluar los beneficios de las diferentes tecnologías. Ayuda a formular una estrategia de tecnología adecuada para alinearlo con las estrategias de negocio de los clientes.

La integración de sistemas se refiere al proceso de hacer diversos componentes de hardware y software trabajan conjuntamente como un sistema. Es un proceso de agregación de valor de vincular diferentes sistemas informáticos y aplicaciones de software para que las aplicaciones independientes funcionan como uno solo. La mayoría de los fondos asignados para el gasto en TI entra en el desarrollo de software, lo que indica claramente su dominio. La aparición de la nube, la computación móvil, y aplicaciones como inteligencia de negocio y análisis se aseguran de que este crecimiento no se está desacelerando.

La industria del software está involucrado en el desarrollo, marketing y ventas y es multifacético. Su ámbito de aplicación abarca desde aplicaciones de computadoras personales, sistemas operativos, herramientas de gestión de red, software de la empresa, aplicaciones de software, sistemas operativos y software personalizado.

sábado, 2 de abril de 2016

Índices de concentración de mercado




Concentración de mercado

Tutor2u

La concentración del mercado mide el grado en que las ventas en un mercado están dominados por una o más empresas

¿Cuál es la concentración del mercado y cómo se mide?
  • El coeficiente de concentraciones mide la cuota de mercado combinada de las "n" firmas en la industria.
  • Las participaciones o cuotas pueden ser por ventas, empleo o cualquier otro indicador pertinente.
  • El valor de "n" es a menudo cinco, pero puede ser de tres o cualquier otro número pequeño. Si las 'n' firmas top adquieren una alta cuota de mercado de la industria se dice que ha vuelto más altamente concentrado.

Cuota de mercado del Reino Unido en búsquedas de Google


El índice de Herfindahl-Hirschman (IHH)


Esta es una medida de la concentración del mercado. El índice se calcula elevando al cuadrado la cuota de mercado% de cada empresa en el mercado y sumando estos números.

Por ejemplo, en un mercado que consiste en sólo cuatro empresas con cuotas de 30%, 30%, 20% y 20% el índice de Herfindahl sería 2600 (900 + 900 + 400 + 400).

  • El índice puede ser tan alto como 10.000 si el mercado es un monopolio puro (100 *)
  • Cuanto más bajo es el índice más competitivo es el mercado y puede llegar a casi cero para la competencia perfecta
  • Si una industria tiene 1000 empresas cada una con una cuota de mercado de 0,1%, entonces el índice sólo habría 10 (1000 x 0,1 *).

Una de las últimas directrices sobre las concentraciones en cuenta en el Reino Unido sugiere que un mercado con una medida inferior o igual a 2.000 HHI puede caracterizarse como "altamente concentrado.

Por ejemplo, si un mercado estación de radio local constaba de dos empresas con un 40 por ciento cada uno, y de dos empresas con 10 por ciento cada uno, tendría un IHH de 3400

La calidad superior y la precisión del índice Herfindahl sobre la relación de concentración sencilla se puede ver cuando tres mercados se examinan cada uno con una relación de concentración firma de cuatro de 85%.

Supongamos que en cada mercado del 15% restante del mercado está controlado por 15 firmas cada uno con 1% del mercado.

  • Mercado A: 40% 20% 20% 5% = 85% - Índice de Herfindahl = 2440
  • Mercado B: 25% 20% 20% 20% = 85% - Índice de Herfindahl = 1840
  • Mercado C: 75% 5% 3% 2% = 85% Índice de Herfindahl = 5678

Twitter Delicious Facebook Digg Stumbleupon Favorites More

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Hostgator Coupon Code