jueves, 28 de abril de 2016

Tips para fijación de precios de software para empresas



Consejos de emprendedores de precios de software empresarial
Publicado por Dharmesh Shah - OnStartups



Uno de los temas que es un dilema común fundadores de compañías de software empresarial se enfrentan es la fijación de precios. Es una cuestión compleja que no se presta fácilmente a las respuestas "fórmulas". Una vez dicho esto, tengo un par de pensamientos e ideas sobre cómo abordar este problema (pero esta lista no es de ninguna manera exhaustiva, ni definitiva).

Tenga en cuenta que no soy una fijación de precios "experto" de software para empresas de cualquier tramo de la imaginación (incluso si se utiliza una persona sorprendentemente imaginativo). Sin embargo, yo tengo algunas experiencias "de primera mano" con el tema y puedo compartir algunas ideas extraídas de esas experiencias.


Ideas y consejos para el software precios de Empresa


  1. Saber que el software para empresa se vende, no se compra: Lo que quiero decir con esto es que las ofertas de software para empresas rara vez son solicitadas por los clientes que tienen una necesidad, haciendo una búsqueda en Google, la búsqueda de su sitio web, introduciendo su número de tarjeta de crédito y la generación de ingresos para usted. El software para empresas de gran complejidad requiere un esfuerzo desde un punto de vista comercial. Esto tiene el mayor reto de ser costoso y consume mucho tiempo (el ciclo de ventas en los primeros períodos de un producto de software de la empresa es probable que se mide en meses (a veces más de una docena meses), no semanas.
  2. Tener en cuenta los costos de venta: Muchos empresarios al fijar precios de sus productos por primera vez  lo hacen sobre la base de lo que cuesta desarrollarlo, sin tener en cuenta el costo que tendrá que vender el producto. Esto ni siquiera toma en cuenta el costo de implementación (un tema aparte), pero los costos para conseguir un cliente de ser un líder / prospecto a donde se logre un contacto firmado (y sí, necesitará un contrato), que resulte en que el efectivo cambie de manos. No se sorprenda si le cuesta más realmente cerrar un acuerdo (en términos de viajes, comisiones de ventas, honorarios legales, etc.) lo que había planeado sobre la tarificación del producto.
  3. Definir un componente de "variable" a los precios: En lugar de dar con algún precio "fijo" de una licencia de la empresa para su producto, hay que ver si puede encontrar alguna métrica variable a la que se puede adjuntar su precio. Si es posible, esta medida debe correlacionarse con el valor que el cliente está recibiendo desde el producto. Mejor aún, es si las métricas mapean cómo su cliente hace negocios. Por ejemplo, si usted está vendiendo el software de bienes raíces a los agentes independientes (para el registro, no sé nada acerca de este mercado, es sólo un ejemplo), puede fijar el precio del software en una base por transacción (o incluso un porcentaje de transacción ). De esta manera, el cliente paga, ya que crean valor por sí mismos (esperemos que con la ayuda de su producto). Aunque puede haber cierta resistencia a este cliente de precios variables, a menudo será menos de lo que cabría esperar. En mi primera empresa, hemos hecho un importante conmutación de la licencia "fija" a un precio "por cuenta". El modelo para cada cuenta trabajó porque así es como la industria trabajó de todos modos, y todo el mundo lo entendió. Nuestros clientes indirectamente hacen dinero sobre una base "por cuenta", por lo que el coste de nuestro software encajan muy bien en sus modelos de contabilidad y rentabilidad.
  4. Limite el uso del modelo de precios "tolerancia al dolor": En mis primeros días, a menudo un precio nuestros productos basados ​​en nuestra "mejor estimación" en cuanto a lo que el cliente podría permitirse. Esto fue lo que informalmente se podría llamar el modelo de "tolerancia al dolor". Dado el bajo volumen de operaciones, cada cliente fue un trato único y no fue difícil determinar el tamaño aproximado de los negocios y el valor potencial que estábamos llevando a la mesa - y precios en consecuencia. Sin embargo, este modelo no lo hace "escala". Es demasiado dependiente de participación fundador / gestión y aumenta innecesariamente la complejidad del proceso de venta.
  5. Cuidado con la consolidación de clientes: En mi experiencia, muchas nuevas empresas que venden a los clientes empresariales, en algún momento u otro sentir el dolor de la consolidación (es decir, una compra o fusión del cliente con otro cliente o prospecto). Si has vendido una licencia "ilimitada" a pequeña empresa X (y que se le ocurrió el precio de la nada, sobre la base de la tolerancia para el modelo de dolor por encima), y luego Pequeña empresa X es adquirida por la empresa Y grande - usted ha básicamente recortado su propio precio. La gran empresa Y ahora está utilizando la "licencia de la empresa" de su software que se vende a la empresa X. Multiplique esto pequeño efecto por 5 o 10 ocurrencias y su emprendimiento puede ir fácilmente a la quiebra porque se queda sin clientes "de fruta colgando bien al alcance". Esta es otra buena razón para tener precios variables. En mi caso personal, casi cada vez que teníamos un cliente que fue adquirida por una empresa más grande, la compañía más grande también se convirtió en un cliente y genera un aumento sustancial de nuestros derechos de licencia de software. Lo que hace que este era particularmente beneficioso que estas ofertas rara vez se incurre en el costo de ventas, debido a las relaciones preexistentes - simplemente empezamos a multiplicar por un mayor número de "unidades" (en nuestro caso las cuentas). Los lectores más astutos probablemente adivinar que se trataba de negocio muy alto margen (y sí, lo fue).
  6. Consistentemente aumente los precios en los primeros años: Si va a ofrecer más de un producto (que muchos emprendimientos hacen), entonces es en su interés el tener un historial demostrado de aumentar los precios de sus productos con el tiempo. Esto tiene varias ventajas: en primer lugar, en caso de que hubiera fijado precios demasiado bajos para sus productos para comenzar (lo que es mucho más probable que haber un precio demasiado alto), entonces los aumentos le dará la oportunidad de "ponerse al día" y encontrar que el precio óptimo punto. En segundo lugar, una vez que el mercado se da cuenta de esta práctica constante, los clientes aprenden que está en su beneficio adoptar su producto temprano y ser recompensados ​​por medio de un precio más bajo. Esto le da al proceso de venta algunos muy necesario "urgencia" (que es una clave para cerrar grandes acuerdos a veces). No estoy hablando del mal gusto: "Sacarlo fuera del lote hoy por este precio bajo, bajo porque sólo está disponible mientras está en el piso de exhibición!". Estoy hablando de tener un poco de estructura en torno a sus propuestas de precios (por lo que el precio no está disponible de forma indefinida) y dar con un horario regular para revisar y ajustar sus precios.
  7. Considere la cláusula de "cliente más favorecido": Éste es un poco difícil, y yo dude un poco para ofrecer aún aquí no sea que algunos toman la decisión a la ligera y saltar en algo sin entender los detalles. Pero, voy a tomar una oportunidad y hablar de ello de todos modos. La cláusula de "cliente más favorecido" en un contrato básicamente proporciona ciertos clientes "protección de precios" en el caso de que bajar sus precios para los clientes futuros. Por lo tanto, digamos que la empresa X está considerando la compra de su producto por $ 1,000 / usuario. Una de sus preocupaciones es que están en una industria competitiva y si la empresa Y termina recibiendo un "mejor trato" de que en el futuro, podrían encontrarse en desventaja de costes. La cláusula de "cliente más favorecido" puede responder a esta preocupación, lo que podría ser útil para conseguir que el cliente "sobre la chepa". Sin embargo, el mejor beneficio para algo como esto es lo que hace por sus relaciones con los clientes futuros. Lets 'dicen que dio sus primeros dos o tres clientes una cláusula de "cliente más favorecido" en el $ 1,000 / usuario Precio puntos. Cuando usted está negociando un acuerdo con su próximo cliente, usted tiene más influencia de lo que de otra manera. En la teoría de juegos, yo llamaría a esto una "ventaja por autoinducida restricción" fenómeno. Básicamente, se ha quitado su capacidad de dar descuentos a los futuros clientes, porque si lo hiciera, tendría que volver atrás y reducir el precio para los clientes existentes que tenías la cláusula de "cliente más favorecido" con. Por extraño que parezca, en realidad esto no funcionará si no se tiene un poco de fijación de precios de mercado "arbitraria", donde los clientes no saben lo que el "verdadero" precio de un producto debe ser. Esto le ahorra de "actos de desesperación", donde con corte sustancialmente sus propios precios para lograr un acuerdo. Sin embargo, recomiendo que usted piensa a través de los temas aquí y consulte a un asesor antes de saltar en algo como esto. Incluyo la idea aquí porque me ha funcionado en el pasado y puede ser una herramienta poderosa en la puesta en marcha de herramientas pecho.
  8. Enfóquese en mantenimientos: La mayoría de las ofertas de software de la empresa tienen algún tipo de tarifa recurrente de "mantenimiento" que los clientes pagan (por lo general sobre una base anual). Estas tarifas cubren a menudo actualizaciones incrementales en el software, un cierto nivel de apoyo técnico y otros beneficios. Una cosa importante a recordar aquí es que sus cuotas de mantenimiento no sólo necesitan cubrir sus costos por el "apoyo" que está proporcionando, pero es probable que también se convertirá en su financiación principal para el futuro de I + D que usted hace en el producto. Si aplicar precios más bajos de su mantenimiento, se le mueren de hambre sus flujos de caja futuros que se destine a la financiación de mejoras en el producto. Nadie gana ganar esto sucede. Una forma de contrarrestar la resistencia de los clientes a mayores tasas anuales es hacer un compromiso para mejorar el producto. En mi experiencia, he visto situaciones en las que la compañía de software deja de lado un cierto número de horas "desarrollo" para mejoras de productos que son impulsados ​​por la retroalimentación del cliente. Esto también le da la comodidad del cliente, ya que entonces se aseguraron de que el producto no va a ser fácil "abandonado". Desea proporcionar la comodidad del cliente mediante el diseño de un vehículo que lleva una parte de los dólares de mantenimiento para el Producto X y los embudos de nuevo en el Producto X. Esto es realmente una buena cosa para usted también.
  9. Evite instalaciones de prueba: En base a la cantidad de apalancamiento que sus clientes tienen, y desesperado que esté, se le puede pedir a proporcionar copias de "prueba" del software que se ejecutan en las instalaciones del cliente. Esto no sería tan malo si no fuera por el hecho de que en realidad la instalación del software y conseguir que funcione para que el cliente tiene un costo considerable a usted. Este problema se hace aún más aguda por el hecho de que en un buen número de casos en que los ensayos no se traducen en ventas, su puesta en marcha no tenía nada que ver con el resultado. Podría ser debido a que el cliente perdido interés, no tienen interés real en el primer lugar, o no asignar suficientes recursos internos para el proyecto de prueba. Mi recomendación aquí: No lo haga. Esto es casi siempre un asunto de perder en ofertas de la empresa. En lugar de ensayos, trate de usar "períodos de aceptación" (una forma de garantía de devolución) que permiten a un cliente para determinar el software hace lo que se supone que después de que se realizó la venta. manos de esta manera, el dinero ha intercambiado, que tienen cierta confianza de que alguien en algún lugar realmente decidió "invertir" los recursos necesarios y reducir drásticamente las posibilidades de un acuerdo de "abortar". La mayor preocupación que debe tener con los experimentos es que, aunque se cree que tiene un acuerdo (y que están simplemente asegurar el funcionamiento del software), las personas que realmente firman contratos y emitir cheques aún no han aprobado la compra. Así que, básicamente está gastando su dinero en efectivo (que es probable escasos) para financiar un "proyecto piloto" que sólo un tipo en alguna unidad de negocio enterrado dentro de la organización se preocupa. Confía en mí esta vez. [Nota mental: Un artículo entero podría ser dedicado a este tema uno solo, ya que hay muchas otras sutilezas a la cuestión]. Nota para el lector: Cuando dejo una nota a mí mismo: En realidad, yo vuelvo y leo y genera ideas para futuros artículos. No me acaba de hacer esto para un efecto dramático.
  10. Las diferencias del costo de apalancamiento de capital: Cuando se trata de grandes números, que podrían ser útiles recordar que su costo de capital (es decir, dinero en efectivo) es probablemente mucho mayor que el de su cliente. Como tal, no es desconocida (y no pegajoso, si se hace correctamente) ofrecer a los clientes el equivalente de un "descuento por pronto pago". Esto podría ser en la forma de pagar por adelantado el mantenimiento y / o futuros cargos por servicio (aunque no se puede reconocer el ingreso, el dinero en efectivo es casi tan verde) o más el pago "inmediato" en los honorarios por adelantado. En mi experiencia, obtener dinero en efectivo para el intercambio de manos tan temprano en el proceso de la pena alguna reducción en las tasas. Esto es particularmente cierto para los nuevos clientes con los que no tiene una relación establecida.

¡Uf! En este artículo se terminó siendo mucho más tiempo de lo que esperaba (Me di un golpe a cabo en una sola sesión, como lo hago la mayoría de los artículos). Todavía no estoy seguro de que responde a la pregunta original, pero es de esperar, al menos, he proporcionado algunos elementos de reflexión. Esto es claramente un tema complicado, y estoy seguro de libros se han escrito sobre él.

Resumen de mi mensaje: Es más importante conseguir la "estructura" de su precio justo de lo que es obtener los valores reales. Deje también una manera para que usted pueda "ajustar" sus precios en el tiempo (idealmente, mediante el aumento de ellos) y tener cuidado con los costes ocultos de las ventas de software empresarial (llamadas de ventas, ensayos abortados, pagos retrasados, úlceras, etc.)

¿Cuáles son sus experiencias? ¿Qué desafíos ha enfrentado en el juego de fijación de precios del software empresarial? Dejar comentarios y compartir sus pensamientos, sus colegas empresarios estarán agradecidos.

miércoles, 27 de abril de 2016

6 tácticas para subir de precios

6 estrategias para subir tus precios
Si tu objetivo es subir el precio a uno de tus productos, piensa cómo hacerlo, sin que ello haga perder el interés del cliente por ese producto.

Rafael Galán - Emprendedores



1. Rebautiza tu producto o tu servicio y preséntalo como si fuera nuevo

Si has ido mejorando tu producto y ofreces un valor añadido que aprecian tus clientes es hora de cambiarle el nombre, subirle el precio y lanzarlo como si fuera nuevo. No se trata de engañar a los clientes. Ten por seguro que un cliente nunca va a pagar más por algo que no está justificado, pero es que tu producto, en el fondo, no es el mismo. “Ese producto que llevas vendiendo dos años ya no es exactamente el mismo (esto es más cierto en servicios que en productos físicos) y cada vez es mejor. Es curioso porque tu producto sí ha cambiado, pero tú no has cambiado ni el nombre, ni el packaging, ni su precio”, plantea Fernando Llano.

Obsesión por el valor, no por el precio. “Piensa en las oficinas técnicas de muchos negocios. Las empresas delegan hoy en día el asesoramiento técnico en sus proveedores, y estos no incorporan todo ese trabajo al precio. Y deberían porque si añaden al producto información sobre ahorro de costes o sobre cómo sacar más valor al artículo que se vende, lo que tiene un valor añadido claro por el que hay que cobrar. ¿Qué funciona? Hay que rebautizar tus productos. Si mejoras el producto, ¡¡¡no lo metas en el mismo saco!!! Está claro que es un coste, pero tiene una repercusión en el valor”, pone Llano como ejemplo.

Si ofreces un producto con un valor añadido vas a ser capaz de defender precios más altos. Imagina que vendes maquinaria. A la hora de la verdad, la diferencia entre una máquina y otra está en que seas capaz de vincularlo a un servicio: Sí, somos más caros, pero durante la vida útil de la máquina vas a tener menos averías. Además, vas a tener un servicio técnico en 24 horas. Ah, y contamos con un sistema de financiación propio, y te vamos a recomprar la máquina usada dentro de cuatro años... al final ofreces un producto con un servicio con un valor añadido por el que puedes cobrar más.

2. Juega con una horquilla

Sube el precio del producto que te interesa vender más caro y dilúyelo en una horquilla de precios. “Los consumidores percibimos los precios en términos relativos: algo es barato o caro en función de la percepción que tengamos del producto. Y los precios horquilla ayudan. Es lo que se hace en los lineales de las grandes superficies: se trata de inducir a la elección de determinados productos jugando con una escala de precios de más barato a más caro”, advierte Javier Oubiña. Si subes el precio de uno de tus productos, tienes que garantizar que en tu cartera hay productos más baratos y otros más caros.

“Debes tener clara la función de tus productos: para ganar dinero, para conseguir tráfico, para crear marca o para enganchar a los clientes.

“Hay productos que te ayudan a fijar en la mente del consumidor si eres una marca barata o cara. Ocurre con las sábanas blancas en las marcas de ropa de hogar. A ese producto no le cargan mucho margen, tienen un precio competitivo. Donde te clavan es en las sábanas–tigre. Si estás en rango con el producto básico, también lo estarás con ese otro producto”, explica este experto.

Es la estrategia que también utilizan los fabricantes de coches cuando hacen un lanzamiento: ‘Desde 8.975 euros’. ¿De verdad ha comprado alguien ese coche a ese precio?


3. Juega con la métrica del precio

La métrica del precio te permite fijar en la mente del consumidor la unidad de medida que se utiliza como referencia para comunicar el precio. Te habrás fijado en que muchos productos y servicios tecnológicos cobran por meses para no asustar con una cuota anual. Por seguir con el ejemplo que hemos utilizado para explicarte cómo te tienes que plantear el cálculo de la subida, decirle a un potencial cliente de un gimnasio que tiene que pagar 358,56 euros al año, además de una matrícula de 50 euros, no es tan atractivo como decirle que tiene que pagar 29,80 euros al mes. No es que el consumidor sea idiota, es la fórmula para comunicarle el precio. De la misma manera no es lo mismo decirle a tus clientes que les vas a subir los precios cinco euros al mes, que decirles que van a tener que pagar 60 euros más al año. Si realizas una subida, puedes pasar de vender al mes a que sea al día: tu gimnasio, por 0,99 euros al día...

4. Lanza una versión Premium de tu producto

También puedes plantearle a tus clientes que lanzas una versión Premium –y mantener una versión básica–, y que por eso cuesta más. Está la versión anterior, y, ahora, la Premium. Es el mismo producto, pero puedes añadirle un compromiso de servicio, una ampliación de prestaciones, un equipamiento opcional y una nueva garantía. En el fondo estás combinando las dos primeras estrategias: rebautizas a un producto con el apellido Premium, y al mantener la versión básica estás creando una mini-horquilla de precios. A determinados negocios les puede interesar mantener una versión básica (que entre tú y yo, es la antigua), porque les puede servir para atraer a otro tipo de clientes. En negocios de tecnología esta versión básica suele convertirse en un producto gancho para clientes que al principio no se pueden permitir invertir mucho, pero que luego ya entrarán en la versión Premium. También sirve para que se pruebe el producto y ayude a decidir.

Pero esta estrategia no es exclusiva de negocios tecnológicos. “Recuerda que los consumidores somos esquizofrénicos. Lo que un lunes compras barato porque es para ti, el viernes lo compras caro para quedar bien en una cena con amigos. Y es el mismo producto. Piensa en un bote de ketchup. ¿Cuál compras para ti y cuál compras para una cena con amigos? ¿A que no es el mismo?”, advierte Daniel Suárez, consultor de Coontigo.


Hay también ocasiones en las que se lanzan versiones Premium para mejorar la percepción del resto de los precios.

5. Lleva a tu cliente hacia una venta cruzada

Puedes aprovechar las ventas cruzadas para subir precios: atraes a los clientes con un producto gancho (con uno de esos productos que ya te hemos contado que van a permitir a los clientes comparte con otros vendedores y que van a ayudar a fijar en su mente si eres barato o caro), y cuando ya tienes su atención, le recomiendas el producto que has subido de precio. “Se trata de llevar al consumidor hacia una compra compulsiva: no hace una búsqueda para comparar precio, sino que se le ofrece un producto para tratar de conseguir un impulso. Cuánto más se lleva la venta a un impulso, menos se tiene en cuenta el precio”, explica llano.

Sugerencias. ¿Cómo se puede plantear esa venta cruzada? Además de con la posición física de objetos en tienda, con las recomendaciones y sugerencias. Piensa, por ejemplo, que el 29% de la facturación de Amazon en 2013 vino de la mano de las sugerencias y recomendaciones de productos que, precisamente, no están en promoción, ni son los que tienen los precios más bajos. Si te fijas los precios de estos productos son, en su mayoría, caros. Hombre, Amazon es Amazon, eso está claro, pero en el fondo se trata de cambiar la percepción de los clientes, y esa es una estrategia que puede aprovechar cualquier negocio.

Y ahí va una advertencia: “Si tienes clientes que únicamente te compran el producto gancho hay algo que estás haciendo mal”, han coincidido todos los expertos que hemos consultado.

6. Súmale una promoción

Decides subir el precio del producto, le pones un nombre nuevo y lo lanzas con una promoción de descuento. El precio es mayor, pero al ir con una nueva promoción, se diluye. Es una estrategia para los clientes que ya tienes en la cartera, que están poco acostumbrados a recibir ofertas.

Eso sí, “debes desterrar el concepto ‘gratis’. Las promociones tienen que estar acotadas en el tiempo y en su alcance. El ‘gratis’ va en contra de cualquier negocio. Habla de ‘pilotos’, habla de ‘pruebas de concepto’, habla de ‘promociones con descuento comercial”, plantea Ramón Luis Pérez. De hecho, muchos de los emprendedores que ahora se plantean subir los precios lo hacen porque en su día salieron al mercado con promociones agresivas y promociones no acotadas en el tiempo, que luego no han podido levantar. Si estás en esa situación y subes el precio, tienes que explicarle al consumidor que hasta ahora lo que teníamos era un precio de lanzamiento, de entrada en el mercado, tienes que explicar que “ahora ya estamos en el mercado” y que lo que ofreces es “un producto mejorado”.

lunes, 25 de abril de 2016

Libro: La ciencia del crecimiento de las empresas (de redes)

'La ciencia del crecimiento': Lo que Facebook sabía, pero lo que no hizo Friendster
Pittsburgh Post Gazette


Sean Ammirati autor de la foto


Por Brian Rossi / Pittsburgh Post-Gazette
Con más de 27 millones de empresarios en los EE.UU. y $ 128 millones de dólares en capital de riesgo mundial creció en 2015, la demanda de orientación sobre la gestión de productos está en plena marcha. "The Science of Growth: How Facebook Beat Friendster — and How Nine Other Startups Left the Rest in the Dust", fue escrito por un empresario y capitalista de riesgo Sean Ammirati, un instructor en la Universidad Carnegie Mellon que vendió su empresa a LinkedIn.

El Sr. Ammirati ofrece hasta algunas prácticas probadas y verdaderas que son compatibles con su metodología de investigación descrito en la introducción. Se proporciona una vista "datos informados" de empresas como PayPal, Automattic (Wordpress), LinkedIn, Facebook, YouTube y Twitter. Sostiene que la priorización implacable, entre otras cosas, ayudaron a estas empresas superó a sus competidores.

El Sr. Ammirati hace un excelente trabajo incorporando empresas que el lector está familiarizado con el de pasar el mensaje puntos clave. Se cuenta la historia de Coca-Cola y Pepsi y Pepsi cómo estaba en la necesidad de un nuevo diseño de la botella para competir con la botella de cristal onzas de Coca-Cola de la firma 6.5. Según el Sr. Ammirati, John Sculley, entonces CEO de Pepsi, aprovechó un proceso de "datos informados" que llevó a la creación de la botella de dos litros de plástico.

Después de notar en sus pruebas de que los clientes estaban bebiendo toda la Pepsi en las botellas más pequeñas, el Sr. Sculley la hipótesis de que iban a aumentar la satisfacción del cliente, ofreciendo grandes cantidades. Resultó que Walmart amaba el nuevo diseño de la botella, también. Debido a que estaba hecha de plástico resistente en lugar de vidrio frágil, que ya no estaba en alto riesgo de rotura durante el transporte y el despliegue. Como resultado de haber sido "los datos informados" en lugar de "basados ​​en la información," Pepsi evitar el fracaso de la simple creación de una botella de 6,5 oz con ligeras modificaciones. En su lugar, se definen una nueva categoría de producto, logística optimizada, y la reducción de una barrera de entrada con los minoristas. Este tipo de anécdotas que hacen reflexionar son un componente común dispersos en los capítulos.

"The Science of Growth" es un compañero maravilloso para el plan de gestión de productos canónica, "The Lean Startup" de Eric Ries, que el Sr. Ammirati hace referencia varias veces a lo largo del libro. "La ciencia del crecimiento" aprovecha el movimiento del espíritu empresarial magra como la base para sus lecciones. prácticas comerciales "pobre" a menudo se caracterizan por su utilización de los recursos de las personas y con una eficiencia sistemática con el fin de validar y luego escalar una idea.

El Sr. Ammirati guía al lector a través de las primeras fases de la actividad empresarial, a partir de la validación idea. Se alienta el análisis reflexivo del tamaño del mercado y la importancia de la primera interacción. Él va tan lejos como acuñar un aumento de la frase popularizada Eric Ries "viable mínima del producto (MVP)", que el Sr. Ammirati se refiere como el "producto impresionante mínimo (MAP)." Su punto es bien entregado en relación con un usuario de primera interacción con un producto, indicando, "... beneficios esenciales del producto no puede realizarse si se entrega a través de una experiencia horrible."

El Sr. Ammirati continuación, hace hincapié en la necesidad de que "el producto a ser impresionante incluso con características limitadas si realmente desea validar su hipótesis acerca de su éxito final."

En un espacio lleno de libros sobre temas similares, "La ciencia del crecimiento" cumple con su promesa de "mostrar el secreto de 'la ciencia del crecimiento' y cómo cultivarla en cualquier organización."

A través de una mezcla de ejemplos bien descritos y experiencias personales, este libro describe un proceso que se puede repetir en la mayoría de los sectores de actividad. Los empresarios, ejecutivos corporativos, gerentes de producto y por igual podrían beneficiarse de las lecciones del libro de Sean Ammirati.

miércoles, 20 de abril de 2016

La piratería y el efecto de red

El "efecto de red": la búsqueda de un hombre para demostrar a las empresas de software que se benefician de la piratería




Christine Dobby |  Financial Post


La búsqueda de Dale Thompson para probar el software falsificado no es piratería


Dale Thompson creó un sitio web para vender versiones falsas de software de algunos de los nombres más grandes en el negocio - pero él estaba tratando de fijar un punto, dice, y eso no lo convertía en un pirata.

"Esta palabra" piratería "se menciona tanto que la gente ha perdido el significado real de la misma", dijo el residente de Toronto, en una entrevista reciente.

"Es evidente que el sentido original de la piratería es sobre ladrones carentes de bondad recorriendo arriba y abajo de la costa, robando y el saqueando y matando a la gente de sus mercancías. Eso no es el caso de la piratería de software, ya que nadie está robando una cosa. La gente está copiando binarios, no están robando objetos físicos ".

El Tribunal Federal no estuvo de acuerdo con el Sr. Thompson - no en la definición de piratería, sino que sus acciones no afectaban la Ley de Derecho de Autor.

La gente está copiando binarios, no están robando objetos físicos
En una decisión reciente, se encontró con que infringido los derechos de autor pertenecen a Microsoft Corp., Adobe Systems Inc. y Rosetta Stone Ltd. y le ordenó pagar las empresas daños y costos de la corte por un total de $ 445.000.

Pero el señor Thompson dice que no se arrepiente de la multa considerable, porque su intención era poner de relieve una estrategia llamado el "efecto de red" que emplean los fabricantes de software para establecer una posición dominante. A través del efecto de red, según la teoría, las tecnologías se vuelven más valiosos como el número de personas que utilizan los aumentos, que a su vez aumenta el efecto hasta que se convierten en todas partes y sus propietarios más ricos y poderosos.

También fue la investigación, dijo el Sr. Thompson, para una película documental sobre el que se compromete llamado "El efecto de red: Cómo la industria del software se benefició de la piratería," que se vaya a financiar a través respaldo privado y una campaña en un sitio web de crowdfunding.

La teoría se puede utilizar para explicar fenómenos tales como el triunfo de la cinta de vídeo VHS sobre su rival Betamax y el éxito de Facebook y que ayuda a describir cómo muchas empresas la tecnología del cemento predominio de sus productos.

Que resultó ser una defensa ineficaz contra la infracción de copyright en el caso del Sr. Thompson.

En diciembre de 2011, Adobe, Microsoft y Rosetta Stone lo demandado por la publicación de las reproducciones no autorizadas de sus programas de software y arte de la cubierta en un sitio web y también su puesta a la venta en los sitios web de Kijiji y Craigslist.

El Sr. Thompson - que representó a sí mismo y presentó un escrito de contestación, pero no apareció en la corte para la audiencia - argumentó que los demandantes no se instalaron medidas de protección en su software y, de hecho tolera la piratería con el fin de aumentar la distribución y la popularidad de sus productos , ayudándoles a convertirse en actores dominantes en sus respectivos mercados, asegurando así los beneficios futuros.

No negó la evidencia que los demandantes presentaron para demostrar que había creado un sitio web con copias no autorizadas de su software ni que vende discos con software falsificado instalado para los investigadores tanto de la Business Software Alliance (un grupo de la industria de software) y Smart y Biggar quemado / Fetherstonhaugh, bufete de abogados de los demandantes.

En una decisión emitida el 18 de octubre, el juez Douglas Campbell declaró al Sr. Thompson ha infringido los derechos de autor de los demandantes en 17 trabajos separados.

El juez caracteriza su defensa como una "actitud equivocada del derecho con respecto a su conducta infractora."

Al decidir la moción de juicio sumario, que se determina sobre la base de un registro escrito y no una prueba oral, el juez Campbell encontró que no había problema real para el juicio y ordenó al Sr. Thompson para pagar los daños máximos establecidos por la legislación de derechos de autor.

A $ 20,000 por infracción, más $ 45,000 en daños punitivos y $ 60,000 en honorarios legales, el premio total fue de $ 445.000 (más intereses antes y después de la sentencia).

"No me arrepiento de hacerlo, porque he expuesto, y manifestará en mi película, ¿por qué las empresas de software están haciendo dinero con esto", dijo el Sr. Thompson, agregando que él no obtener un beneficio mediante la venta de software.

A una persona que le gustaría entrevistar por su documental es Ariel Katz, profesor de derecho en la Universidad de Toronto, que publicó un artículo de 2005 en la "perspectiva de los efectos de red sobre la política de software."

"El argumento de que el papel es que tolerar la piratería es una manera de maximizar el efecto de red totalmente sin canibalizar sus ventas", dijo Katz en una entrevista. Dijo que las personas que instalan versiones ilegales de software pueden no haber sido propensos a comprar versiones completas precio en cualquier caso.

"Usted realmente no desea excluir las personas que no están dispuestos a pagar el precio que cobran, porque si se les excluye, su red se vuelve menos valiosa", dijo. "Por lo tanto permitir o tolerar un cierto nivel de piratería le permite convertirse en un monopolio."

El Sr. Katz señaló que la teoría podría proporcionar una base para la discusión en los casos de derechos de autor, no alrededor de la ilegalidad de la piratería en sí, sino en todo el alcance de los daños y perjuicios efectivamente sufridos por los fabricantes de software en los casos de piratería.

Permitir o tolerar un cierto nivel de piratería le permite convertirse en un monopolio
Los abogados de los demandantes dijeron en un documento presentado a la corte que las alegaciones de que las empresas se beneficiaron de manera consciente o participaron "en el llamado" efecto red "son patentemente ridículo y basado en la especulación y suposiciones."

"Incluso si se benefician de lo que los demandantes entienden a la demandada a decir con" efecto red "(que se niega), dicha circunstancia no puede soportar cualquier defensa razonable a las alegaciones de infracción de los derechos de autor."

"No sólo no prueba el efecto de red, en este caso, pero no es sólo un fenómeno general probada. Porque presume que un fabricante de software quiere que la gente a utilizar el software unlicensced, "Vik Tenekjian, uno de los abogados de los demandantes, dijo en una entrevista. "La cantidad de dinero que gastan en nuestras cuentas me dice lo contrario."

Marcos Hayes, un abogado de la tecnología y los derechos de autor que está administrando director en Heydary Hayes PC en Toronto, dijo que no ha oído hablar de alguien que trata de utilizar la teoría de los efectos de red como una defensa frente a una demanda de infracción de los derechos de autor antes.

"Usted es ciertamente ninguna obligación como propietario de un derecho de autor para proteger sus obras con copyright de ninguna manera", dijo. "No tiene mucho sentido para tratar de argumentar que sólo porque alguien no puso protecciones en él que usted tiene derecho a utilizarlo de la forma que desea."

martes, 19 de abril de 2016

Estonia se vuelve un gobierno digital (y emprendedor)



e-Estonia: Cómo este país de la UE maneja su gobierno como una startup

Chris O'Brien - Venture Beat


Crédito de la imagen: E-Estonia
Metido en una pequeña esquina del noreste de Europa, Estonia se está convirtiendo en un modelo poco probable que los gobiernos de todo el mundo sobre cómo utilizar Internet para re-imaginar lo que significa ser un país en la era digital.

Es una sorpresa porque Estonia solamente tiene una población de 1,3 millones de personas, y que obtuvo su independencia de la antigua Unión Soviética hace menos de tres décadas. Pero bajo su iniciativa de barrido e-Estonia, el gobierno se ha convertido en una incubadora de ideas pioneras sobre ciudadanía digital, seguridad, negocio virtual, y la educación.

De acuerdo con Kaspar Korjus, uno de los jugadores clave en la revolución digital de Estonia, el pequeño tamaño del país, la historia moderna corta, y el aislamiento se han convertido en ventajas en lo que les permite la libertad de repensar la noción de nación.

En un país donde el primer ministro tiene 36 años, no hay una gran cantidad de tiempo dedicado a aferrarse al pasado o viejos hábitos.

"La nueva generación se está ejecutando el gobierno de Estonia," dijo Korjus en una entrevista por teléfono. "Y es por eso que el gobierno es rápido y ágil. La gente entiende el mundo digital. Usted no tiene que explicarlo ".

Karjus es de tan sólo 27 años de edad a sí mismo, y ahora está supervisando la última versión del programa que ha llegado a ser el epítome ambiciones de la revolución de Estonia: e-residencia.

La idea surgió a partir de algunas iniciativas hace unos años por el gobierno de pensar con ambición por el futuro de Estonia y la forma de poner en marcha su economía. Una noción de que burbujeaba: ¿Cómo podría atraer al país 10 millones de nuevos residentes para el año 2025?

Por supuesto, es poco probable que mucha gente nunca mover a Estonia. Pero lo que si no se tienen que mover? Esto comenzó una cadena de pensamiento que condujo al programa de correo residencia. Karjus, que estaba trabajando en el inicio de Estonia TeliaSonera, fue reclutado para desarrollar el programa de correo de residencia.

En el momento en Karjus se involucró, Estonia ya había pasado casi dos décadas poniendo la base para el programa. Pocos años después de ganar su independencia, el país tenía esencialmente para empezar a construir toda una infraestructura nacional de TI desde cero.

La culminación de estos esfuerzos iniciales fue en 2002, cuando el gobierno decidió emitir todos los ciudadanos una tarjeta nacional de identificación con un chip que utiliza el cifrado de clave pública de 2048 bits. La tarjeta puede ser utilizada por los residentes en todo el gobierno de Estonia como la identificación definitiva.

Entonces, ¿qué pueden hacer con ella? Es su documento nacional de salud, que puede ser utilizado para iniciar sesión en sus cuentas bancarias, que permite la firma digital de documentos, los residentes pueden utilizarlo para votar desde casa en línea en las elecciones, o tener acceso a sus registros médicos. Ah, y que puedan iniciar un negocio en línea en cuestión de minutos, pagar sus impuestos en menos de cinco minutos, y conecte sus negocios privados en la plataforma para verificar las transacciones.



Con el e-residencia, la idea era entonces para tomar este servicio nacional y ponerlo a disposición de todo el mundo. Al principio, sin embargo, Karjus y su puñado de desarrolladores no tienen realmente un sentido de quién fuera de Estonia podría querer hacer tal cosa, ni por qué. Ellos simplemente decidieron construir algo y ver qué pasaba.

"No sabemos por quien estaban haciendo esto para, o lo que la propuesta de valor era el caso de Estonia," dijo. "Sabíamos que en términos generales que la gente se mueve mucho, y que el restablecimiento de su identidad en cada país y hacer transacciones a través de fronteras podría ser un montón de trabajo."

El proceso para inscribirse es muy simple, y sólo toma unos minutos. A los pocos meses de puesta en marcha, había 2.000 e-residentes. Ahora hay 10.000.

"Simplemente valida existe esta necesidad," dijo.

Karjus dijo que están viendo la gente que quiere comenzar compañías de Internet utilizan el sistema para establecer sus negocios en Estonia, lo que les permite gestionar desde cualquier lugar del mundo. Ellos también están viendo las empresas que lo utilizan para lanzar operaciones en Europa, que a menudo puede ser un proceso difícil de manejar de la creación de filiales y cuentas separadas en cada país.

Hasta el momento, los e-residentes han establecido cerca de 500 empresas en Estonia. Ellos no sólo pagan impuestos en Estonia, sino que también impulsan el negocio a los bancos, bufetes de abogados, y otros servicios de apoyo. Mientras que él no puede poner un precio bastante sobre esto en términos de impacto económico, sin embargo, los servicios también están atrayendo a empresas como Braintree de PayPal, que está utilizando el sistema para facilitar los pagos.

Hay límites. Las personas que se convierten en correos residentes no pueden votar en Estonia, y no pueden utilizar la residencia como documento de viaje. Karjus También está claro que las empresas creadas a través del programa no obtienen reducciones de impuestos. El país no tiene la intención de crear un paraíso fiscal. En lugar de ello, se desea que la atracción sea la comodidad y eficiencia.

De hecho, eso fue lo que hizo un llamamiento a Stampery sede en San Francisco, que anunció a principios de este mes que utilizar el programa de correo residencia con sus servicios de certificación y autenticación basada en blockchain.

"Nuestra misión es permitir a nuestros usuarios para generar una prueba precisa, fiable e irrefutable de la existencia e integridad de todos sus archivos y comunicaciones digitales", dijo Daniele Levi, director general de Stampery, en un comunicado. "Esta asociación con el programa de correo Residencia de Estonia es el primero de este tipo en el mundo y hará la vida más fácil para los hombres y mujeres de negocios de todo el mundo."

Karjus cree que esto es sólo el comienzo para Estonia, lo que parece haber abierto un camino para que otros gobiernos a seguir. Se necesitará tiempo para que otros puedan ponerse al día. Pero una vez que lo hacen, Karjus dijo que los beneficios para los ciudadanos serán enormes.

"Se necesitan años y años antes de tener la aceptación social de estas cosas", dijo Karjus. "Pero creo que en 20 años, la gente va a mirar hacia atrás y les resulta difícil creer que lo hicimos una vez todas estas cosas en el papel."

lunes, 18 de abril de 2016

¿Fintech puede cambiar la banca y las finanzas?




La dominación del mundo: La nueva Fintech

Oscar A. Jofre

La banca, finanzas y seguros han sido en gran parte constante e invariable durante décadas. Ha sido la propia definición de una institución del tipo "club de viejos amigos": estática, monopolista, y de gran alcance. La competencia no ha llegado desde el interior, por lo menos no en la misma medida en que lo hizo una vez, con los bancos monstruo trabajando duro para tomar simplemente trozos de unos a otros. Fintech está tomando lentamente sobre segmentos de negocio completos, y la movilización de un nuevo grupo demográfico que es cualquier cosa menos de edad.

Para aquellos que están totalmente opuesto al sector Fintech, esto realmente va a asustar.

El cambio es de miedo, pero es necesario. La tecnología ha intervenido y ha creado la innovación del estancamiento, y pivota toda una industria llena de jugadores demasiado altos cargos y prudentes para siquiera moverse. De repente, los bancos no tienen más remedio que volver a pensar su estrategia a largo plazo con el fin de seguir compitiendo contra soluciones tecnológicas financieros ágiles más que se han infiltrado en el mercado y de alguna manera para ganar fuerza contra los oligopolios de mercado en algunos casos, y enorme financiera recursos de la mayoría.

Fintech es bastante aterrador para muchas personas, especialmente cuando teniendo en cuenta lo perjudicial este sector ha sido. Fintech ya se ha interrumpido la banca, lo que demuestra el modelo se rompió, en segundo lugar, ha perturbado los mercados de capitales mediante la democratización de cómo el capital se puede elevar e invirtió, y en tercer lugar, está empezando a cambiar cómo funciona el negocio de seguros. Se utiliza la tecnología y los cambios culturales hacia cambios regulatorios para permitir a los inversores de todos los días no acreditadas para invertir. Crowdfunding la equidad faculta a la gente a llegar a ser potencialmente una parte del gran cambio, tomar algo antes de la competencia de los capitalistas de riesgo, inversores ángel, y la riqueza, y hacerlo accesible. Los empresarios se benefician de un acceso más fácil al capital, y los inversores de más opciones.

Lo que todo esto demuestra es que estamos en medio de una revolución Fintech, y no hay manera de detenerlo. El aferrarse a las viejas maneras de hacer las cosas, insistiendo en que eran de alguna manera mejor porque estaban familiarizados implica que no hay lugar para el miedo en las finanzas y en los negocios. Fintech es un positivo. Los inversores, consumidores, y de hecho incluso los bancos deben saber que esto es motivo de optimismo, porque representa una oportunidad para ser mejor, para hacerlo mejor, y para hacer más.

Lo que esto significa es que los nuevos operadores que están impactando en estos sectores se están convirtiendo en empresas globales dominantes durante la noche, algo que no hemos visto en el pasado. Considere algunas de las historias de éxito de crowdfunding la equidad en los EE.UU. e internacionalmente: OurCrowd tiene ofertas cerrado con éxito para las empresas que buscan por más de $ 25 millones en financiación y StartEngine cuenta con más de $ 70 millones en reservas, y estas historias no son ni siquiera un rasguño en la superficie.

Se necesita muy inversores con visión de futuro para ver esto y muchos están recibiendo en la lista. No son los inversores que frenan, diciendo que las nuevas formas de financiación crowdfunding como la equidad no funcionarán, son los actores de la industria establecidos, y lo hacen porque tienen miedo. Se niegan a adaptarse. Ellos ven el cambio, y que 2016 es el año en que las empresas Fintech avanzar al primer plano, y comienzan a convertirse en la casa dominante en todo el mundo. Ellos no están acostumbrados a este tipo de competidor. Ellos solamente nunca he competido contra las organizaciones exactamente iguales a los suyos, y que les asusta.

Prepárate, para aquellos que creen que esto sólo ocurre en su ciudad o país: la irrupción es global y Fintech es una onda de marea.

jueves, 14 de abril de 2016

Salario promedio de un programador en Argentina



¿Cuánto gana un programador de software en la Argentina?
La cámara que agrupa a la industria del software en el país hizo una encuesta entre 150 empresas para determinar el sueldo promedio de un desarrollador de software



La Cámara de la industria del software de la Argentina (Cessi) difundió ayer los resultados de una encuesta realizada entre 150 empresas de software de todo el país, que alcanza a 12.000 empleados. Lo hizo el Observatorio Permanente de la Industria de Software y Servicios Informáticos de la Argentina (Opssi), que tomó como referencia el sueldo bruto mensual que pagan esas 150 empresas.

Según el estudio, el sueldo bruto promedio de un programador sin experiencia en la Argentina es de $ 13.100, monto que se eleva a 17.598 pesos mensuales para un desarrollador de software semi senior, y a 23.500 pesos de sueldo bruto para un programador con experiencia. Como es evidente, hay compañías que pagan más y otras que pagan menos; lo que marca el estudio es el promedio de esas 150 compañías encuestadas.

Según Aníbal Carmona, presidente de la Cámara, "el objetivo de este estudio es brindar información de calidad para un mercado donde existe una verdadera guerra por el talento, ya que se estima que hay 5000 puestos que no pueden ser cubiertos cada año" en nuestro país.

La Nación

martes, 12 de abril de 2016

El valor de las redes según Reed



La Ley de la Manada
David P. Reed - Harvard Business Review



La Internet es una red de redes, y su valor radica en las conexiones que hace posibles. Como gerentes y empresarios tratan de medir ese valor, que han pagado una gran cantidad de atención a dos tipos de redes. El más simple es el o uno-a-muchos de difusión de la red, a través de la cual un centro de transmisiones proveedor de información a un gran número de usuarios. Un ejemplo es el portal Web, que ofrece noticias y otros contenidos a muchos visitantes. Más complejo, y más valiosos, es el uno-a-uno o transaccional de la red, que conecta a los usuarios individuales con otros usuarios individuales para intercambiar información o realizar otras transacciones. Los ejemplos más comunes son el correo electrónico y la mensajería instantánea.

Pero hay un tercer tipo de red que, aunque menos entendido que los otros dos, es en realidad el más valioso de todos. Es la red de formación de grupo-muchos-a-muchos-o, lo que permite a los miembros de la red para formar y mantener grupos de comunicación. Ejemplos de grupos de formación de redes, o GFNs, incluyen las comunidades en línea, intercambio de negocio a negocio, y los carteles de comprador.

He estado estudiando GFNs durante los últimos cuatro años y han llegado a darse cuenta de que requieren una nueva forma de medir el valor de la red. De hecho, creo que las empresas que pueden aprovechar el poder de GFNs obtendrán las ventajas competitivas más fuertes que Internet tiene para ofrecer.

Las empresas que capitalizan en las redes de formación de grupo obtendrán la ventaja más fuerte que Internet tiene para ofrecer.

Las formas de medir el valor de las redes de transmisión y transaccionales están bastante bien establecidos. A medida que el número de usuarios en una transmisión en la red se eleva, su valor aumenta de forma lineal. Cada nuevo miembro añade la misma cantidad de valor, independientemente del tamaño de la red se convierte. En una red transaccional, el valor crece mucho más rápido. Debido a que cada nuevo miembro aumenta el número de conexiones posibles a disposición de todos los demás miembros, el valor de cada miembro sigue subiendo medida que se expande la red. Esta relación se recoge en la Ley de Metcalfe, que establece que el valor de una red de uno-a-uno crece en proporción al cuadrado del número de usuarios. Si el número de miembros de la red es igual a n, en otras palabras, el valor de una red de uno a muchos crece en proporción a n mientras que el valor de una red de uno-a-uno crece en proporción a n2.

Pero incluso la Ley de Metcalfe subestima el valor creado por una red de formación de grupo a medida que crece. Digamos que usted tiene un GFN con n miembros. Si se suman todos los posibles grupos de dos personas, grupos de tres personas, y así sucesivamente que podría formar esos miembros, el número de posibles grupos es igual a 2n. Así que el valor de un GFN aumenta de manera exponencial, en proporción a 2n. Yo llamo a esto la ley de Reed. Y sus implicaciones son profundas.

Considere la posibilidad de un negocio de la red de plataformas como America Online. Proporciona una mezcla de servicios basados ​​en la red a sus clientes. Una cosa que hace es contenido de difusión como informes meteorológicos y noticias. Dado que el contenido se sirve a un usuario a la vez, se crea valor proporcional al número de usuarios en la red. Otro de los servicios de AOL es la mensajería, un medio de uno-a-uno. Según la ley de Metcalfe, el valor de la mensajería crece proporcionalmente al cuadrado del número de usuarios. Por último, permite a los usuarios de AOL para formar grupos a través de mecanismos tales como salas de chat y juegos multijugador. De acuerdo con la Ley de Reed, el valor de tales GFNs crece exponencialmente. Así pues, estas redes llegan rápidamente a dominar el valor total creado por AOL (para una ilustración, véase el gráfico adjunto, "El valor relativo de los servicios de AOL"). No es de extrañar, ya que la pertenencia de AOL se ha expandido, una gran parte de la atención del usuario se ha desplazado de acceso a los contenidos y hacia las actividades de formación de grupo.

El más potente aplicación de la Ley de Reed puede estar en el espacio de negocio a negocio. Intercambios y las redes de negocios basados ​​en redes similares pueden ayudar a los clientes se unen para solicitar productos y servicios personalizados a los proveedores, y pueden ayudar a los proveedores organizan alianzas para crear nuevos productos y servicios. A medida que crecen estas redes, el valor que ofrecen a sus empresas miembros en magnificar grandemente, y las organizaciones o consorcios que operan ellos ganará cada vez mayor poder de mercado. Como indicaría Ley de Reed, las empresas más exitosas en Internet viajarán en paquetes.

viernes, 8 de abril de 2016

Un resumen de bibliografía de economías de aglomeración


FUENTES DE LAS ECONOMÍAS DE AGLOMERACIÓN: UNA REVISIÓN BIBLIOGRÁFICA




Olga Lucía Manrique*

* Profesora de la Facultad de Ciencias Económicas de la Universidad Nacional de Colombia. Estudiante del Programa de Doctorado en Economía Aplicada de la Universidad Autónoma de Barcelona. Enviar comentarios al correo: olmanriquec@unal.edu.co . Articulo recibido el 17 de octubre de 2006, aprobada su publicación el 14 de noviembre

Publicado en Cuadernos de Economía

Resumen

A partir de una revisión de la literatura sobre las economías de aglomeración se resaltan los aportes de diversos trabajos teóricos y empíricos, en particular, los que se relacionan con las causas de tales economías. Como referencias principales se toman dos trabajos pioneros, el de G. Duranton y D. Puga (2003) y el de S. Rosenthal y W. Strange (2003). El primero recopila trabajos teóricos y resume en tres categorías los mecanismos microeconómicos de las economías de aglomeración: sharing, matching y learning. El segundo recoge los trabajos empíricos y considera tres fuentes microeconómicas: input sharing, knowledge spillovers y labor market pooling.

Palabras claves: aglomeración, externalidades, participación en los beneficios, aprendizaje, emparejamiento. JEL: D62, D83, J41, R10, R12.



El tema de las economías de aglomeración ha sido estudiado por urbanistas, geólogos y economistas desde hace varias décadas. Tal como la definió William Strange (2005), "La aglomeración urbana es la concentración espacial de la actividad económica en las ciudades. También puede tomar la forma de concentración en grupos industriales o en centros de empleo en una ciudad". Se considera que la concentración espacial es una ventaja, en términos de eficiencia, para desempeñar las diferentes actividades de la sociedad (económicas, sociales, políticas, etc.), que se justifica desde el punto de vista económico por las indivisibilidades o economías de escala.

La concentración espacial de la actividad económica y de los factores productivos induce un proceso acumulativo de concentración de otros mercados y actividades, como el mercado laboral, la educación los servicios públicos. Pero este proceso está limitado por los costos de transporte y las deseconomías de aglomeración, dos temas que han atraído la atención de diversos autores pero que no detallamos en este escrito.

De manera general, las economías de aglomeración se clasifican en tres tipos: economías internas a la empresa, economías de localización y economías de urbanización. Las primeras hacen referencia a la concentración de la producción en una única empresa, las segundas se relacionan con la concentración en industrias particulares (Marshall 1890) y las últimas con el tamaño o la diversidad de la ciudad (Jacobs 1969).

Si las economías internas de escala generan la concentración en lugar de un volumen creciente de producción por parte de una misma empresa, las economías ´externas´ generan la concentración de empresas y actividades diversas sobre la base de las ventajas que se derivan de: la explotación de un capital fijo social localizado[ ...] o de recursos naturales específicos, la presencia de indivisibilidades en el suministro de bienes o servicios [ ...] , y la creación de efectos de sinergia que se manifiestan en una mejora de la eficiencia conjunta de la producción (Camagnani 2005).
Cada tipo genera una clase particular de externalidades (positivas o negativas). Entre las externalidades asociadas con las economías de localización están la posibilidad de la especialización de las empresas en el proceso productivo (menores costos globales), la reducción de los costos de transacción de las unidades productivas especializadas gracias a la proximidad y a la intensidad de las relaciones personales, las economías de aprendizaje individual y colectivo, las economías conexas al proceso de circulación y valorización, y la creación de una atmósfera industrial (economías dinámicas).

Por otra parte, la concentración de la intervención del sector público en la ciudad (concentración de capital social fijo, economías de escala en la provisión de servicios públicos), las externalidades que genera el gran mercado de la ciudad (acceso a mercados de grandes dimensiones, posibilidad de encontrar grandes nichos de especialización) y las que genera la ciudad como incubadora de factores productivos y de mercado de los factores de producción (acceso a un mercado de trabajo amplio y a funciones urbanas especializadas, oferta de capacidades empresariales y directivas, economías de comunicación e información) se asocian con las economías de urbanización.

En cuanto a las ventajas de las economías de aglomeración cabe mencionar la reducción de los costos de transacción y los efectos de sinergia. Pero, en general, se considera que a partir de cierta dimensión los elementos anteriores se convierten en deseconomías. Pensado como problema de óptimo social, se pueden dar diferentes definiciones a la dimensión crítica de la ciudad: la dimensión mínima, la dimensión óptima desde el punto de vista de los costos, la dimensión óptima en términos per cápita (dimensión óptima para la población), la dimensión óptima desde el punto de vista de la maximización de los beneficios, la dimensión óptima social y la dimensión máxima (costos y beneficios en equilibrio).

En cuanto a la dimensión mínima relacionada con el suministro de servicios urbanos hay relativo acuerdo en que es de 200 mil a 250 mil habitantes. Con respecto a la dimensión máxima eficiente vinculada al papel que desempeña la ciudad, se encuentra que ciudades de dimensión diferente desempeñan funciones diferentes, por lo que la dimensión máxima eficiente depende del papel que desempeña cada ciudad. Desde el punto de vista de los beneficios puede ser poco significativo definir la dimensión de una ciudad si no va acompañada de información sobre la estructura urbana y espacial global a la que está integrada. Esto permite entrever la dificultad para definir límites claros de las economías de aglomeración y explica por qué en el intento de definir la dimensión óptima han surgido diferentes posturas, como la económica liberal y la política radical, A pesar de la importancia de definir estos límites, la mayoría de los estudios han sido de carácter teórico, debido a las dificultades para realizar estudios empíricos concluyentes.

La importancia de las economías de aglomeración ha despertado el interés de algunos autores que intentan determinar y entender su origen (su naturaleza y sus fuentes). Como hechos principales se mencionan las ventajas naturales de las industrias y la aparición de rendimientos crecientes a escala externos. En este último caso, se señala como causas principales a factores tales como sharing , matching y learning . Para los fines de este escrito nos centramos en dos trabajos pioneros, el de Gilles Duranton y Diego Puga (2003) y el de Stuart Rosenthal y William Strange (2003). Los dos hacen excelentes revisiones, una desde el punto de vista teórico y la otra desde el punto de vista empírico.

ASPECTOS TEÓRICOS

En su artículo de 2003, Duranton y Puga revisan los trabajos teóricos sobre las economías de aglomeración elaborados a partir de los fundamentos microeconómicos, y especifican tres tipos: sharing (relación entre oferentes de bienes intermedios y oferentes de bienes finales), matching (interacciones en el mercado de trabajo) y learning (aprendizaje).

Sharing

En el caso de sharing muestran que existe una abundante literatura cuyo problema central es la provisión de ciertos bienes o servicios indivisibles y se enfocan en los conceptos de equilibrio y en los instrumentos de política 1. Se ha relacionado el concepto de sharing con las ganancias compartidas que genera la variedad ; a este respecto, los autores prestan especial atención al modelo de Ethier (1982) 2, que describe una industria cuyos rendimientos agregados son crecientes debido a las ventajas productivas de compartir una amplia variedad de insumos intermedios diferenciados. Los rendimientos crecientes en un sector obedecen a que un incremento del factor trabajo puede estar asociado con una mayor cantidad de productores intermedios, lo que hace más productivos a los productores finales por el acceso a un rango de variedades más amplio. "Un incremento de la producción final en virtud de compartir una mayor variedad de oferentes intermedios requiere un incremento menos que proporcional de los factores primarios" (Duranton y Puga 2003).

La especialización urbana se justifica porque los insumos son compartidos en los sectores y no entre ellos, y porque el intercambio de bienes finales es menos costoso mientras que el intercambio de bienes intermedios es infinitamente costoso.

Por otro lado, hay autores 3 que postulan, siguiendo a Adam Smith (1776), que hay ganancias de productividad como resultado del aumento de la especialización cuando los trabajadores se dedican a una sola tarea (Duranton y Puga las denominan ganancias de la especialización individual). Hay tres elementos que las explican, en primer lugar el proceso de learning by doing , ya que cuando hacen la misma tarea los trabajadores mejoran su destreza para dicha tarea; en segundo lugar, el ahorro de costos fijos por no cambiar de tarea a los trabajadores y, finalmente, el fomento a las innovaciones por el ahorro de trabajo, ya que las tareas más simples se pueden mecanizar más fácilmente. A partir de este argumento, se concluye que existen rendimientos crecientes al nivel de ciudad. "En el modelo, un incremento del tamaño de la fuerza de trabajo lleva a una profundización de la división del trabajo entre los trabajadores, lo que hace más productivo a cada trabajador. Sin embargo, hay ganancias de la división del trabajo que están limitadas por la extensión del mercado de trabajo" (Duranton y Puga 2003, 14).

Un mecanismo alternativo que se ha reconocido como fuente de economías de aglomeración es el labor pooling . La idea central es que una industria tiene ventajas que se traducen en mayores ganancias por el hecho de ofrecer un mercado constante para las destrezas de los trabajadores. A partir del modelo de Krugman (1991), que formaliza esa idea, se encuentra que la aversión al riesgo no juega ningún papel en el proceso de aglomeración. En las ganancias por compartir recursos entre firmas puede influir el desconocimiento ( ex ante ) de las firmas del monto de recursos que necesitan en su proceso productivo. En el esquema de salarios ´pegajosos´ con posibilidad de desempleo se refuerza la tendencia de las firmas y de los trabajadores a aglomerarse. En este caso los trabajadores tienen un mayor incentivo para minimizar el riesgo de quedar desempleados; por su parte, las firmas tienen mayor incentivo para aglomerarse con el fin de evitar presiones de la fuerza laboral cuando enfrentan choques positivos. El comportamiento estratégico de las firmas en el mercado laboral puede complicar los resultados, en particular, la posibilidad de poder de monopsonio debilita la tendencia de las firmas a aglomerarse.

Learning

Duranton y Puga definen el aprendizaje en sentido estricto como un proceso de tres etapas: enseñanza, entrenamiento (formación) e investigación. En este sentido, el aprendizaje es valioso en términos de sus fuentes y por su contribución al desarrollo económico. Puesto que es una actividad que se desarrolla de manera colectiva, las ciudades pueden facilitar el aprendizaje; aunque los mecanismos de aprendizaje pueden generar efectos de aglomeración en las ciudades, como insinuó Marshall (1890), las ciudades favorecen la difusión de innovaciones e ideas, y también Jacobs (1969) con el argumento de que el ambiente de las ciudades mejora las posibilidades de generar nuevas ideas. Por su parte, Lucas (1988) considera que las ventajas que ofrecen las ciudades no son únicamente técnicas, favorecen además la adquisición de destrezas y aumentan la generación, difusión y acumulación de conocimientos.

En cuanto a la generación de conocimiento es crucial considerar el papel de los ambientes urbanos diversificados para facilitar la investigación y la experimentación en innovación (Jacobs 1969), (Duranton y Puga 2001) construyen un modelo que justifica la coexistencia de ciudades diversificadas y especializadas y la aglomeración de firmas, y concluyen que "la combinación de economías de localización con costos de congestión crea ventajas estáticas para la especialización urbana" (Duranton y Puga 2001, 31).

La difusión de conocimiento se relaciona con la transmisión de destrezas, la difusión de información y la difusión de conocimiento propiamente dicha. Algunos modelos, como los de Jovanovic y Rob (1989), Jovanovic y Nyarko (1995) y Glaeser (1999) analizan la transmisión de destrezas y encuentran que la proximidad a individuos con más destrezas o conocimientos facilita la adquisición de destrezas y el intercambio y difusión de conocimientos. A partir de un modelo de generaciones traslapadas, Duranton y Puga (2003) encuentran que los trabajadores jóvenes eligen vivir en ciudades para adquirir destrezas y que los trabajadores cualificados permanecen en las ciudades para transmitir sus destrezas y habilidades. Sin embargo, afirmar que las ciudades ofrecen mejores oportunidades de aprendizaje es un supuesto, más que la derivación de una microestructura bien especificada.

Con respecto a la difusión de información y su relación con las ciudades, hay dos tendencias, la primera se fundamenta en el aprendizaje social y cuenta con una fuerte microfundamentación (Vives 1996, Bikhchandani, Hirshleifer y Welch 1998, Sobel 2000). Sus modelos tienen dos propiedades importantes: la posibilidad de rebaño ineficiente y la posibilidad de retraso estratégico. En el primer caso, los modelos de Banerjee (1992), Bikhchandani, Hirshleifer y Welch (1992) obtienen resultados de rebaño ineficiente porque las firmas reciben señales equivocadas en forma secuencial que las llevan a tomar decisiones equivocadas. Cada firma recibe información privada sobre la decisión que debe tomar. Las firmas toman sus decisiones secuencialmente a partir de las decisiones previas. La primera firma toma su decisión de acuerdo con la información privada que ha recibido, la segunda no sólo utiliza su información privada sino también la información sobre lo que hizo la primera, el proceso continúa sucesivamente de modo que si las primeras firmas reciben señales equivocadas las demás harán lo mismo porque dan más peso a la información sobre las acciones de las demás que a su información privada.

Con respecto al retraso estratégico , Chamley y Gale (1994) encuentran –en un esquema en el que el tiempo de decisión es endógeno–que las firmas prefieren esperar a que otras tomen sus decisiones de inversión, pues le es beneficioso esperar para aprender de las decisiones de las demás 4. Cuando el tiempo de decisión es exógeno no hay efectos de escala, generalmente la decisión se cristaliza después de pocos periodos, sin que importe el número de jugadores.

Por último, en lo referente a la acumulación de conocimiento, se suele utilizar modelos de crecimiento económico que incorporan el conocimiento como factor de acumulación y, de manera más específica, como capital humano. Los modelos de Romer (1986), Palivos y Wang (1996), Ioannides (1994), Black y Henderson (1999), Lucas (1988), y Eaton y Eckstein (1997) dan diferentes opciones de modelación, desde las más sencillas con los supuestos de economías con rendimientos constantes individuales y rendimientos crecientes a nivel agregado, pasando por economías con crecimiento de la población, hasta la modelación del crecimiento urbano utilizando externalidades dinámicas.

Matching

Cuando nos referimos al matching 5 delimitamos el estudio a un mercado particular, el mercado laboral, y en esencia nos referimos a la forma como se ´emparejan´ empleadores y trabajadores. Las economías de aglomeración pueden surgir por dos razones, porque la calidad de cada emparejamiento (match) mejora cuando aumenta el número de agentes que tratan de emparejarse (externalidad del emparejamiento, Helsley y Strange 1990 6) y por el ahorro de costos fijos cuando la competencia lleva a que el número de firmas crezca menos que proporcionalmente con la fuerza de trabajo.

Un aspecto que resaltan Duranton y Puga es que el problema del matching muestra que las economías de aglomeración van más allá de la mera presencia de rendimientos crecientes a escala, y que también las pueden originar externalidades que incrementan el ingreso por trabajador. "Cuando la fuerza de trabajo crece y el número de firmas aumenta, el trabajador promedio puede encontrar un empleador que es una mejor pareja para su destreza" 7.

El modelo de Helsley y Strange (1990) ha sido extendido en diferentes direcciones. Por ejemplo, el modelo de Brueckern et al. (2002) muestra que la relación entre hogares y mercado laboral es compleja. Kim (1989) modifica el modelo permitiendo que los trabajadores inviertan en capital humano general (reduciendo los costos de no emparejarse) o en capital humano específico (aumentando la productividad en habilidades específicas), y encuentra que cuando el tamaño de los mercados locales aumenta, la inversión en capital humano específico aumenta en relación con la inversión en capital humano general, lo que denomina "especialización creciente con el tamaño de la ciudad" 8.

Otros autores introducen características dinámicas en el modelo, como Helsey y Strange (1991) que consideran un modelo de dos períodos, y Zhang (2002), que lo extiende a un horizonte de tiempo infinito. Con un enfoque distinto, Ellison, Fudenberg y Möbius (2002) exploran un mecanismo de aglomeración en el contexto de subastas competitivas y consideran la elección simultánea de compradores y vendedores entre dos mercados competitivos. A partir de la elección de un mercado, los compradores conocen sus valoraciones privadas y se efectúa una subasta en cada mercado, y encuentran que cuanto más grandes son los mercados más eficientes son para una razón comprador a vendedor dada.

Storper y Venables (2002) consideran que las ciudades mejoran la calidad de los emparejamientos. En su modelo, los trabajadores se emparejan al azar con otro trabajador local para llevar a cabo ciertas tareas. Los trabajadores con alta destreza y los trabajadores con poca destreza son más productivos cuando se emparejan con trabajadores con alta destreza. Sin embargo, las ganancias productivas de tener una pareja con alta destreza son mayores para los trabajadores con alta destreza.

Por último, los modelos que relacionan la aglomeración urbana con el hecho de que un mayor número de agentes que tratan de emparejarse mejora la oportunidad de hacerlo incorporan elementos del desempleo de equilibrio en los que la búsqueda de empleo y el reclutamiento están sujetos a fricciones (Mortensen y Pissarides 1999, Petrongolo y Pissarides 2001). "Un incremento del número de agentes en una ciudad reduce las fricciones de búsqueda y resulta en proporciones más pequeñas de trabajadores desempleados y vacantes sin llenar. De manera más general, un incremento de todos los insumos asegura que una proporción más pequeña de estos insumos permanezca ociosa" (Duranton y Puga, 25) 9.

ASPECTOS EMPÍRICOS

En su artículo de 2003, Rosenthal y Strange revisan los trabajos empíricos sobre la naturaleza y las fuentes de las economías de aglomeración. Con relación a las fuentes y desde el punto de vista de los microfundamentos, consideran las que sugirió Marshall (1920), los insumos compartidos ( input sharing ), los procesos de aprendizaje ( knowledge spillovers ) y la agrupación del mercado laboral ( labor market pooling ).

Sharing

Compartir insumos (sharing) se justifica por la existencia de economías de escala en su producción. El trabajo de Holmes (1999) considera la relación entre localización de una firma e insumos compartidos en el caso de Estados Unidos, primero con un cálculo de la desintegración vertical de las industrias consideradas en el estudio, y luego con un análisis de regresión. En el primer caso, el grado de desintegración vertical, que utilizan como medida de insumos compartidos, se obtiene dividiendo los insumos comprados por las ventas totales. El resultado corresponde a la intensidad de insumos comprados. En este caso, el análisis muestra que las industrias más concentradas comparten insumos. En el análisis de regresión, la variable dependiente es la diferencia entre intensidad de insumos comprados e intensidad promedio de insumos comprados en la industria. Las variables explicativas son el volumen de empleo en la industria en el mismo Estado y en otros Estados. En este caso, el resultado también indica que se comparten insumos. Por tanto, Holmes encuentra evidencia de una relación positiva entre desintegración vertical y concentración industrial.

Aunque Rosenthal y Strange reconocen que el trabajo de Holmes ofrece la evidencia más directa y completa de insumos compartidos como fuente de las economías de aglomeración, piensan que el estudio sobreestima la influencia causal de la aglomeración sobre las oportunidades para compartir insumos (la localización de la planta es endógena en el modelo econométrico). No obstante, los resultados de Holmes apoyan la presencia de insumos compartidos como fuente de las economías de aglomeración.

Otros trabajos que aportan evidencia en este sentido, aunque no de manera directa, son los de Bartlesman et al. (1994), Holmes y Vernon (1960), y Stevens (2002); este último utiliza el tamaño del establecimiento como variable explicativa. Todos muestran fuerte evidencia de insumos compartidos como fuente de las economías de aglomeración.

Knowledge Spillovers

Para Rosenthal y Strange este es el más interesante de los fundamentos microeconómicos en diferentes áreas de la teoría económica. Pero son conscientes de la dificultad de identificarlo empíricamente, entre otras cosas porque el conocimiento muchas veces se intercambia sin comprarlo o venderlo, lo que impone un desafío a los econometristas que intentan medir el conocimiento.

El trabajo de Jaffee et al. (1993) intenta medir el conocimiento de manera directa, aunque no muestra claramente su relación con la aglomeración o la productividad. Otros trabajos (Audretsch y Feldman 1996) intentan determinar el efecto de las características industriales sobre la innovación, considerando el impacto de la aglomeración. Los resultados son compatibles con la presencia de procesos de aprendizaje. Mediante un análisis de regresión de la concentración espacial de la actividad innovadora condicionada por el número de atributos específicos locales e industriales, incluidos la investigación en las universidades, los gastos en investigación y desarrollo, y la disponibilidad del trabajo cualificado, obtienen resultados que confirman que el conocimiento orientado a las industrias que más concentran espacialmente la actividad innovadora es consistente con la presencia de knowledge spillovers.

Los trabajos de Rauch (1993), Acemoglu y Angrist (1999) y Moreti (2000) sugieren que las externalidades del capital humano dependen altamente de los trabajadores con alto nivel educativo, siguiendo la idea de Marshall de que los trabajadores son el principal mecanismo de transmisión del conocimiento 10. Rauch estudia el impacto del nivel promedio de educación sobre los salarios y las rentas. Usando un modelo hedonista muestra que la presencia de buenos efectos generales puede aumentar los salarios donde los niveles promedio de educación son altos, porque los trabajadores serán más productivos y los empleadores estarán dispuestos a pagar salarios altos. Además, las rentas serán más altas porque la productividad ligada a salarios más altos se capitalizará en los precios. Una objeción a los estudios de los efectos de los niveles de educación sobre los procesos de aprendizaje es que no especifican el canal de interacción.

Labor Market Pooling

Cuando se hace referencia a la agrupación del mercado laboral ( labor market pooling ) caben dos interpretaciones, como efecto urbanización (para los trabajadores es más fácil ´engranar´ en ciudades grandes) o como efecto localización (para los trabajadores es más fácil ´engranar´ en industrias concentradas). Algunos estudios han intentado determinar empíricamente el efecto de la calidad del emparejamiento entre trabajadores y empresarios sobre las economías de aglomeración. Aquí también los econometristas tienen dificultades para calcular la calidad del emparejamiento.

Una posibilidad es calcular las tasas de terminación de los emparejamientos; en ausencia de un buen reemplazo es menos probable que una firma despida a un trabajador, sin importar la calidad del emparejamiento. Otra alternativa es considerar la rotación de empleos; en este caso la hipótesis de agrupación del mercado laboral implica que los trabajadores pueden cambiar de trabajo fácilmente y que las firmas pueden cambiar de empleados con igual facilidad. Otra manera puede ser la de examinar la influencia de la especialización el trabajo: el estudio de Baumgartner (1988b) muestra que la aglomeración puede fomentar la especialización .

Una interpretación alternativa del labor market pooling lo asocia con el riesgo . Cuando los trabajadores eligen trabajar en una ciudad particular para un empleador particular, las firmas y los trabajadores enfrentan dos clases de riesgos. El primero, asociado a la relación específica firma-trabajador, consiste en que por razones de emparejamiento la relación pueda terminar. Cuando los requerimientos de una firma y las destrezas de los trabajadores son específicas a las industrias, el emparejamiento entre empresarios y trabajadores es más fácil en las industrias más concentradas. Así, el riesgo específico se puede reducir por efectos de localización.

El segundo es específico a una industria. La localización en ciudades especializadas expone a los trabajadores a grandes riesgos, pues en caso de perder el empleo no encuentran otro fácilmente si los demás empleadores del área están afectados por el mismo choque negativo. Por tanto, la localización en una ciudad especializada los expone a riesgos mayores. De modo que un choque en industrias específicas puede desalentar la localización, mientras que los choques de emparejamientos específicos pueden alentarla. Aquí surge una pregunta ¿cuál es el impacto del grado de especialización sobre el mercado laboral?

En esta línea de investigación, Simon (1988) examina la relación entre tasa de desempleo y especialización de la ciudad. Con ayuda de un índice de Herfindahl muestra que el desempleo es mayor cuanto más especializada es una ciudad, lo que coincide con el hecho de que los choques en industrias específicas son importantes. El mayor riesgo que enfrentan los trabajadores en una ciudad especializada requiere salarios más altos como compensación. En otro estudio, Diamond y Simon (1990) muestran que en ciudades más especializadas los trabajadores demandan salarios más altos, asociados a medidas específicas de la variabilidad cíclica del empleo en una industria. Por su parte, Costa y Kahn (2000) concluyen que el riesgo es menor y los emparejamientos son mejores en ciudades grandes a partir de un estudio de parejas con cierto grado de estudios en el periodo 1940-1990. Moretti (2000) encuentra que si la productividad de mayores niveles de educación es crucial para el desempeño económico (y los matrimonios se mantienen) las ciudades más grandes tienen ventajas de productividad en relación con las ciudades pequeñas. En la siguiente sección se describen con más detalle estos cuatro estudios.

EXTENSIONES: MATCHING Y ESTRUCTURA DE LAS CIUDADES

Para Simon (1988), la estructura industrial de las ciudades juega un papel importante en la determinación de la tasa nacional de desempleo. A partir de un trabajo empírico para 91 grandes áreas metropolitanas de Estados Unidos durante el período 1977-1981 encuentra que la tasa de desempleo friccional en una ciudad es menor cuanto más diversificada industrialmente es la ciudad 11. Su análisis supone que las fluctuaciones del empleo tienen componentes cíclicos, estacionales, seculares y friccionales 12. Como indicador de la diversidad industrial utiliza un índice de Herfindahl y encuentra una relación negativa significativa entre diversidad industrial y tasa de desempleo de la ciudad. Las ciudades más concentradas de la muestra tienen una tasa de desempleo friccional de cerca de 1,4 puntos porcentuales por encima del promedio, mientras que las ciudades diversificadas tienen una tasa de desempleo friccional de cerca de un punto porcentual por debajo del promedio.

En un trabajo posterior, Diamond y Simon (1990) extienden el estudio para determinar los efectos de la especialización de las ciudades sobre los salarios y el desempleo. Su argumento es que las ciudades más especializadas corren el riesgo de un desempleo mayor y, a partir de la teoría de la compensación de los salarios diferenciales, concluyen que los individuos que viven en ciudades más especializadas son compensados con tasas de salarios más altas. La diversidad de oportunidades de empleo potencial crea un efecto portafolio en el mercado laboral. Así, las ciudades más diversificadas industrialmente tendrán menores tasas de desempleo en promedio; mientras que las más especializadas tendrán tasas de desempleo más altas. Con ayuda de una medida de riesgo en el mercado laboral 13, examinan la relación con la especialización industrial. Cada ciudad tiene un portafolio de industrias, y en cada industria fluctúa la tasa de crecimiento del empleo 14.

Además construyen un índice de Herfindahl para medir la especialización industrial (que mide el riesgo de empleo de un trabajador típico en una ciudad), y encuentran que una ciudad diversificada (en un conjunto de industrias cuyo empleo tiene correlación alta y positiva) es más riesgosa que una ciudad igualmente diversificada cuyas industrias no están correlacionadas, aunque aclaran que sus índices de especialización no miden totalmente el riesgo de empleo. En su trabajo empírico establecen la relación entre salarios, desempleo y especialización industrial en 43 áreas metropolitanas de Estados Unidos, considerando individuos de 20 a 65 años que hayan sido empleados de tiempo completo al menos durante 26 semanas. También tienen en cuenta el tamaño de las firmas y el ciclo de los negocios. Los resultados del modelo econométrico indican que los individuos que viven en ciudades más especializadas tienen una probabilidad de desempleo más alta y tasas de salarios más altas como compensación. El trabajo aporta fuerte evidencia a favor de la hipótesis de compensación de salarios diferenciales por el aumento del riesgo de desempleo debido a la especialización de las ciudades.

Costa y Kahn, desde una perspectiva algo distinta (enfoque del capital humano), intentan determinar si las parejas (matrimonios) con cierto grado de escolaridad tienden a localizarse en grandes áreas metropolitanas y exploran las causas posibles: la mayor urbanización de los colegios, el crecimiento de hogares con carreras duales y el problema de colocación resultante. Para los autores esta última es la razón primaria. Las ciudades pequeñas tienen pocas entradas de capital humano y, por tanto, son más pobres. Para comprobarlo empíricamente toman datos de la tendencia de la elección de localización entre ciudades grandes, medianas y pequeñas en el periodo 1940-1990, y encuentran que la colocación es la explicación más probable de la tendencia observada. Las ciudades grandes facilitan el emparejamiento de individuos altamente educados y capacitan a las parejas profesionales para resolver el problema de localización conjunta, también preservan los matrimonios de parejas con carreras diferentes porque los mercados laborales son más diversos.

Moretti, desde una perspectiva similar a la de Costa y Kahn, examina el efecto del crecimiento del nivel de capital humano total sobre la economía de una ciudad y el efecto sobre la productividad, los salarios y los precios de la tierra cuando aumenta el stock de capital humano. Analiza las ganancias sociales de la educación, haciendo énfasis en las externalidades que afectan las áreas geográficas locales. Sin embargo, encuentra que los resultados no son concluyentes, porque las ganancias sociales del capital humano pueden tener implicaciones en otras esferas (como la política) y por la gran dificultad para medir los niveles de capital humano. Para esto sugiere algunas metodologías. La primera, comparar la productividad o los costos unitarios de firmas idénticas localizadas en ciudades con altos y bajos niveles de capital humano. La segunda, identificar los spillovers comparando los precios de la tierra en ciudades con altos y bajos niveles de capital humano, y la última, comparar los salarios de trabajadores idénticos localizados en ciudades con altos y bajos niveles de capital humano. Para Moretti es muy pronto para sacar conclusiones sobre el tamaño de las externalidades, ya que aunque la literatura teórica ha estudiado ampliamente el tema, aún falta profundizar los desarrollos a nivel empírico.

CONCLUSIONES

En las últimas décadas se han publicado numerosos trabajos teóricos sobre las causas de las economías de aglomeración en comparación con los trabajos empíricos. Esto obedece en parte a la dificultad para medir las externalidades producidas por factores tales como el conocimiento, la calidad de las relaciones empresarios-trabajadores, el capital humano, y muchos otros que tienen importancia en las economías modernas, pero que por su naturaleza impiden una medición exacta para obtener resultados concluyentes de sus efectos sobre los diferentes aspectos que son objeto de estudio.

La literatura sobre los microfundamentos de las economías de aglomeración ha hecho grandes progresos desde mediados de los ochenta y la publicación de los dos primeros volúmenes del Handbook de economía regional y urbana . Los mayores progresos se observan en áreas como la organización industrial, la economía laboral y el crecimiento económico. Se considera que la heterogeneidad de los trabajadores y las firmas es la raíz de los mecanismos microeconómicos que justifican la existencia de las ciudades y, pese a su importancia, los trabajos empíricos tienen graves dificultades para representar esta heterogeneidad.

La información incompleta también juega un papel importante en las economías de aglomeración, los modelos más utilizados para representarla son los de learning , matching y sharing . La idea que da base a estos modelos es que los beneficios de las ciudades son mayores en ambientes inciertos y cambiantes. Los dos últimos mecanismos están bien desarrollados en comparación con los de aprendizaje, especialmente los knowledge spillovers , por lo que aún hay que hacer muchos esfuerzos en esta área.

A pesar de los problemas de los estudios empíricos, confirman los resultados de los estudios teóricos. En el caso del sharing , confirman el surgimiento de economías a escala debido a que las industrias comparten insumos. En el caso del matching , la especialización juega un papel importante y guarda estrecha relación con el nivel de salarios de las ciudades. En el caso del learning , la evidencia es menos concluyente, ya que no se ha encontrado una herramienta que permita medir el conocimiento de manera diferente a la del capital humano, que supone una relación directa con los niveles de educación.

Para finalizar, cabe señalar que las investigaciones empíricas sobre economías de aglomeración utilizan microdatos que permiten hacer estudios más sofisticados y estimaciones más confiables resolviendo diversos problemas econométricos.

NOTAS AL PIE

1 Aspectos relacionados con la existencia de las ciudades a partir de ´grandes indivisibilidades´ que indican rendimientos crecientes en el nivel agregado, ´grandes indivisibilidades´ en la producción (Koopmans 1957, Mills 1967, Mirrlees 1972) y ´grandes indivisibilidades´ que determinan la ubicación de los mercados.

2 Una versión del modelo de Dixit y Stiglitz (1977) desde el lado de la producción.

3 Rosen (1983), Baumgardner (1988), Becker y Murphy (1992), Duranton (1998), Becker y Henderon (2000), y Henderson y Becker (2000).

4 Otros autores estudian el uso de la tierra urbana bajo externalidades informacionales espaciales (Fujita y Ogawa 1982, Imai 1982, Helsley 1990, Ota y Fujita 1993, Lucas 2001, Berliant, Peng y Wang 2002, y Lucas y Rossi-Hansberg 2002). En este caso, las ciudades experimentan una transición de una estructura monocéntrica a una multicéntrica y completan la dispersión cuando la decadencia espacial se debilita.

5 Se hará referencia a este término como engranaje o emparejamiento, aunque el término puede tener un significado más complejo.

6 Una versión del modelo del mercado de trabajo de Salop.

7 Las habilidades de los trabajadores se distribuyen de manera uniforme sobre un círculo unitario de densidad igual a la fuerza de trabajo (Duranton y Puga 2003).

8 Tharakan y Tropeano (2001) y Amiti y Pissarides (2002) utilizan el modelo de Salop en un contexto distinto al urbano estándar, por ejemplo, en un ámbito regional.

9 Butters (1977), Hall (1979), Peters (1991), Lagos (2000), Coles (1994) y Coles y Smith (1998) justifican la función de emparejamiento agregada a partir de microfundamentos.

10 Estos trabajos sobre conocimiento y aprendizaje tienen el problema de que la evidencia sobre los mecanismos a través de los que se transmite el conocimiento no es convincente. Charlot y Duranton (2002), por ejemplo, aportan evidencia para concluir que el premio a la educación puede depender de algo diferente al conocimiento y al aprendizaje.

11 El desempleo friccional es el resultado de fluctuaciones aleatorias en los despidos y la contratación de trabajadores entre industrias, ciudades y tiempo.

12 Puesto que las fluctuaciones no están correlacionadas entre industrias, la contratación friccional en algunas industrias puede coincidir con despidos friccionales en otras.

13 Tomada de la medida de riesgo de la teoría de portafolio en finanzas.

14 La medida del riesgo es la varianza del crecimiento del empleo en cada ciudad asociada a su variedad industrial.

miércoles, 6 de abril de 2016

Como entrar a Google sin ser mano de obra calificada



Así consiguieron trabajar en Google, y no sabían nada de tecnología

La única sede de la tecnológica en España, ubicada en Madrid, cuenta con 200 empleados. La media de edad es de 32 años


ANA TORRES MENÁRGUEZ . El País


Un grupo de trabajadores de Google en la sede de Madrid. ©Jaime Villanueva


Las preguntas extrañas en los procesos de selección de Google no son un mito. Calcular cuántas pelotas de ping pong caben en el interior de un autobús de dos plantas era hasta hace unos años una de las pruebas de lógica que el candidato debía resolver in situ frente a su entrevistador. El objetivo era analizar su habilidad para salir airoso de un problema desconocido. El tema suscitó tal interés que en 2012 el autor estadounidense William Poundstone publicó el best seller Are you Smart enough to work at Google? (en español, ¿eres suficientemente inteligente para trabajar en Google?), una guía en la que desglosaba algunos de los retos de lógica más frecuentes planteados por la tecnológica en sus entrevistas.

En abril de 2015 el máximo responsable de recursos humanos de Google, Laszlo Bock, lanzó Work Rules, un libro en el que aseguraba que ese tipo de preguntas no servían para predecir el comportamiento de los candidatos en sus futuros puestos de trabajo. En su lugar, la compañía emplearía otros métodos avalados por investigaciones para tratar de detectar las posibles reacciones de los entrevistados ante situaciones reales.

LAS CUATRO ENTREVISTAS PERSONALES PARA ENTRAR EN GOOGLE


Para acceder a los procesos de selección hay que analizar los puestos que se ofertan en la web Google Carrers y enviar los documentos solicitados. En caso de que el perfil les encaje, la primera criba se efectúa mediante una llamada telefónica en inglés.
Si el candidato supera esa prueba, pasa a la siguiente fase integrada por cuatro entrevistas personales. Cada una de ellas será conducida por un empleado de Google, normalmente el responsable del departamento del puesto ofertado, el jefe de ese empleado, alguna persona con una posición similar y otra de un departamento distinto. En cada una de estas pruebas, que las realizan empleados de diferentes nacionalidades y género, se mide una habilidad concreta:
- Googleyness: se analiza la capacidad del candidato para encajar en la cultura corporativa de la compañía. Se mide su predisposición para el trabajo en equipo o para el aprendizaje autónomo, entre otras.
- General cognitive ability: consiste en una serie de preguntas sobre posibles retos y vulnerabilidades relacionados con el mundo de los negocios para analizar la capacidad de razonar e hilar argumentos lógicos del candidato.
- Liderazgo: se centra en analizar su capacidad de movilizar al resto del equipo. Se le pregunta por situaciones concretas en las que lideró la gestión de una crisis corporativa o gestionó un equipo para resolver un problema concreto.
- Conocimiento técnico del trabajo a desempeñar: en palabras del director de recursos humanos de Google España, Javier Martín, esta cuarta entrevista es la que menos cuenta a la hora de seleccionar a un candidato.
También se puede acceder a las ofertas para la realización de prácticas en las diferentes sedes internacionales en esta web.

Hoy, esa prueba, conocida comoGeneral Cognitive Ability, sigue siendo parte del proceso, pero ahora está más enfocada a la realidad del mundo de los negocios, explica Javier Martín, director de recursos humanos deGoogle España. Preguntar cuántos aviones sobrevuelan el cielo de Madriden hora punta es una de las opciones. “No se busca una respuesta exacta, sino ver cómo piensa y razona el candidato y su capacidad para identificar las variables. En el caso de los aviones, puede hacer referencia al número de compañías aéreas que operan en el país o a las conexiones del aeropuerto de Barajas”, apunta Martín.

Quienes se plantean incorporarse a Google, tienen que saber que no hace falta ser un experto en tecnología. "Hay muchos graduados que no se presentan a los procesos de selección por ideas preconcebidas que no son ciertas. No contratamos solo a ingenieros informáticos ni a frikis de la tecnología", añade el director de recursos humanos. Cada año la tecnológica recibe a escala internacional una media de 2,5 millones de inscripciones a sus ofertas de empleo.

Imprescindible es tener un buen dominio de inglés, de hecho la primera entrevista es telefónica y en ese idioma. “Una de nuestras normas es que la nacionalidad del entrevistador debe ser distinta a la del candidato”, señala Martín. Los 200 empleados de la sede de Google en España, que abrió sus puertas en 2005 en la planta 26 del rascacielos Torre Picasso en Madrid, realizan más del 50% de sus comunicaciones diarias en inglés.

En Google no se entra enviando el currículum y llamando insistentemente a sus oficinas. Solo se puede optar a las vacantes que oferta la compañía en la web Google Careers, en la que se pueden hacer búsquedas personalizadas y filtrar por ciudad o departamento.

Además de las famosas instalaciones con salas provistas de hamacas para el descanso, futbolines y comida gratuita en cualquier momento del día, en Google se pueden realizar estancias de tres meses en cualquiera de sus 70 sedes internacionales, localizadas en 40 países, o pedir el traslado. En 2015, el 10% de la plantilla de España optó por esa opción. "Incentivamos a los empleados a que cada dos años cambien de rol y para ello les formamos constantemente. Cada trabajador recibe al menos 10 horas de cursos al mes. Avanzan al ritmo de la tecnología", asegura Martín.

El perfil de cuatro trabajadores españoles de la sede de Madrid demuestra que se puede acceder con una licenciatura de letras o sin apenas conocimientos de tecnología. Estas son sus historias.


Fran Ruiz (49 años), director de relaciones internacionales


Nunca pensé que lo conseguiría; soy de letras puras


El 24 de agosto de 2006, la portada de The Economist le hizo replantearse su carrera. El tema de apertura Who killed the newspaper (en español, quién mató al periódico) vaticinaba el fin del periodismo impreso en 2043. Tras más de 19 años como periodista en varios medios nacionales, Fran Ruiz decidió ampliar su perfil profesional. Dos años más tarde, se matriculó en un curso de economía y gestión de empresas de laUniversidad de Yale, en Estados Unidos, de tres meses de duración. Pidió permiso a su periódico, en ese momento la Gaceta de los Negocios, y la empresa se hizo cargo del coste de matrícula, unos 4.500 dólares, y le mantuvo el sueldo durante la estancia.

Ese viaje cambió su rumbo. Le fichó una consultora italiana de relaciones internacionales para su sede de Madrid y un año y medio después fue seleccionado por Google. "Pasé siete entrevistas y en ninguna de ellas me hicieron preguntas raras. Se centraron en analizar mi capacidad de resolución de problemas y de liderazgo", cuenta. No se esperaba de él que tuviese nociones básicas de programación ni que supiese cómo gestionar los productos de la compañía.

"Hay que creer en uno mismo y ponerse las pilas con los idiomas, eso es lo más importante", recalca Ruiz, que acaba de cumplir seis años en Google, durante los que ha realizado estancias temporales en las sedes de California, Londres, Dublín y París. "En esta empresa te avalúan cada seis meses en función de los objetivos que alcanzas, son muy exigentes pero se preocupan mucho de tu crecimiento profesional".


Miquel Trías (32 años), analista



No lo había intentado antes porque no soy graduado en Informática


"La escala temporal en Google es totalmente diferente a la de otras empresas. Cada seis meses hay cambios y tu ritmo de aprendizaje es brutal". Miquel Trías, que se incorporó a la tecnológica hace tres años, es graduado en Física y el primer estudiante de doctorado de ondas gravitacionales en España. "Google siempre había sido el top, pero no lo había intentado antes porque pensaba que solo entraban informáticos".

Tras finalizar el doctorado, cursó un máster en dirección de empresas. "Me di cuenta de las pocas posibilidades que brinda España para la carrera investigadora y tomé otro camino", explica.

De las entrevistas en Google recuerda que no se centraron en sus conocimientos específicos, sino en su capacidad resolutiva. "Durante los cinco años de carrera aprendí a enfrentarme a problemas complicados y a diseñar soluciones creativas. De eso va la física y eso fue lo que valoraron". En la sede de España la mayoría de empleados se dedica a la parte de estrategia de negocio digital, y Miquel ya tiene la vista en Estados Unidos, donde se concentran la mayoría de departamentos de innovación. "En un par de años me gustaría sumarme al equipo de inteligencia artificial".


Anaïs Pérez (32 años), directora de comunicación



No tenía experiencia en el campo tecnológico


A Anaïs Pérez la seleccionaron para unas prácticas en el departamento de comunicación de Google apenas unos años después de su graduación. Era 2007 y habían pasado dos años desde la apertura de la sede de la tecnológica en Madrid. "No tenía experiencia en el campo tecnológico, pero buscaban a alguien que entendiese cómo funcionan los medios tradicionales y que supiese crear contenidos noticiables".

Tras licenciarse en Periodismo por la Universidad Carlos III, realizó prácticas en Telecinco y la Cadena Ser y dio el saltó a México gracias a una beca del Banco Santander. Se incorporó durante un año a un periódico local de Tehuacán. "Mi principal reto cuando llegué a Google era traducir un lenguaje y unos conceptos ininteligibles para los periodistas". Siete años y medio después, fue nombrada directora de comunicación.

Durante la carrera, Anaïs mejoró su inglés con dos estancias de tres meses en Irlanda y Londres. "Cuando entras en Google el ritmo de aprendizaje del inglés se multiplica y en pocos meses eres perfectamente capaz de comunicar cualquier asunto".


Carmen García (32 años), manager de cuentas estratégicas



Tenía que reinventarme y encajé en Google


El perfil de Carmen García destaca por su experiencia internacional. Graduada en Ingeniería Industrial por ICAI, cursó un MBA en la India y trabajó durante más de un año en la banca en Nueva York. "Por cuestiones personales regresé a Madrid y decidí intentarlo en Google".

Carmen cree que la seleccionaron por su experiencia en el campo de los negocios y por su espíritu de reinvención. En su currículum también constaba un año y medio de trabajo en una startup y casi dos años en la consultora Deloitte. "En la carrera de ingeniería falta formación en negocio, es la carencia de casi todos los ingenieros", opina. A diferencia del resto de empresas en las que ha trabajado, cree que en Google se fomenta el cambio de rol y la puesta en marcha de nuevas ideas sin miedo al fracaso. "Te permiten arriesgar. Su filosofía es la de probar y medir los resultados. Es muy difícil caer en la monotonía o aburrirse".

Twitter Delicious Facebook Digg Stumbleupon Favorites More

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Hostgator Coupon Code