Mostrando entradas con la etiqueta Unidad 1(B). Mostrar todas las entradas
Mostrando entradas con la etiqueta Unidad 1(B). Mostrar todas las entradas

viernes, 7 de abril de 2017

Mercado de software: Una descripción de niveles





Descripción general del mercado de software
SoftResources


En nuestra opinión, el mayor error que cometen las empresas al comprar una nueva solución de software es que compran en exceso software. Ellos compran software que es demasiado complejo, difícil de implementar, y pagar demasiado dinero. Esto se aplica no sólo a las empresas más pequeñas, sino también a las grandes empresas Fortune 500. ¡No cometas ese error!

Esta visión general del mercado de software le ayudará a clasificar mejor a los proveedores de software para que pueda centrarse en los proveedores adecuados que se adapten a su empresa. SoftResources divide el mercado de software en 5 niveles. Notará que hay una superposición significativa entre los diferentes niveles. Esto se debe a que los productos de software se han vuelto cada vez más escalables en los últimos años permitiendo a las empresas de varios tamaños crecer con el software. Te recomendamos que mires un nivel por encima y un nivel por debajo de tu nivel objetivo. Esto asegura que no se pierda una compra de ganga, pero también le permite ver funcionalidad adicional que podría obtener pagando un poco más.


Tabla de niveles de mercado de software


Nivel 1 - Software de empresa

Este nivel de software es para grandes empresas Fortune 500, multi-ubicación y multinacionales. Son empresas complejas que requieren complejas implementaciones que normalmente tienen que interactuar con múltiples sistemas. Los principales actores de este mercado son ahora SAP y Oracle.

Nivel 2 - Software del Mercado Superior

The Upper Market se centra en empresas que todavía son bastante complejas y requieren un trabajo importante de implementación, pero no son tan grandes como las compañías de Nivel 1. Sorprendentemente, hay un montón de proveedores de software que se centran en este mercado. Ofrecen una funcionalidad significativa típicamente a un costo y una complejidad más bajos que los proveedores de Nivel 1. Si usted es una empresa de nivel 1 o de nivel 2, le recomendamos que considere algunas de las alternativas en este mercado ya que le ahorrará mucho dinero y esfuerzo de implementación. Este nivel incluye proveedores como Infor / Lawson, IFS, MS Dynamics AX y muchos otros.

Nivel 3 - Software de Mercado Medio

El mercado medio es un mercado enorme y los vendedores de software están realmente centrándose en él. Algunos de los principales jugadores que puede haber oído hablar incluyen Microsoft Dynamics NAV y GP, Sage, Exacto, Infor, Syspro, SAP Business One, NetSuite, y una gran cantidad de otro software. Encima de estos vendedores generales, hay una tonelada de soluciones verticales del mercado que se centran en una industria particular tal como fabricación (Infor, Epicor, Consona), distribución (Activant, Infor, etc.), gobierno (Springbrook, Tyler, nuevo mundo , Etc.) y muchos otros. Si su empresa cae en la categoría de nivel 3, usted tiene un montón de opciones para elegir.

Nivel 4 - Software del mercado inferior

Las empresas del mercado de nivel 4 son empresas más pequeñas que han superado las soluciones Nivel 5. Requieren más funcionalidad específica de la industria, pero no tienen un alto número de usuarios. Los vendedores de software tienen buenas soluciones para este mercado con software de bajo costo y soluciones escalables, como Sage - MAS 90, Accpac y otros.

Nivel 5 - Mercado de software empaquetado 

Frecuentemente llamado el mercado Small Office / Home Office (SOHO), este software cuesta entre US$ 100-500 y normalmente se compra en la tienda de software local e implementado por el usuario final. Los principales actores de este mercado son Sage Peachtree, QuickBooks Intuit, Sage Simply Accounting, Intuit Quicken y otros. A pesar de que tienen plantillas de la industria, estos sistemas no permiten la personalización del software y no están construidos para tener un gran número de usuarios en el sistema.

Notará que algunos vendedores de software tienen productos que apuntan a múltiples niveles. Por ejemplo, Sage tiene los siguientes productos: Sage 50 (Peachtree (Nivel 5)), Sage 100 ERP (MAS 90 (Nivel 4 y 3)), Sage 500 ERP (MAS 500 (Nivel 3 y Nivel inferior 2)) y Sage ERP X3 (nivel 3 y nivel inferior 2). Cuando se habla con proveedores que tienen varios productos, asegúrese de que está muy claro qué producto de software está hablando. A pesar de que pueden tener nombres similares, son productos completamente diferentes escritos en código diferente y con diferentes funcionalidades, por lo que si usted supera un producto que tendrá que implementar un producto completamente diferente.

domingo, 12 de marzo de 2017

La economía de los lenguajes de programación




La Economía de las Lenguajes de Programación

David N. Welton
Davidw@dedasys.com
Welton

Me gustan mucho los lenguajes de programación. He utilizado un número de ellos profesionalmente, e incluso he escrito uno mismo - Hecl - aunque toma prestado la mayor parte de sus ideas, si no código fuente, de Tcl. Y, por supuesto, he participado en mi parte de los debates y discusiones sobre "qué idioma es el mejor", un tema que por supuesto no tiene una respuesta clara, pero a menudo es la fuente de argumentos acalorados.

Recientemente leí un libro interesante, Information Rules: A Strategic Guide to the Network Economy, de Carl Shapiro y Hal R. Varian (Harvard Business School Press, 1998; ISBN: 087584863X), que habla de la economía del mundo de la alta tecnología. Mientras lo leía y pensaba en los lenguajes de programación, se hicieron clic en varias cosas. No son conclusiones que rompen la tierra. Por el contrario, muchos de ellos tienen más o menos sentido común, pero es bueno leer que hay algunas teorías metódicamente estudiadas detrás de algunas de las intuiciones, presentimientos y observaciones que he hecho a lo largo de los años.

En este artículo intentaré enumerar lo que creo que son los puntos más destacados de la economía de los lenguajes de programación y describir sus efectos en los idiomas existentes, así como en aquellos que desean escribir e introducir nuevos idiomas.

Lenguajes como productos

Los lenguajes de programación, como cualquier producto, tienen ciertas propiedades. Obviamente, como cualquier otro tipo de información buena, los costes de producción en el sentido de hacer copias son esencialmente cero. La investigación y el desarrollo (costos irrecuperables) son necesarios para crear el software en sí, lo que significa que una inversión inicial es necesaria, y si el idioma no es exitoso, es probable que la inversión no se puede recuperar.

Esto se aplica a muchos bienes de información, pero los lenguajes de programación también tienen algunas cualidades que los hacen especiales dentro de este grupo. A saber, que ambos son un medio de dirigir a las computadoras y sus periféricos para hacer un trabajo útil, pero también son un medio de intercambio de ideas y algoritmos para hacer ese trabajo entre personas. En otras palabras, las lenguas van más allá de ser simplemente algo que es útil; Son también un medio de comunicación. Además, en forma de colecciones de código tales como paquetes, módulos o bibliotecas, los lenguajes de programación son también una forma de intercambiar rutinas útiles que pueden ser recombinadas de forma novedosa por otros programadores, en lugar de simplemente intercambiar aplicaciones terminadas.

Externalidades positivas de red

Esto nos lleva a lo que es uno de los conceptos más importantes. "Externalidades de red", o "efectos de red", se refiere a la noción de que cuanto más personas poseen o utilizan algo, más valioso es para cada uno. Considere un teléfono celular, por ejemplo. Si no tuviera a nadie para llamar, podría obtener un poco de placer de seleccionar molesto tonos de llamada en lugares públicos, pero más allá de eso, sería un trozo de plástico en su mayoría inútil. Una gran parte del valor del teléfono está en la capacidad de llamar a tus amigos, y hacer que te llamen.

El valor de las lenguajes de programación no depende claramente totalmente de este concepto; ciertamente puede hacer mucho incluso con un lenguaje que no es utilizado por muchas personas. Sin embargo, tenga en cuenta todos los extras que obtiene si su idioma es popular: libros, bibliotecas de código abierto, ejemplos, grupos de discusión / apoyo, posibilidades de trabajo o, a la inversa, la capacidad de contratar a programadores para trabajar en el producto de su empresa. Si utiliza un lenguaje popular como C, y sale un nuevo protocolo de red, es muy probable que alguien cree una biblioteca que "hable" de este protocolo, y en estos días es muy posible que sea incluso de código abierto. Por otra parte, si usted está usando un lenguaje oscuro, usted tendrá que escribir el apoyo para este nuevo protocolo usted mismo, o esperar que alguien en un grupo más limitado.

Los efectos de esto son claramente visibles. A pesar del gran número de lenguajes que han sido creados por individuos, investigadores universitarios y corporaciones, la mayoría de los programadores en cualquier momento dado probablemente usarán uno de un conjunto relativamente pequeño de lenguajes. Sin embargo, hay algunos factores que mitigan estos efectos, como veremos en breve.

Costos de cambio

En la columna de gastos, los "costos de conmutación", o los costos de cambiar los lenguajes de programación, son bastante evidentes. Reescribir una gran pieza de software en otro idioma está plagado de trampas, y es probable que sea extremadamente caro y consume mucho tiempo. Una vez que se escribe, puede ser ampliado o modificado, pero las reescrituras completas son raras. ¿Propondrías reescribir un sistema de trabajo a tu jefe? "No, en realidad no hará mucho más, que lo que tenemos ahora, y se necesitarán tres programadores de cinco meses para completar, pero será en Haskell en lugar de Fortran!". Esta es la razón por la cual los bancos todavía tienen tanto código escrito en Cobol.

Para el individuo, también, tener que aprender un nuevo idioma es difícil. Incluso para los programadores expertos, es difícil dominar realmente muchos idiomas, ya que la práctica frecuente es necesaria para "mantenerse en forma". Una vez que tenga unos pocos en su cinturón, es para su ventaja para poder utilizarlos por un tiempo. Prefiere poner "20 años de experiencia en Java" en su currículum que "6 meses de programación Forth", ¿no? Debido a que los programadores y los programas incurren en costos de conmutación que pueden ser muy altos, el efecto es que los idiomas duran mucho tiempo, incluso si ya no son "lo último" que se enseña en las universidades.

Cambiar los costos es aún mayor para las personas que no son programadores expertos - aprender un idioma ya es una gran inversión para ellos, y no sería rápido e indoloro para ellos aprender varios idiomas, o cambiar a un idioma diferente. El viejo adagio de "la mejor herramienta para el trabajo" tampoco encaja en este caso. Dado que la mayoría de los lenguajes de programación son mucho más complejos que, por ejemplo, un martillo, la mayoría de la gente prefiere aprender uno o dos que hacen un buen trabajo razonable al tratar con los problemas que más frecuentemente enfrentan, Otras necesidades que puedan surgir.

La elección de un idioma para aprender es, por consiguiente, de mayor importancia para estos individuos, que sin embargo son los menos bien posicionados para poder hacer una elección informada, carentes de la experiencia y la capacidad de comparar y contrastar los conjuntos de herramientas disponibles.

Una vez que nuestro hipotético programador "a tiempo parcial" ha seleccionado e invertido el tiempo para aprender un nuevo idioma, es probable que en ese momento quieran defender su elección - a nadie le gusta pensar que hicieron una mala inversión. Y, por supuesto, quieren ver que continúan fuertes, por lo que no se les pone en una posición de ser obligados a aprender algo más, a partir de cero.

Introducción a un nuevo idioma

Para aquellos que desean introducir y popularizar un nuevo idioma, un punto clave es cómo superar el impulso conferido a las lenguas populares existentes por los efectos de red y los costos de cambio.

En estos días y edades, las implementaciones de lenguaje de programación están en su mayoría disponibles de forma gratuita (y en muchos casos incluso tienen implementaciones de código abierto), lo que significa que la introducción de un lenguaje más reciente y más barato y la implementación rara vez es posible. Si desarrollamos un nuevo lenguaje, las porciones "más baratas" y "mejores" de la ecuación deben provenir de la calidad del lenguaje mismo. Tendrá que hacer código:

  • Más fácil de escribir - ampliar el número de personas que pueden utilizar el idioma, y ​​por lo tanto su valor. Piense en los lenguajes de scripting en comparación con C. Son más tolerantes y fáciles de usar gracias a las formas de recolección de basura o de referencia de conteo, lo que significa que las personas que podrían no haber sido capaces de llevar a cabo una tarea determinada con C podría hacerlo con un lenguaje de scripting.
  • Más eficientes: hacer programas más rápidos que requieren menos tiempo o recursos del sistema para lograr lo que necesitan. Aunque, como podemos ver en las tendencias recientes como Java, esto es menos importante a medida que los precios de la memoria caen y el espacio en disco es cada vez más abundante.
  • Mayor calidad - lo que significa que menos tiempo del programador se gasta bugs de caza, y más en el desarrollo de nuevas características. Recolección de basura, una vez más, es una de esas características que significa que el programador necesita preocuparse menos sobre el seguimiento de la memoria. Algunas investigaciones han pasado a programas "demostrables", aunque sin ningún efecto sobre las técnicas convencionales en esta fecha. No tener que lidiar con la manipulación de puntero directo también es una forma de eliminar una categoría de errores.
  • Más productivo - lenguajes que le permiten hacer cosas complejas fácilmente significa que usted puede hacer más que un competidor con un lenguaje que es más lento para desarrollar pulg PHP en la web permite a las personas hack out rápido páginas web dinámicas muy rápidamente sin una gran cantidad de configuración. El kit de herramientas gráficas Tk hizo que las GUIs escritas fueran muy fáciles, impulsando el uso del lenguaje Tcl. Esto es muy a menudo una cuestión de bibliotecas que resumen en el nivel correcto en lugar de la lengua en sí; La mayoría de los idiomas, sin embargo, tienen una "sensación", y es el lenguaje central y las bibliotecas que dan el tono.

Por supuesto, las ganancias deben ser significativas -si sólo obtienes una ganancia del cinco por ciento, pero pierdes todo el código existente, o esa gran comunidad de programadores que puedes pedir ayuda en un momento dado, vale la pena?

Compatibilidad

Una forma de darse un impulso es con alguna forma de compatibilidad. C ++ es un ejemplo obvio de esto. Otro es el mayor de los lenguajes de script, todos los cuales están escritos en C, y proporcionan una interfaz que les permite interoperar a ese nivel. Por ejemplo, Tcl no fue concebido como un lenguaje independiente, sino como una biblioteca que proporciona un lenguaje flexible para ser incluido en programas más grandes, lo que significa que tiene una API C que le permite interactuar fácilmente entre Tcl y C. Esto significa que Todos los lenguajes de secuencias de comandos han sido capaces de aprovechar las bibliotecas escritas en C, aumentando considerablemente su utilidad.

Lisp, un lenguaje muy elegante que es ampliamente admirado por los aficionados al lenguaje, a menudo ha tomado el enfoque de estar orientado a hacer todo en Lisp - a principios de los años 80, incluso se producían computadoras que ejecuta Lisp: "Lisp Machines"! Tal vez este deseo de ser Lisp "todo el camino hacia abajo" ha costado este lenguaje algo en términos de su capacidad de co-optar a través de la compatibilidad con C, pero es una discusión compleja en sí mismo y es probablemente mejor dejar para otro artículo.

Java es otro lenguaje que tiende a desear "pureza", aunque es posible integrar el código C nativo con él. Su éxito se atribuye probablemente a algunas mejoras genuinas sobre C y C ++ en términos de facilidad y calidad, ya su organización rígida, que le da a los equipos la capacidad de asignar tareas a programadores menos talentosos sin temor a contaminar todo el proyecto con un disco duro -verificación de segmentación. Millones de dólares de dólares de Sun Microsystems para la comercialización y la construcción de grandes bibliotecas estándar también fueron útiles en la adopción de la lengua, aunque esta es una técnica no disponible para muchos diseñadores de lenguaje aspirantes.

Atacar un nicho

A pesar de los intentos de flexibilizar las lenguas y de llevar a cabo tantas tareas como sea posible, como herramientas, las lenguas tienen áreas donde son más adecuadas que otras. Fortran sigue siendo el mejor de algunas aplicaciones científicas, pero lo más probable es que no lo utilice para aplicaciones web. Erlang es un lenguaje y una plataforma muy robustos que son ideales para aplicaciones que no se les permite fallar, pero es probable que no sea tan fácil para principiantes como algo como Python.

El mundo de la informática y la tecnología está siempre cambiando, por lo que se deduce que surgirán nuevos nichos y mercados donde las lenguas existentes no son ideales. Por ejemplo, los lenguajes de secuencias de comandos eran un ajuste natural para la Web. Fácil de usar y práctico para tratar con texto, que hizo mucho más agradable para crear páginas web que trabajar con C habría sido. Los diseñadores de lenguajes que esperan ver su creación más ampliamente utilizada pueden desear identificar un nicho en particular donde su invención es particularmente adecuada. El nuevo idioma puede no estar tan lejos del campo en todas las formas posibles, pero si el desarrollo se concentra para proporcionar un sistema que es al menos superior en una cosa que hace muy bien, podría llegar a ser suficiente para Menos que la gente la utilice.

PHP, por ejemplo, no era una novedad cuando se creó. Como lengua, no es nada innovador en comparación con otros de su tipo. Sin embargo, hizo páginas web dinámicas muy bien, y muy fácilmente comparado con otros sistemas disponibles en el momento. Recuerdo la configuración de mod_perl y la instalación de varios componentes que a menudo tenían los requisitos de versión. Fue un dolor comparado con la configuración PHP más integrada. Otro ejemplo, como se mencionó anteriormente, fue la combinación de Tk con Tcl para scripts de GUI. Tcl es muy adecuado para una variedad de tareas, desde ejecutar en routers de Cisco hasta hacer scripts web en sí, pero Tk fue su home run, y lo que se hizo conocido.

Conclusión

Las nociones aquí discutidas parecerán familiares para aquellos que se han dedicado a reflexionar sobre el tema, pero al enmarcarlos en términos de costos y beneficios, espero darles a los usuarios de idiomas una idea para seleccionar un idioma que mejor se adapte a sus necesidades. Este marco también ayudará a los diseñadores y defensores lingüísticos a comercializar mejor sus productos, dándoles un lenguaje común, el de la economía, para discutir los desafíos y oportunidades inherentes al mercado de los lenguajes de programación informática.

_________________
Además del libro Information Rules mencionado al principio de este artículo, otro recurso para los lectores interesados en el seguimiento de este tema es "Languages, Levels, Libraries, and Longevity" de John R. Mashey publicado en ACM Queue (vol. 9, diciembre / enero 2004-2005). Gracias también al profesor Stephen J. Turnbull, de la Universidad de Tsukuba, por sus comentarios y sugerencias.

miércoles, 20 de abril de 2016

La piratería y el efecto de red

El "efecto de red": la búsqueda de un hombre para demostrar a las empresas de software que se benefician de la piratería




Christine Dobby |  Financial Post


La búsqueda de Dale Thompson para probar el software falsificado no es piratería


Dale Thompson creó un sitio web para vender versiones falsas de software de algunos de los nombres más grandes en el negocio - pero él estaba tratando de fijar un punto, dice, y eso no lo convertía en un pirata.

"Esta palabra" piratería "se menciona tanto que la gente ha perdido el significado real de la misma", dijo el residente de Toronto, en una entrevista reciente.

"Es evidente que el sentido original de la piratería es sobre ladrones carentes de bondad recorriendo arriba y abajo de la costa, robando y el saqueando y matando a la gente de sus mercancías. Eso no es el caso de la piratería de software, ya que nadie está robando una cosa. La gente está copiando binarios, no están robando objetos físicos ".

El Tribunal Federal no estuvo de acuerdo con el Sr. Thompson - no en la definición de piratería, sino que sus acciones no afectaban la Ley de Derecho de Autor.

La gente está copiando binarios, no están robando objetos físicos
En una decisión reciente, se encontró con que infringido los derechos de autor pertenecen a Microsoft Corp., Adobe Systems Inc. y Rosetta Stone Ltd. y le ordenó pagar las empresas daños y costos de la corte por un total de $ 445.000.

Pero el señor Thompson dice que no se arrepiente de la multa considerable, porque su intención era poner de relieve una estrategia llamado el "efecto de red" que emplean los fabricantes de software para establecer una posición dominante. A través del efecto de red, según la teoría, las tecnologías se vuelven más valiosos como el número de personas que utilizan los aumentos, que a su vez aumenta el efecto hasta que se convierten en todas partes y sus propietarios más ricos y poderosos.

También fue la investigación, dijo el Sr. Thompson, para una película documental sobre el que se compromete llamado "El efecto de red: Cómo la industria del software se benefició de la piratería," que se vaya a financiar a través respaldo privado y una campaña en un sitio web de crowdfunding.

La teoría se puede utilizar para explicar fenómenos tales como el triunfo de la cinta de vídeo VHS sobre su rival Betamax y el éxito de Facebook y que ayuda a describir cómo muchas empresas la tecnología del cemento predominio de sus productos.

Que resultó ser una defensa ineficaz contra la infracción de copyright en el caso del Sr. Thompson.

En diciembre de 2011, Adobe, Microsoft y Rosetta Stone lo demandado por la publicación de las reproducciones no autorizadas de sus programas de software y arte de la cubierta en un sitio web y también su puesta a la venta en los sitios web de Kijiji y Craigslist.

El Sr. Thompson - que representó a sí mismo y presentó un escrito de contestación, pero no apareció en la corte para la audiencia - argumentó que los demandantes no se instalaron medidas de protección en su software y, de hecho tolera la piratería con el fin de aumentar la distribución y la popularidad de sus productos , ayudándoles a convertirse en actores dominantes en sus respectivos mercados, asegurando así los beneficios futuros.

No negó la evidencia que los demandantes presentaron para demostrar que había creado un sitio web con copias no autorizadas de su software ni que vende discos con software falsificado instalado para los investigadores tanto de la Business Software Alliance (un grupo de la industria de software) y Smart y Biggar quemado / Fetherstonhaugh, bufete de abogados de los demandantes.

En una decisión emitida el 18 de octubre, el juez Douglas Campbell declaró al Sr. Thompson ha infringido los derechos de autor de los demandantes en 17 trabajos separados.

El juez caracteriza su defensa como una "actitud equivocada del derecho con respecto a su conducta infractora."

Al decidir la moción de juicio sumario, que se determina sobre la base de un registro escrito y no una prueba oral, el juez Campbell encontró que no había problema real para el juicio y ordenó al Sr. Thompson para pagar los daños máximos establecidos por la legislación de derechos de autor.

A $ 20,000 por infracción, más $ 45,000 en daños punitivos y $ 60,000 en honorarios legales, el premio total fue de $ 445.000 (más intereses antes y después de la sentencia).

"No me arrepiento de hacerlo, porque he expuesto, y manifestará en mi película, ¿por qué las empresas de software están haciendo dinero con esto", dijo el Sr. Thompson, agregando que él no obtener un beneficio mediante la venta de software.

A una persona que le gustaría entrevistar por su documental es Ariel Katz, profesor de derecho en la Universidad de Toronto, que publicó un artículo de 2005 en la "perspectiva de los efectos de red sobre la política de software."

"El argumento de que el papel es que tolerar la piratería es una manera de maximizar el efecto de red totalmente sin canibalizar sus ventas", dijo Katz en una entrevista. Dijo que las personas que instalan versiones ilegales de software pueden no haber sido propensos a comprar versiones completas precio en cualquier caso.

"Usted realmente no desea excluir las personas que no están dispuestos a pagar el precio que cobran, porque si se les excluye, su red se vuelve menos valiosa", dijo. "Por lo tanto permitir o tolerar un cierto nivel de piratería le permite convertirse en un monopolio."

El Sr. Katz señaló que la teoría podría proporcionar una base para la discusión en los casos de derechos de autor, no alrededor de la ilegalidad de la piratería en sí, sino en todo el alcance de los daños y perjuicios efectivamente sufridos por los fabricantes de software en los casos de piratería.

Permitir o tolerar un cierto nivel de piratería le permite convertirse en un monopolio
Los abogados de los demandantes dijeron en un documento presentado a la corte que las alegaciones de que las empresas se beneficiaron de manera consciente o participaron "en el llamado" efecto red "son patentemente ridículo y basado en la especulación y suposiciones."

"Incluso si se benefician de lo que los demandantes entienden a la demandada a decir con" efecto red "(que se niega), dicha circunstancia no puede soportar cualquier defensa razonable a las alegaciones de infracción de los derechos de autor."

"No sólo no prueba el efecto de red, en este caso, pero no es sólo un fenómeno general probada. Porque presume que un fabricante de software quiere que la gente a utilizar el software unlicensced, "Vik Tenekjian, uno de los abogados de los demandantes, dijo en una entrevista. "La cantidad de dinero que gastan en nuestras cuentas me dice lo contrario."

Marcos Hayes, un abogado de la tecnología y los derechos de autor que está administrando director en Heydary Hayes PC en Toronto, dijo que no ha oído hablar de alguien que trata de utilizar la teoría de los efectos de red como una defensa frente a una demanda de infracción de los derechos de autor antes.

"Usted es ciertamente ninguna obligación como propietario de un derecho de autor para proteger sus obras con copyright de ninguna manera", dijo. "No tiene mucho sentido para tratar de argumentar que sólo porque alguien no puso protecciones en él que usted tiene derecho a utilizarlo de la forma que desea."

viernes, 8 de abril de 2016

Un resumen de bibliografía de economías de aglomeración


FUENTES DE LAS ECONOMÍAS DE AGLOMERACIÓN: UNA REVISIÓN BIBLIOGRÁFICA




Olga Lucía Manrique*

* Profesora de la Facultad de Ciencias Económicas de la Universidad Nacional de Colombia. Estudiante del Programa de Doctorado en Economía Aplicada de la Universidad Autónoma de Barcelona. Enviar comentarios al correo: olmanriquec@unal.edu.co . Articulo recibido el 17 de octubre de 2006, aprobada su publicación el 14 de noviembre

Publicado en Cuadernos de Economía

Resumen

A partir de una revisión de la literatura sobre las economías de aglomeración se resaltan los aportes de diversos trabajos teóricos y empíricos, en particular, los que se relacionan con las causas de tales economías. Como referencias principales se toman dos trabajos pioneros, el de G. Duranton y D. Puga (2003) y el de S. Rosenthal y W. Strange (2003). El primero recopila trabajos teóricos y resume en tres categorías los mecanismos microeconómicos de las economías de aglomeración: sharing, matching y learning. El segundo recoge los trabajos empíricos y considera tres fuentes microeconómicas: input sharing, knowledge spillovers y labor market pooling.

Palabras claves: aglomeración, externalidades, participación en los beneficios, aprendizaje, emparejamiento. JEL: D62, D83, J41, R10, R12.



El tema de las economías de aglomeración ha sido estudiado por urbanistas, geólogos y economistas desde hace varias décadas. Tal como la definió William Strange (2005), "La aglomeración urbana es la concentración espacial de la actividad económica en las ciudades. También puede tomar la forma de concentración en grupos industriales o en centros de empleo en una ciudad". Se considera que la concentración espacial es una ventaja, en términos de eficiencia, para desempeñar las diferentes actividades de la sociedad (económicas, sociales, políticas, etc.), que se justifica desde el punto de vista económico por las indivisibilidades o economías de escala.

La concentración espacial de la actividad económica y de los factores productivos induce un proceso acumulativo de concentración de otros mercados y actividades, como el mercado laboral, la educación los servicios públicos. Pero este proceso está limitado por los costos de transporte y las deseconomías de aglomeración, dos temas que han atraído la atención de diversos autores pero que no detallamos en este escrito.

De manera general, las economías de aglomeración se clasifican en tres tipos: economías internas a la empresa, economías de localización y economías de urbanización. Las primeras hacen referencia a la concentración de la producción en una única empresa, las segundas se relacionan con la concentración en industrias particulares (Marshall 1890) y las últimas con el tamaño o la diversidad de la ciudad (Jacobs 1969).

Si las economías internas de escala generan la concentración en lugar de un volumen creciente de producción por parte de una misma empresa, las economías ´externas´ generan la concentración de empresas y actividades diversas sobre la base de las ventajas que se derivan de: la explotación de un capital fijo social localizado[ ...] o de recursos naturales específicos, la presencia de indivisibilidades en el suministro de bienes o servicios [ ...] , y la creación de efectos de sinergia que se manifiestan en una mejora de la eficiencia conjunta de la producción (Camagnani 2005).
Cada tipo genera una clase particular de externalidades (positivas o negativas). Entre las externalidades asociadas con las economías de localización están la posibilidad de la especialización de las empresas en el proceso productivo (menores costos globales), la reducción de los costos de transacción de las unidades productivas especializadas gracias a la proximidad y a la intensidad de las relaciones personales, las economías de aprendizaje individual y colectivo, las economías conexas al proceso de circulación y valorización, y la creación de una atmósfera industrial (economías dinámicas).

Por otra parte, la concentración de la intervención del sector público en la ciudad (concentración de capital social fijo, economías de escala en la provisión de servicios públicos), las externalidades que genera el gran mercado de la ciudad (acceso a mercados de grandes dimensiones, posibilidad de encontrar grandes nichos de especialización) y las que genera la ciudad como incubadora de factores productivos y de mercado de los factores de producción (acceso a un mercado de trabajo amplio y a funciones urbanas especializadas, oferta de capacidades empresariales y directivas, economías de comunicación e información) se asocian con las economías de urbanización.

En cuanto a las ventajas de las economías de aglomeración cabe mencionar la reducción de los costos de transacción y los efectos de sinergia. Pero, en general, se considera que a partir de cierta dimensión los elementos anteriores se convierten en deseconomías. Pensado como problema de óptimo social, se pueden dar diferentes definiciones a la dimensión crítica de la ciudad: la dimensión mínima, la dimensión óptima desde el punto de vista de los costos, la dimensión óptima en términos per cápita (dimensión óptima para la población), la dimensión óptima desde el punto de vista de la maximización de los beneficios, la dimensión óptima social y la dimensión máxima (costos y beneficios en equilibrio).

En cuanto a la dimensión mínima relacionada con el suministro de servicios urbanos hay relativo acuerdo en que es de 200 mil a 250 mil habitantes. Con respecto a la dimensión máxima eficiente vinculada al papel que desempeña la ciudad, se encuentra que ciudades de dimensión diferente desempeñan funciones diferentes, por lo que la dimensión máxima eficiente depende del papel que desempeña cada ciudad. Desde el punto de vista de los beneficios puede ser poco significativo definir la dimensión de una ciudad si no va acompañada de información sobre la estructura urbana y espacial global a la que está integrada. Esto permite entrever la dificultad para definir límites claros de las economías de aglomeración y explica por qué en el intento de definir la dimensión óptima han surgido diferentes posturas, como la económica liberal y la política radical, A pesar de la importancia de definir estos límites, la mayoría de los estudios han sido de carácter teórico, debido a las dificultades para realizar estudios empíricos concluyentes.

La importancia de las economías de aglomeración ha despertado el interés de algunos autores que intentan determinar y entender su origen (su naturaleza y sus fuentes). Como hechos principales se mencionan las ventajas naturales de las industrias y la aparición de rendimientos crecientes a escala externos. En este último caso, se señala como causas principales a factores tales como sharing , matching y learning . Para los fines de este escrito nos centramos en dos trabajos pioneros, el de Gilles Duranton y Diego Puga (2003) y el de Stuart Rosenthal y William Strange (2003). Los dos hacen excelentes revisiones, una desde el punto de vista teórico y la otra desde el punto de vista empírico.

ASPECTOS TEÓRICOS

En su artículo de 2003, Duranton y Puga revisan los trabajos teóricos sobre las economías de aglomeración elaborados a partir de los fundamentos microeconómicos, y especifican tres tipos: sharing (relación entre oferentes de bienes intermedios y oferentes de bienes finales), matching (interacciones en el mercado de trabajo) y learning (aprendizaje).

Sharing

En el caso de sharing muestran que existe una abundante literatura cuyo problema central es la provisión de ciertos bienes o servicios indivisibles y se enfocan en los conceptos de equilibrio y en los instrumentos de política 1. Se ha relacionado el concepto de sharing con las ganancias compartidas que genera la variedad ; a este respecto, los autores prestan especial atención al modelo de Ethier (1982) 2, que describe una industria cuyos rendimientos agregados son crecientes debido a las ventajas productivas de compartir una amplia variedad de insumos intermedios diferenciados. Los rendimientos crecientes en un sector obedecen a que un incremento del factor trabajo puede estar asociado con una mayor cantidad de productores intermedios, lo que hace más productivos a los productores finales por el acceso a un rango de variedades más amplio. "Un incremento de la producción final en virtud de compartir una mayor variedad de oferentes intermedios requiere un incremento menos que proporcional de los factores primarios" (Duranton y Puga 2003).

La especialización urbana se justifica porque los insumos son compartidos en los sectores y no entre ellos, y porque el intercambio de bienes finales es menos costoso mientras que el intercambio de bienes intermedios es infinitamente costoso.

Por otro lado, hay autores 3 que postulan, siguiendo a Adam Smith (1776), que hay ganancias de productividad como resultado del aumento de la especialización cuando los trabajadores se dedican a una sola tarea (Duranton y Puga las denominan ganancias de la especialización individual). Hay tres elementos que las explican, en primer lugar el proceso de learning by doing , ya que cuando hacen la misma tarea los trabajadores mejoran su destreza para dicha tarea; en segundo lugar, el ahorro de costos fijos por no cambiar de tarea a los trabajadores y, finalmente, el fomento a las innovaciones por el ahorro de trabajo, ya que las tareas más simples se pueden mecanizar más fácilmente. A partir de este argumento, se concluye que existen rendimientos crecientes al nivel de ciudad. "En el modelo, un incremento del tamaño de la fuerza de trabajo lleva a una profundización de la división del trabajo entre los trabajadores, lo que hace más productivo a cada trabajador. Sin embargo, hay ganancias de la división del trabajo que están limitadas por la extensión del mercado de trabajo" (Duranton y Puga 2003, 14).

Un mecanismo alternativo que se ha reconocido como fuente de economías de aglomeración es el labor pooling . La idea central es que una industria tiene ventajas que se traducen en mayores ganancias por el hecho de ofrecer un mercado constante para las destrezas de los trabajadores. A partir del modelo de Krugman (1991), que formaliza esa idea, se encuentra que la aversión al riesgo no juega ningún papel en el proceso de aglomeración. En las ganancias por compartir recursos entre firmas puede influir el desconocimiento ( ex ante ) de las firmas del monto de recursos que necesitan en su proceso productivo. En el esquema de salarios ´pegajosos´ con posibilidad de desempleo se refuerza la tendencia de las firmas y de los trabajadores a aglomerarse. En este caso los trabajadores tienen un mayor incentivo para minimizar el riesgo de quedar desempleados; por su parte, las firmas tienen mayor incentivo para aglomerarse con el fin de evitar presiones de la fuerza laboral cuando enfrentan choques positivos. El comportamiento estratégico de las firmas en el mercado laboral puede complicar los resultados, en particular, la posibilidad de poder de monopsonio debilita la tendencia de las firmas a aglomerarse.

Learning

Duranton y Puga definen el aprendizaje en sentido estricto como un proceso de tres etapas: enseñanza, entrenamiento (formación) e investigación. En este sentido, el aprendizaje es valioso en términos de sus fuentes y por su contribución al desarrollo económico. Puesto que es una actividad que se desarrolla de manera colectiva, las ciudades pueden facilitar el aprendizaje; aunque los mecanismos de aprendizaje pueden generar efectos de aglomeración en las ciudades, como insinuó Marshall (1890), las ciudades favorecen la difusión de innovaciones e ideas, y también Jacobs (1969) con el argumento de que el ambiente de las ciudades mejora las posibilidades de generar nuevas ideas. Por su parte, Lucas (1988) considera que las ventajas que ofrecen las ciudades no son únicamente técnicas, favorecen además la adquisición de destrezas y aumentan la generación, difusión y acumulación de conocimientos.

En cuanto a la generación de conocimiento es crucial considerar el papel de los ambientes urbanos diversificados para facilitar la investigación y la experimentación en innovación (Jacobs 1969), (Duranton y Puga 2001) construyen un modelo que justifica la coexistencia de ciudades diversificadas y especializadas y la aglomeración de firmas, y concluyen que "la combinación de economías de localización con costos de congestión crea ventajas estáticas para la especialización urbana" (Duranton y Puga 2001, 31).

La difusión de conocimiento se relaciona con la transmisión de destrezas, la difusión de información y la difusión de conocimiento propiamente dicha. Algunos modelos, como los de Jovanovic y Rob (1989), Jovanovic y Nyarko (1995) y Glaeser (1999) analizan la transmisión de destrezas y encuentran que la proximidad a individuos con más destrezas o conocimientos facilita la adquisición de destrezas y el intercambio y difusión de conocimientos. A partir de un modelo de generaciones traslapadas, Duranton y Puga (2003) encuentran que los trabajadores jóvenes eligen vivir en ciudades para adquirir destrezas y que los trabajadores cualificados permanecen en las ciudades para transmitir sus destrezas y habilidades. Sin embargo, afirmar que las ciudades ofrecen mejores oportunidades de aprendizaje es un supuesto, más que la derivación de una microestructura bien especificada.

Con respecto a la difusión de información y su relación con las ciudades, hay dos tendencias, la primera se fundamenta en el aprendizaje social y cuenta con una fuerte microfundamentación (Vives 1996, Bikhchandani, Hirshleifer y Welch 1998, Sobel 2000). Sus modelos tienen dos propiedades importantes: la posibilidad de rebaño ineficiente y la posibilidad de retraso estratégico. En el primer caso, los modelos de Banerjee (1992), Bikhchandani, Hirshleifer y Welch (1992) obtienen resultados de rebaño ineficiente porque las firmas reciben señales equivocadas en forma secuencial que las llevan a tomar decisiones equivocadas. Cada firma recibe información privada sobre la decisión que debe tomar. Las firmas toman sus decisiones secuencialmente a partir de las decisiones previas. La primera firma toma su decisión de acuerdo con la información privada que ha recibido, la segunda no sólo utiliza su información privada sino también la información sobre lo que hizo la primera, el proceso continúa sucesivamente de modo que si las primeras firmas reciben señales equivocadas las demás harán lo mismo porque dan más peso a la información sobre las acciones de las demás que a su información privada.

Con respecto al retraso estratégico , Chamley y Gale (1994) encuentran –en un esquema en el que el tiempo de decisión es endógeno–que las firmas prefieren esperar a que otras tomen sus decisiones de inversión, pues le es beneficioso esperar para aprender de las decisiones de las demás 4. Cuando el tiempo de decisión es exógeno no hay efectos de escala, generalmente la decisión se cristaliza después de pocos periodos, sin que importe el número de jugadores.

Por último, en lo referente a la acumulación de conocimiento, se suele utilizar modelos de crecimiento económico que incorporan el conocimiento como factor de acumulación y, de manera más específica, como capital humano. Los modelos de Romer (1986), Palivos y Wang (1996), Ioannides (1994), Black y Henderson (1999), Lucas (1988), y Eaton y Eckstein (1997) dan diferentes opciones de modelación, desde las más sencillas con los supuestos de economías con rendimientos constantes individuales y rendimientos crecientes a nivel agregado, pasando por economías con crecimiento de la población, hasta la modelación del crecimiento urbano utilizando externalidades dinámicas.

Matching

Cuando nos referimos al matching 5 delimitamos el estudio a un mercado particular, el mercado laboral, y en esencia nos referimos a la forma como se ´emparejan´ empleadores y trabajadores. Las economías de aglomeración pueden surgir por dos razones, porque la calidad de cada emparejamiento (match) mejora cuando aumenta el número de agentes que tratan de emparejarse (externalidad del emparejamiento, Helsley y Strange 1990 6) y por el ahorro de costos fijos cuando la competencia lleva a que el número de firmas crezca menos que proporcionalmente con la fuerza de trabajo.

Un aspecto que resaltan Duranton y Puga es que el problema del matching muestra que las economías de aglomeración van más allá de la mera presencia de rendimientos crecientes a escala, y que también las pueden originar externalidades que incrementan el ingreso por trabajador. "Cuando la fuerza de trabajo crece y el número de firmas aumenta, el trabajador promedio puede encontrar un empleador que es una mejor pareja para su destreza" 7.

El modelo de Helsley y Strange (1990) ha sido extendido en diferentes direcciones. Por ejemplo, el modelo de Brueckern et al. (2002) muestra que la relación entre hogares y mercado laboral es compleja. Kim (1989) modifica el modelo permitiendo que los trabajadores inviertan en capital humano general (reduciendo los costos de no emparejarse) o en capital humano específico (aumentando la productividad en habilidades específicas), y encuentra que cuando el tamaño de los mercados locales aumenta, la inversión en capital humano específico aumenta en relación con la inversión en capital humano general, lo que denomina "especialización creciente con el tamaño de la ciudad" 8.

Otros autores introducen características dinámicas en el modelo, como Helsey y Strange (1991) que consideran un modelo de dos períodos, y Zhang (2002), que lo extiende a un horizonte de tiempo infinito. Con un enfoque distinto, Ellison, Fudenberg y Möbius (2002) exploran un mecanismo de aglomeración en el contexto de subastas competitivas y consideran la elección simultánea de compradores y vendedores entre dos mercados competitivos. A partir de la elección de un mercado, los compradores conocen sus valoraciones privadas y se efectúa una subasta en cada mercado, y encuentran que cuanto más grandes son los mercados más eficientes son para una razón comprador a vendedor dada.

Storper y Venables (2002) consideran que las ciudades mejoran la calidad de los emparejamientos. En su modelo, los trabajadores se emparejan al azar con otro trabajador local para llevar a cabo ciertas tareas. Los trabajadores con alta destreza y los trabajadores con poca destreza son más productivos cuando se emparejan con trabajadores con alta destreza. Sin embargo, las ganancias productivas de tener una pareja con alta destreza son mayores para los trabajadores con alta destreza.

Por último, los modelos que relacionan la aglomeración urbana con el hecho de que un mayor número de agentes que tratan de emparejarse mejora la oportunidad de hacerlo incorporan elementos del desempleo de equilibrio en los que la búsqueda de empleo y el reclutamiento están sujetos a fricciones (Mortensen y Pissarides 1999, Petrongolo y Pissarides 2001). "Un incremento del número de agentes en una ciudad reduce las fricciones de búsqueda y resulta en proporciones más pequeñas de trabajadores desempleados y vacantes sin llenar. De manera más general, un incremento de todos los insumos asegura que una proporción más pequeña de estos insumos permanezca ociosa" (Duranton y Puga, 25) 9.

ASPECTOS EMPÍRICOS

En su artículo de 2003, Rosenthal y Strange revisan los trabajos empíricos sobre la naturaleza y las fuentes de las economías de aglomeración. Con relación a las fuentes y desde el punto de vista de los microfundamentos, consideran las que sugirió Marshall (1920), los insumos compartidos ( input sharing ), los procesos de aprendizaje ( knowledge spillovers ) y la agrupación del mercado laboral ( labor market pooling ).

Sharing

Compartir insumos (sharing) se justifica por la existencia de economías de escala en su producción. El trabajo de Holmes (1999) considera la relación entre localización de una firma e insumos compartidos en el caso de Estados Unidos, primero con un cálculo de la desintegración vertical de las industrias consideradas en el estudio, y luego con un análisis de regresión. En el primer caso, el grado de desintegración vertical, que utilizan como medida de insumos compartidos, se obtiene dividiendo los insumos comprados por las ventas totales. El resultado corresponde a la intensidad de insumos comprados. En este caso, el análisis muestra que las industrias más concentradas comparten insumos. En el análisis de regresión, la variable dependiente es la diferencia entre intensidad de insumos comprados e intensidad promedio de insumos comprados en la industria. Las variables explicativas son el volumen de empleo en la industria en el mismo Estado y en otros Estados. En este caso, el resultado también indica que se comparten insumos. Por tanto, Holmes encuentra evidencia de una relación positiva entre desintegración vertical y concentración industrial.

Aunque Rosenthal y Strange reconocen que el trabajo de Holmes ofrece la evidencia más directa y completa de insumos compartidos como fuente de las economías de aglomeración, piensan que el estudio sobreestima la influencia causal de la aglomeración sobre las oportunidades para compartir insumos (la localización de la planta es endógena en el modelo econométrico). No obstante, los resultados de Holmes apoyan la presencia de insumos compartidos como fuente de las economías de aglomeración.

Otros trabajos que aportan evidencia en este sentido, aunque no de manera directa, son los de Bartlesman et al. (1994), Holmes y Vernon (1960), y Stevens (2002); este último utiliza el tamaño del establecimiento como variable explicativa. Todos muestran fuerte evidencia de insumos compartidos como fuente de las economías de aglomeración.

Knowledge Spillovers

Para Rosenthal y Strange este es el más interesante de los fundamentos microeconómicos en diferentes áreas de la teoría económica. Pero son conscientes de la dificultad de identificarlo empíricamente, entre otras cosas porque el conocimiento muchas veces se intercambia sin comprarlo o venderlo, lo que impone un desafío a los econometristas que intentan medir el conocimiento.

El trabajo de Jaffee et al. (1993) intenta medir el conocimiento de manera directa, aunque no muestra claramente su relación con la aglomeración o la productividad. Otros trabajos (Audretsch y Feldman 1996) intentan determinar el efecto de las características industriales sobre la innovación, considerando el impacto de la aglomeración. Los resultados son compatibles con la presencia de procesos de aprendizaje. Mediante un análisis de regresión de la concentración espacial de la actividad innovadora condicionada por el número de atributos específicos locales e industriales, incluidos la investigación en las universidades, los gastos en investigación y desarrollo, y la disponibilidad del trabajo cualificado, obtienen resultados que confirman que el conocimiento orientado a las industrias que más concentran espacialmente la actividad innovadora es consistente con la presencia de knowledge spillovers.

Los trabajos de Rauch (1993), Acemoglu y Angrist (1999) y Moreti (2000) sugieren que las externalidades del capital humano dependen altamente de los trabajadores con alto nivel educativo, siguiendo la idea de Marshall de que los trabajadores son el principal mecanismo de transmisión del conocimiento 10. Rauch estudia el impacto del nivel promedio de educación sobre los salarios y las rentas. Usando un modelo hedonista muestra que la presencia de buenos efectos generales puede aumentar los salarios donde los niveles promedio de educación son altos, porque los trabajadores serán más productivos y los empleadores estarán dispuestos a pagar salarios altos. Además, las rentas serán más altas porque la productividad ligada a salarios más altos se capitalizará en los precios. Una objeción a los estudios de los efectos de los niveles de educación sobre los procesos de aprendizaje es que no especifican el canal de interacción.

Labor Market Pooling

Cuando se hace referencia a la agrupación del mercado laboral ( labor market pooling ) caben dos interpretaciones, como efecto urbanización (para los trabajadores es más fácil ´engranar´ en ciudades grandes) o como efecto localización (para los trabajadores es más fácil ´engranar´ en industrias concentradas). Algunos estudios han intentado determinar empíricamente el efecto de la calidad del emparejamiento entre trabajadores y empresarios sobre las economías de aglomeración. Aquí también los econometristas tienen dificultades para calcular la calidad del emparejamiento.

Una posibilidad es calcular las tasas de terminación de los emparejamientos; en ausencia de un buen reemplazo es menos probable que una firma despida a un trabajador, sin importar la calidad del emparejamiento. Otra alternativa es considerar la rotación de empleos; en este caso la hipótesis de agrupación del mercado laboral implica que los trabajadores pueden cambiar de trabajo fácilmente y que las firmas pueden cambiar de empleados con igual facilidad. Otra manera puede ser la de examinar la influencia de la especialización el trabajo: el estudio de Baumgartner (1988b) muestra que la aglomeración puede fomentar la especialización .

Una interpretación alternativa del labor market pooling lo asocia con el riesgo . Cuando los trabajadores eligen trabajar en una ciudad particular para un empleador particular, las firmas y los trabajadores enfrentan dos clases de riesgos. El primero, asociado a la relación específica firma-trabajador, consiste en que por razones de emparejamiento la relación pueda terminar. Cuando los requerimientos de una firma y las destrezas de los trabajadores son específicas a las industrias, el emparejamiento entre empresarios y trabajadores es más fácil en las industrias más concentradas. Así, el riesgo específico se puede reducir por efectos de localización.

El segundo es específico a una industria. La localización en ciudades especializadas expone a los trabajadores a grandes riesgos, pues en caso de perder el empleo no encuentran otro fácilmente si los demás empleadores del área están afectados por el mismo choque negativo. Por tanto, la localización en una ciudad especializada los expone a riesgos mayores. De modo que un choque en industrias específicas puede desalentar la localización, mientras que los choques de emparejamientos específicos pueden alentarla. Aquí surge una pregunta ¿cuál es el impacto del grado de especialización sobre el mercado laboral?

En esta línea de investigación, Simon (1988) examina la relación entre tasa de desempleo y especialización de la ciudad. Con ayuda de un índice de Herfindahl muestra que el desempleo es mayor cuanto más especializada es una ciudad, lo que coincide con el hecho de que los choques en industrias específicas son importantes. El mayor riesgo que enfrentan los trabajadores en una ciudad especializada requiere salarios más altos como compensación. En otro estudio, Diamond y Simon (1990) muestran que en ciudades más especializadas los trabajadores demandan salarios más altos, asociados a medidas específicas de la variabilidad cíclica del empleo en una industria. Por su parte, Costa y Kahn (2000) concluyen que el riesgo es menor y los emparejamientos son mejores en ciudades grandes a partir de un estudio de parejas con cierto grado de estudios en el periodo 1940-1990. Moretti (2000) encuentra que si la productividad de mayores niveles de educación es crucial para el desempeño económico (y los matrimonios se mantienen) las ciudades más grandes tienen ventajas de productividad en relación con las ciudades pequeñas. En la siguiente sección se describen con más detalle estos cuatro estudios.

EXTENSIONES: MATCHING Y ESTRUCTURA DE LAS CIUDADES

Para Simon (1988), la estructura industrial de las ciudades juega un papel importante en la determinación de la tasa nacional de desempleo. A partir de un trabajo empírico para 91 grandes áreas metropolitanas de Estados Unidos durante el período 1977-1981 encuentra que la tasa de desempleo friccional en una ciudad es menor cuanto más diversificada industrialmente es la ciudad 11. Su análisis supone que las fluctuaciones del empleo tienen componentes cíclicos, estacionales, seculares y friccionales 12. Como indicador de la diversidad industrial utiliza un índice de Herfindahl y encuentra una relación negativa significativa entre diversidad industrial y tasa de desempleo de la ciudad. Las ciudades más concentradas de la muestra tienen una tasa de desempleo friccional de cerca de 1,4 puntos porcentuales por encima del promedio, mientras que las ciudades diversificadas tienen una tasa de desempleo friccional de cerca de un punto porcentual por debajo del promedio.

En un trabajo posterior, Diamond y Simon (1990) extienden el estudio para determinar los efectos de la especialización de las ciudades sobre los salarios y el desempleo. Su argumento es que las ciudades más especializadas corren el riesgo de un desempleo mayor y, a partir de la teoría de la compensación de los salarios diferenciales, concluyen que los individuos que viven en ciudades más especializadas son compensados con tasas de salarios más altas. La diversidad de oportunidades de empleo potencial crea un efecto portafolio en el mercado laboral. Así, las ciudades más diversificadas industrialmente tendrán menores tasas de desempleo en promedio; mientras que las más especializadas tendrán tasas de desempleo más altas. Con ayuda de una medida de riesgo en el mercado laboral 13, examinan la relación con la especialización industrial. Cada ciudad tiene un portafolio de industrias, y en cada industria fluctúa la tasa de crecimiento del empleo 14.

Además construyen un índice de Herfindahl para medir la especialización industrial (que mide el riesgo de empleo de un trabajador típico en una ciudad), y encuentran que una ciudad diversificada (en un conjunto de industrias cuyo empleo tiene correlación alta y positiva) es más riesgosa que una ciudad igualmente diversificada cuyas industrias no están correlacionadas, aunque aclaran que sus índices de especialización no miden totalmente el riesgo de empleo. En su trabajo empírico establecen la relación entre salarios, desempleo y especialización industrial en 43 áreas metropolitanas de Estados Unidos, considerando individuos de 20 a 65 años que hayan sido empleados de tiempo completo al menos durante 26 semanas. También tienen en cuenta el tamaño de las firmas y el ciclo de los negocios. Los resultados del modelo econométrico indican que los individuos que viven en ciudades más especializadas tienen una probabilidad de desempleo más alta y tasas de salarios más altas como compensación. El trabajo aporta fuerte evidencia a favor de la hipótesis de compensación de salarios diferenciales por el aumento del riesgo de desempleo debido a la especialización de las ciudades.

Costa y Kahn, desde una perspectiva algo distinta (enfoque del capital humano), intentan determinar si las parejas (matrimonios) con cierto grado de escolaridad tienden a localizarse en grandes áreas metropolitanas y exploran las causas posibles: la mayor urbanización de los colegios, el crecimiento de hogares con carreras duales y el problema de colocación resultante. Para los autores esta última es la razón primaria. Las ciudades pequeñas tienen pocas entradas de capital humano y, por tanto, son más pobres. Para comprobarlo empíricamente toman datos de la tendencia de la elección de localización entre ciudades grandes, medianas y pequeñas en el periodo 1940-1990, y encuentran que la colocación es la explicación más probable de la tendencia observada. Las ciudades grandes facilitan el emparejamiento de individuos altamente educados y capacitan a las parejas profesionales para resolver el problema de localización conjunta, también preservan los matrimonios de parejas con carreras diferentes porque los mercados laborales son más diversos.

Moretti, desde una perspectiva similar a la de Costa y Kahn, examina el efecto del crecimiento del nivel de capital humano total sobre la economía de una ciudad y el efecto sobre la productividad, los salarios y los precios de la tierra cuando aumenta el stock de capital humano. Analiza las ganancias sociales de la educación, haciendo énfasis en las externalidades que afectan las áreas geográficas locales. Sin embargo, encuentra que los resultados no son concluyentes, porque las ganancias sociales del capital humano pueden tener implicaciones en otras esferas (como la política) y por la gran dificultad para medir los niveles de capital humano. Para esto sugiere algunas metodologías. La primera, comparar la productividad o los costos unitarios de firmas idénticas localizadas en ciudades con altos y bajos niveles de capital humano. La segunda, identificar los spillovers comparando los precios de la tierra en ciudades con altos y bajos niveles de capital humano, y la última, comparar los salarios de trabajadores idénticos localizados en ciudades con altos y bajos niveles de capital humano. Para Moretti es muy pronto para sacar conclusiones sobre el tamaño de las externalidades, ya que aunque la literatura teórica ha estudiado ampliamente el tema, aún falta profundizar los desarrollos a nivel empírico.

CONCLUSIONES

En las últimas décadas se han publicado numerosos trabajos teóricos sobre las causas de las economías de aglomeración en comparación con los trabajos empíricos. Esto obedece en parte a la dificultad para medir las externalidades producidas por factores tales como el conocimiento, la calidad de las relaciones empresarios-trabajadores, el capital humano, y muchos otros que tienen importancia en las economías modernas, pero que por su naturaleza impiden una medición exacta para obtener resultados concluyentes de sus efectos sobre los diferentes aspectos que son objeto de estudio.

La literatura sobre los microfundamentos de las economías de aglomeración ha hecho grandes progresos desde mediados de los ochenta y la publicación de los dos primeros volúmenes del Handbook de economía regional y urbana . Los mayores progresos se observan en áreas como la organización industrial, la economía laboral y el crecimiento económico. Se considera que la heterogeneidad de los trabajadores y las firmas es la raíz de los mecanismos microeconómicos que justifican la existencia de las ciudades y, pese a su importancia, los trabajos empíricos tienen graves dificultades para representar esta heterogeneidad.

La información incompleta también juega un papel importante en las economías de aglomeración, los modelos más utilizados para representarla son los de learning , matching y sharing . La idea que da base a estos modelos es que los beneficios de las ciudades son mayores en ambientes inciertos y cambiantes. Los dos últimos mecanismos están bien desarrollados en comparación con los de aprendizaje, especialmente los knowledge spillovers , por lo que aún hay que hacer muchos esfuerzos en esta área.

A pesar de los problemas de los estudios empíricos, confirman los resultados de los estudios teóricos. En el caso del sharing , confirman el surgimiento de economías a escala debido a que las industrias comparten insumos. En el caso del matching , la especialización juega un papel importante y guarda estrecha relación con el nivel de salarios de las ciudades. En el caso del learning , la evidencia es menos concluyente, ya que no se ha encontrado una herramienta que permita medir el conocimiento de manera diferente a la del capital humano, que supone una relación directa con los niveles de educación.

Para finalizar, cabe señalar que las investigaciones empíricas sobre economías de aglomeración utilizan microdatos que permiten hacer estudios más sofisticados y estimaciones más confiables resolviendo diversos problemas econométricos.

NOTAS AL PIE

1 Aspectos relacionados con la existencia de las ciudades a partir de ´grandes indivisibilidades´ que indican rendimientos crecientes en el nivel agregado, ´grandes indivisibilidades´ en la producción (Koopmans 1957, Mills 1967, Mirrlees 1972) y ´grandes indivisibilidades´ que determinan la ubicación de los mercados.

2 Una versión del modelo de Dixit y Stiglitz (1977) desde el lado de la producción.

3 Rosen (1983), Baumgardner (1988), Becker y Murphy (1992), Duranton (1998), Becker y Henderon (2000), y Henderson y Becker (2000).

4 Otros autores estudian el uso de la tierra urbana bajo externalidades informacionales espaciales (Fujita y Ogawa 1982, Imai 1982, Helsley 1990, Ota y Fujita 1993, Lucas 2001, Berliant, Peng y Wang 2002, y Lucas y Rossi-Hansberg 2002). En este caso, las ciudades experimentan una transición de una estructura monocéntrica a una multicéntrica y completan la dispersión cuando la decadencia espacial se debilita.

5 Se hará referencia a este término como engranaje o emparejamiento, aunque el término puede tener un significado más complejo.

6 Una versión del modelo del mercado de trabajo de Salop.

7 Las habilidades de los trabajadores se distribuyen de manera uniforme sobre un círculo unitario de densidad igual a la fuerza de trabajo (Duranton y Puga 2003).

8 Tharakan y Tropeano (2001) y Amiti y Pissarides (2002) utilizan el modelo de Salop en un contexto distinto al urbano estándar, por ejemplo, en un ámbito regional.

9 Butters (1977), Hall (1979), Peters (1991), Lagos (2000), Coles (1994) y Coles y Smith (1998) justifican la función de emparejamiento agregada a partir de microfundamentos.

10 Estos trabajos sobre conocimiento y aprendizaje tienen el problema de que la evidencia sobre los mecanismos a través de los que se transmite el conocimiento no es convincente. Charlot y Duranton (2002), por ejemplo, aportan evidencia para concluir que el premio a la educación puede depender de algo diferente al conocimiento y al aprendizaje.

11 El desempleo friccional es el resultado de fluctuaciones aleatorias en los despidos y la contratación de trabajadores entre industrias, ciudades y tiempo.

12 Puesto que las fluctuaciones no están correlacionadas entre industrias, la contratación friccional en algunas industrias puede coincidir con despidos friccionales en otras.

13 Tomada de la medida de riesgo de la teoría de portafolio en finanzas.

14 La medida del riesgo es la varianza del crecimiento del empleo en cada ciudad asociada a su variedad industrial.

sábado, 2 de abril de 2016

Índices de concentración de mercado




Concentración de mercado

Tutor2u

La concentración del mercado mide el grado en que las ventas en un mercado están dominados por una o más empresas

¿Cuál es la concentración del mercado y cómo se mide?
  • El coeficiente de concentraciones mide la cuota de mercado combinada de las "n" firmas en la industria.
  • Las participaciones o cuotas pueden ser por ventas, empleo o cualquier otro indicador pertinente.
  • El valor de "n" es a menudo cinco, pero puede ser de tres o cualquier otro número pequeño. Si las 'n' firmas top adquieren una alta cuota de mercado de la industria se dice que ha vuelto más altamente concentrado.

Cuota de mercado del Reino Unido en búsquedas de Google


El índice de Herfindahl-Hirschman (IHH)


Esta es una medida de la concentración del mercado. El índice se calcula elevando al cuadrado la cuota de mercado% de cada empresa en el mercado y sumando estos números.

Por ejemplo, en un mercado que consiste en sólo cuatro empresas con cuotas de 30%, 30%, 20% y 20% el índice de Herfindahl sería 2600 (900 + 900 + 400 + 400).

  • El índice puede ser tan alto como 10.000 si el mercado es un monopolio puro (100 *)
  • Cuanto más bajo es el índice más competitivo es el mercado y puede llegar a casi cero para la competencia perfecta
  • Si una industria tiene 1000 empresas cada una con una cuota de mercado de 0,1%, entonces el índice sólo habría 10 (1000 x 0,1 *).

Una de las últimas directrices sobre las concentraciones en cuenta en el Reino Unido sugiere que un mercado con una medida inferior o igual a 2.000 HHI puede caracterizarse como "altamente concentrado.

Por ejemplo, si un mercado estación de radio local constaba de dos empresas con un 40 por ciento cada uno, y de dos empresas con 10 por ciento cada uno, tendría un IHH de 3400

La calidad superior y la precisión del índice Herfindahl sobre la relación de concentración sencilla se puede ver cuando tres mercados se examinan cada uno con una relación de concentración firma de cuatro de 85%.

Supongamos que en cada mercado del 15% restante del mercado está controlado por 15 firmas cada uno con 1% del mercado.

  • Mercado A: 40% 20% 20% 5% = 85% - Índice de Herfindahl = 2440
  • Mercado B: 25% 20% 20% 20% = 85% - Índice de Herfindahl = 1840
  • Mercado C: 75% 5% 3% 2% = 85% Índice de Herfindahl = 5678

domingo, 20 de marzo de 2016

viernes, 18 de marzo de 2016

Escasez de oferta laboral en la industria informática argentina



Escasean los empleados para la industria informática argentina: faltan 5000 profesionales
En en país, el negocio del software es uno de los que más creció. Sin embargo, el mercado no llega a cubrir la demanda de expertos requeridos. El gerente de Hexacta, Pablo Viola, alerta sobre los peligros para el rubro y habla sobre la problemática en cuestión

iProfesional



La industria de software y servicios informáticos demostró un crecimiento exponencial que logró posicionarla dentro de una de las industrias más competitivas de todo el mundo. "Ya no somos los nuevos, somos reconocidos y tenemos experiencia", indica Pablo Viola, gerente de Hexacta, compañía que brinda servicios de desarrollo.
Sin embargo, este crecimiento está limitado por un obstáculo no menor: la falta de profesionales. "Estamos hablando de un problema muy serio, que puede terminar afectando una industria exitosa y reconocida mundialmente", sugiere Viola.
Según la Cámara de Empresas de Software y Servicios Informáticos de Argentina (CESSI), el sector requiere al menos a 5000 personas más para cubrir sus necesidades.
"Creemos que se necesita un esfuerzo mancomunado para acercar el mundo de la informática a todos y generar un contexto en el cual prepararse para trabajar en el sector no sea sólo elegible para unos pocos", añade Viola, "la competencia es muy dura y la Argentina tiene lo que se necesita para ser los mejores".
Para lograr una relación directa entre el mercado del Software y la esfera educativa, desde Hexacta crearon una capacitación a alumnos de informática Hexacta Labs y, a su vez, participa del Proyecto GEMA, por el cual recibe a alumnos de escuelas secundarias para que realicen prácticas profesionales en la compañía.
Según el informe anual del sector de software y servicios informáticos de la República Argentina elaborado por la CESSI, entre 2003 y 2013 el número de empresas aumentó en un 132%.
Hexacta grafica dicho crecimiento a través de su trayectoria. "Hexacta comenzó su actividad hace 15 años con sólo 4 personas y superó la  crisis de 2001, que afectó definitivamente a muchos emprendimientos locales de tecnología. Actualmente, emplea a más de 350 personas en sus cuatro sedes locales y, además, tiene oficinas en Brasil, Uruguay y Estados Unidos y forma parte del 1% de las empresas argentinas del sector que tienen más de 200 empleados", explica Viola.
Con respecto a la escasez de profesionales, Pablo Viola señala que desde la compañía se hacen cargo de esta cuestión y se comprometen a brindar su aporte para revertir la situación. "Nuestra principal apuesta es que las nuevas generaciones estén familiarizadas con la programación y que los jóvenes puedan formarse en estas profesiones desde chicos y en todos los sectores sociales", agregó.
En esa misma línea, en Hexacta Labs contribuyen a la formación de los talentos a través de cursos gratuitos que dan los profesionales de la programación a los alumnos, tanto en sus oficinas como en ambientes universitarios.

La industria informática en Argentina

La industria informática fue la que más creció en los últimos años en el país.
Es a través del número de empresas que surgieron y permanecieron activas, que es posible percibir el crecimiento, indicado por el Reporte anual del sector de software y servicios informáticos de la República Argentina elaborado por la CESSI.
Según este informe, entre los años 2003 y 2013 la cantidad de compañías del rubro, creció un 132%. Al mismo tiempo, se espera un panorama favorable para febrero de 2015 con respecto a 2014: si bien se prevé un crecimiento algo menor para las ventas totales en Pesos, se espera un crecimiento alto para los ingresos desde el exterior en USD y el empleo.
¿Cómo interpretar este dato? En primer lugar, existe un continuo aumento de la exportación de servicios y con respecto al empleo hay una alta demanda de personal calificado, lo que demuestra la buena voluntad y capacidad de crecimiento que todavía tienen las empresas especializadas.
El aumento del 5.4% del 2014 denota el crecimiento del rubro, sobre todo si se tiene en cuenta la generación del empleo privado en general en la economía argentina, que posee una caída interanual del 0.5% a diciembre de 2014.
Es por esto que el informe establece que las altas expectativas vinculadas al empleo están relacionadas a la satisfacción con demanda del personal calificado cuando no por su oferta.

jueves, 17 de marzo de 2016

Inserción exportable de la industria del software argentina

El sector de software y servicios informáticos en la Argentina: ¿Es posible una inserción exportadora sostenible?

Por Andrés López

Enlace al original

miércoles, 16 de marzo de 2016

Evolución en 2014 del mercado de software



La industria argentina de software y servicios informáticos ya es una marca país competitiva en el mundo
José María Louzao Andrade - Tiempo Argentino
 La ciencia y la tecnología son grandes pilares para el desarrollo del país.
     
  Cada vez más contribuyen a aumentar el nivel educativo y cultural, a generar beneficios para la competitividad de la economía y a favorecer la calidad de vida de la sociedad al tomar protagonismo para afrontar los retos sociales.




Es importante reflexionar acerca de la relevancia de que Argentina, y América Latina en su conjunto, cuenten con una creciente Industria de Software y Servicios Informáticos. El Instituto de Competitividad de ADEN, que realiza desde 2010 mediciones de competitividad para América Latina, toma como base diez aspectos fundamentales para evaluar competitividad, entre los que se encuentra la tecnología como indicador prioritario.
El mercado SSI (Software y Servicios Informáticos) en Argentina ha experimentado un crecimiento sostenido a lo largo de la última década. Ha crecido en un promedio de entre un 15 y 20% anual desde 2003, su facturación actual alcanza los 3700 millones de dólares, sus exportaciones están en 900 millones de dólares y hoy en día el sector emplea alrededor de 80 mil personas. Durante los últimos diez años el objetivo de CESSI ha sido impulsar el crecimiento y posicionamiento de la industria de tecnología de la información (TI) Argentina en el país y en el mundo, procurando generar valor agregado y reducir la brecha digital. Además, se ha logrado una intensa articulación de la industria con el Estado, otras industrias y sectores productivos del país y del exterior. También ha sido importante la mejora de la calidad y cantidad de recursos humanos profesionales a través de las numerosas acciones realizadas junto con universidades, centros de estudios, colegios y áreas del Estado, así como las acciones de inclusión social, digital y laboral para colaborar en alcanzar una sociedad más justa y equilibrada.
Para 2014 se estima un crecimiento del sector promedio como el que venimos observando desde 2003. Se continuarán propiciando las acciones tendientes a mejorar la calidad y cantidad de recursos humanos profesionales así como aquellas que elevan el valor a la oferta de productos de software y servicios informáticos, a través de la Investigación + Desarrollo + Innovación, el aumento en los niveles de calidad, competitividad de las empresas del sector y el posicionamiento comercial de la Marca País.
En los próximos años la industria del software continuará trabajando en los ejes de Inclusión, Innovación, Internacionalización y Transversalidad. Se espera  desarrollar acciones para incentivar aun más el crecimiento del sector y su posicionamiento nacional e internacional. El Plan Estratégico Industrial 2020, elaborado por el Ministerio de Industria de la Nación en conjunto con el sector en el año 2010, ha proyectado como metas a alcanzar por la Industria de Software y Servicios Informáticos para el año 2020: duplicar los puestos de trabajo, triplicar la facturación y cuadruplicar las exportaciones. El Estado requiere de este sector y de sus empresas que permiten integrar, con potencial asociativo en toda su cadena de valor, los distintos esquemas que las nuevas tecnologías necesitan. El software es fundamental para dar respuestas innovadoras a fin de continuar desarrollando una sociedad con mejor calidad de vida y transparencia y una economía con empresas de los distintos sectores productivos altamente competitivas. Argentina ya cuenta con una Industria SSI que hoy en día es una marca país capaz de hacer frente a los exigentes desafíos del mundo global actual.

miércoles, 2 de marzo de 2016

La educación escolar en Silicon Valley: sin WiFi ni computadoras

Sin ordenadores ni wifi: así son los colegios que triunfan en Silicon Valley
En lugares como California proliferan cada vez más los colegios sin tecnología. En España, con nuestro cuestionado sistema educativo, muchos padres también optan por métodos alternativos.

Rita Abundancia - El País


Sin ordenadores ni wifi: así son los colegios que triunfan en Silicon Valley
¿Tiene sentido enseñarles una tecnología que estará obsoleta en 10 años? Foto: Corbis


Los gurús de Silicon Valley, los cerebros detrás de Apple, Google, Yahoo o Hewlett-Packard, los que inundan el mundo con nuevos softwares y aplicaciones, envían a sus hijos a escuelas en las que los ordenadores brillan por su ausencia y el material escolar se parece más al de una comunidad Amish que al de una oficina en el laboratorio tecnológico de ideas más grande del mundo. Los mismos que diseñan tablets, juegos interactivos y programas informáticos para niños, eligen una infancia sin pantallas para sus retoños, en escuelas alternativas, libres de wifi.

La Waldorf School de Península, en California, es uno de los centros que concentran más hijos de la tecnología, con una pedagogía que apuesta por la experimentación en el mundo real, una vuelta al papel y al lápiz y un énfasis en fomentar la creatividad, curiosidad y habilidades artísticas innatas en los más pequeños. De hecho, muchos empiezan a cuestionarse el papel de la informática en las aulas. Como apuntaba The Guardian en un artículo al respecto, la Organisation for Economic Co-operation and Development (OECD), sugiere en un informe global que los sistemas de educación que han invertido mucho en ordenadores han registrado una “insignificante mejora” en sus resultados de lectura, matemáticas y ciencias, en los test del Programme for International Student Assessment (PISA); mientras, en palabras del director de educación de la OECD, Andreas Schleicher, “los mejores sistemas educativos, han sido muy cautos a la hora de usar tecnología en las aulas”.

Beverly Amico, líder de la asociación de escuelas Waldorf de Norteamérica, comentaba al mismo periódico que “sus centros enseñan a los alumnos las nuevas formas de pensar que muchos empresarios demandan” y añadía que “los estudiantes criados con tecnología acusan a menudo poca disposición para pensar de forma distinta y resolver problemas. Habilidades como tomar decisiones, la creatividad o la concentración son mucho más importantes que saber manejar un iPad o rellenar una hoja de Excel, sin contar con que la tecnología que utilizamos ahora, resultará primitiva y obsoleta en el mundo del mañana”.

Nuestro país se sitúa a la cabeza de Europa en cuanto a índices de fracaso escolar y abandono educativo, conceptos distintos. Los últimos datos de la Encuesta de Población Activa (EPA), correspondientes al 2015, pero publicados el pasado enero, alardeaban de un ligero descenso de seis puntos en la tasa de abandono educativo temprano. Algo que los expertos atribuyen al paro y a la decisión de seguir con los estudios al no haber trabajo. Aún así, España no solo sigue a la cabeza de la UE en este aspecto, sino que además duplica la media europea. Ésta y otras razones son las que han hecho que muchos padres se replanteen la educación de sus hijos y opten por escuelas alternativas, con programas educativos y planes de estudios heterodoxos, que huyen de la uniformidad, los libros de texto y la división de los alumnos por edades.

El auge de las pedagogías alternativas

Almudena García, madre y programadora informática en Girona, es la creadora del portal Ludus, un directorio de pedagogías alternativas que inició hace año y medio. García sustituyó la impersonal guardería por un grupo de crianza, en el que madres e hijos compartían un espacio de juego libre, y ahora piensa a qué colegio llevará a su hija cuando ésta cumpla los 6 años. “La economía es la que marca le educación”, comenta Almudena, “la escuela tradicional, que todavía tenemos, nace con la época industrial, en la que se demandaban individuos homogéneos, con una cultura y preparación muy similar y aptos para cumplir órdenes y no cuestionarse demasiado las cosas. Con clases en las que el profesor era el único protagonista, basadas en libros de texto y en la capacidad para memorizar determinadas enseñanzas. La pedagogía alternativa propone todo lo contrario, un trabajo basado en proyectos en los que el niño es el autor de su propio aprendizaje”.

Muchas de estas nuevas filosofías educativas florecen en la escuela infantil, lo que antes se llamaba preescolar, pero son menos las que continúan hasta una edad más avanzada, en parte por problemas legales. Según Almudena, “hasta los 6 años la ley no dice nada, pero a partir de esa edad y hasta los 16, la normativa obliga a escolarizar a los niños en un colegio homologado. Homologar un centro educativo requiere de una serie de requisitos que no están al alcance de todos, por razones económicas (polideportivo, cancha de baloncesto, tener un determinado número de váteres, un aula para cada edad o grado…), lo que hace que muchas escuelas no entren en esta categoría. Esto depende de las diversas comunidades autónomas y, la mayor parte de los casos no ocurre nada, pero si hay problemas o inspecciones, los padres son los culpables. Hace poco, los servicios sociales enviaron cartas a los padres de los alumnos de una escuela no homologada, en las que se les instaba a que los pequeños abandonaran el colegio, con la amenaza de retirarle la custodia de sus hijos; ya que tener el niño en un centro no homologado equivale al absentismo escolar. Si hay planes de que el estudiante ‘alternativo’ continúe en el mundo académico, lo que se suele hacer es matricularlo en el último curso de ESO, para que se reincorpore a la educación ortodoxa”.

Alternativas a la vieja escuela

El Tomillar, en Torrelodones, es lo que se denomina una escuela constructivista, y acoge niños hasta los 6 años, pero también una escuela infantil pública de la Comunidad de Madrid. Según Piedad Pozo, directora del centro, “en vez de que el niño se adapte al colegio, aquí pensamos que somos nosotros los que tenemos que adaptarnos al alumno y los profesores son meros mediadores en el proceso de aprendizaje. Aquí no hay libros de texto, ni fichas. No todos los niños trabajan en la misma cosa a la vez y respetamos los tiempos de aprendizaje de cada uno. Tratamos de enseñarles procedimientos en los que irán profundizando a medida que se hagan mayores. Por ejemplo, podemos hablar de los castillos y ellos deben buscar cosas, hacer dibujos, preguntar a sus padres. Empezar a investigar en la medida de sus posibilidades”.

El Bosque Escuela Cerceda, en el municipio de Cerceda, Madrid, renuncia a las aulas para que los niños aprendan en plena naturaleza. Una tendencia que nació en Alemania, donde ya hay más de mil centros de este tipo. Esta escuela admite niños de entre 3 y 6 años y cuesta 387 euros mensuales. Según Philip Bruchner, licenciado en ciencias forestales, educador infantil y director gerente y promotor de la idea, “los planes de estudios son los mismos que en un colegio normal, la diferencia es que aquí las clases son al aire libre y los niños no cargan con libros sino con una pizarra, que llevan en su mochila, además de una cantimplora, el almuerzo y ropa para la lluvia”.

Según Philip apunta, “se ha demostrado que el contacto con el aire fortalece el sistema inmunológico. En Suecia se hizo un estudio que reveló que los niños que pasan más tiempo fuera tienen menos enfermedades y faltan a clase un 8% menos que el resto. Aún así, tenemos una cabaña para los días que hace muy mal tiempo. En un medio natural se fomenta más la fantasía, la creatividad, la concentración y la autonomía a la hora de resolver conflictos”, señala este educador.

Ojo de Agua, en Alicante, más que un colegio es, como a sus miembros les gusta llamarlo, un ‘ambiente educativo’. Nació en 1999 y forma parte de la red de educación democrática. Su principal característica es que los alumnos, de entre 3 y 18 años, eligen las actividades que quieren hacer, en función de sus intereses. Según Javier Herrero, codirector del centro, los niños no solo están interesados en el baloncesto o la música, “las demandas son muy variadas: hacer una revista, idiomas, cursos de supervivencia, pero también nos piden aprender reglas de ortografía, matemáticas, grupos de lectura. Hay actividades más estructuradas para que todos los estudiantes salgan con unos conocimientos básicos y, además, preparamos para los exámenes de acceso a escuelas o a la universidad”. Como casi todos los colegios alternativos, este centro no divide por edades y dedica mucho tiempo a los padres. “Lo que fomentamos, teniendo en cuenta las diferentes individualidades, es la seguridad en uno mismo, la alegría de vivir, la iniciativa, empatía, capacidad de diálogo y escucha”, afirma Herrero. La escuela es privada y cuesta 400 € al mes.

¿Educar para un mundo feliz?

Algo en lo que casi la totalidad de los profesionales de la educación coinciden, es en la urgencia de reformar el sistema educativo español. Estela d’Angelo es psicóloga y pedagoga, además de profesora, dentro del departamento de didáctica y organización escolar, de la Facultad de Educación de la Universidad Complutense de Madrid. D’Angelo opina que “el sistema se niega a cambiar y obliga a que los alumnos sean los que deben adaptarse a él, cuando lo deseable sería lo contrario”. A grandes rasgos las críticas de esta experta se concentran en una mejor y nueva formación de los profesores; en la necesidad de dejar margen, en el sistema educativo, a la diversidad y en crear otros ambientes de aprendizaje. “Se aprende en interacción y esto es algo aceptado ya en todo el mundo. Sin embargo, la aulas todavía miran para delante, el profesor es el eje central y se trabaja muy poco en equipo”.

Según Estela los propios espacios hablan por si mismos, en un país en el que, desde fuera, los colegios se asemejan a prisiones de máxima seguridad. “En Finlandia, nación que siempre se toma como referencia del ideal educativo, las escuelas se asemejan mucho a las casas, con lugares comunes, que recuerdan a saloncitos, o cocinas donde los propios alumnos recogen y ordenan las cosas. Aquí hay un excesivo control, en aras de la seguridad, que vuelve a los niños muy dependientes. Pero, a veces es un control en cosas sin importancia o más arbitrarias, mientras luego se ven casos de acoso que no han tenido la atención necesaria”.
Por todo lo anterior D’ Angelo comprende el giro de muchos padres hacia la educación alternativa, pero apunta también un riesgo en algunas de estas escuelas, “el hecho de crear situaciones ideales y contextos en los que el alumno es siempre tenido en cuenta, respetado y donde se aceptan siempre sus gustos. A veces, algunos centros actúan como invernaderos, que aíslan a los chicos del mundo exterior y les brindan un ecosistema ideal, pero la vida real no es así y puede que cuando salgan registren un choque importante”, puntualiza esta pedagoga.

jueves, 4 de febrero de 2016

Googlismo: No es necesario el título universitario para ser contratado

Sin título universitario, pero con un perfil de alta demanda en las empresas
Un directivo de Google encendió la polémica al afirmar que los antecedentes académicos no aseguran a la empresa obtener lo que necesita de sus empleados

Jorge Mosqueira
LA NACION


Laszlo Bock

Cada época tiene su paradigma sagrado respecto de la gestión interna, basado en aquellas empresas que son más exitosas. Hubo un tiempo que primó el "fordismo", con su cadena de montaje en serie; otro en el que se afirmó el "toyotismo", dando lugar a los círculos de calidad y la calidad total, y ahora estamos pasando por la fiebre del "googlismo", no sin razón.

El resto de las empresas se alinean, miran y copian, a veces a contramano de sus propias necesidades y cultura, mediante el mismo mecanismo de las modas en el vestir. Pero más allá de estos disparates frecuentes, producto de la pereza intelectual, todo lo nuevo puede ser un aporte valioso si es considerado como opción, saliendo de una miope rutina. Tal es lo que sucede con las definiciones del vicepresidente de Recursos Humanos de Google, Laszlo Bock, quien afirma que "los antecedentes académicos no sirven para nada" y que "las puntuaciones de los candidatos en los test son inútiles como criterio de contratación".


Naturalmente, estas afirmaciones pondrán los pelos de punta a más de un académico, a los profesionales de recursos humanos y cualquier otro dirigente, convencidos todos de que ser buen alumno equivale a ser buen empleado. Este vínculo indiscutible es lo que cuestiona Laszlo Bock, debido a "la desconexión existente entre lo que se enseña en la universidad y el trabajo que se realiza en la compañía". Y amplía: "La gente que tiene éxito en la universidad es un tipo de gente específicamente entrenada para tener éxito en ese ambiente. Una de mis frustraciones cuando estaba en la universidad es que sabía que el profesor estaba buscando una respuesta específica".

Es un punto interesante, a considerar, cuando enfocamos la relación entre los estudios universitarios, tal como se siguen entendiendo en la mayoría de dichos establecimientos educativos, respecto de los requerimientos laborales de hoy. De algún modo denuncia un gran atraso en la educación en sus métodos de enseñanza, que conservan el propósito de formar profesionales estudiosos, pero, fundamentalmente, obedientes.

Cuanto más precisos sean los contenidos incorporados acríticamente, mayor será la puntuación obtenida, por lo que se premia la digestión indiscriminada, la ingesta cerebral acumulativa, sin procesar. Alguna vez, en este mismo espacio se mencionó aquello de que si Galileo (1564-1642) despertara hoy en un quirófano, no podría entender dónde se encuentra. Pero si lo hiciera en una universidad, no tendría dudas. Las metodologías educativas parecerían ir muy a la zaga de lo que hoy (y siempre, en realidad) se necesita para que la civilización avance positivamente en todos sus aspectos.

Entonces, si tomamos como referencia el promedio de las notas obtenidas durante la carrera, ¿qué nos dice, realmente, como para tenerlo en cuenta e incorporarlo al plantel? Aquello que no se discute permanece congelado y prontamente perimido. Tal vez la materia que nos falta aprobar es la del desprendimiento de ideas preconcebidas. Desprendimiento I, II y III, por lo menos, en cada carrera universitaria.

"Hemos llegado a la conclusión de que [los antecedentes académicos] no predicen nada", asegura Bock, quien explica que es algo que se está empezando a notar en las oficinas que la compañía tiene por todo el mundo.

La proporción de trabajadores de Google sin título universitario no para de crecer. Hay equipos en los que el 14% de los miembros nunca ha ido a la universidad. Algo para pensar.

Twitter Delicious Facebook Digg Stumbleupon Favorites More

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Hostgator Coupon Code