miércoles, 22 de abril de 2015

La incertidumbre en diferentes sectores productivos




Las industrias plagadas por la mayor parte de la incertidumbre
Jeff Dyer, Nathan Furr y Curtis Lefrandt
Harvard Business Review

Es un lugar común decir que el mundo es más incierto que nunca, pero pocos se dan cuenta de lo mucho incertidumbre ha aumentado en los últimos 50 años. Para ilustrar esto, consideran que las solicitudes de patentes en los EE.UU. han aumentado en 6x (de 100k a 600k por año) y, a nivel mundial, la creación de empresas han aumentado de 10 millones a casi 100 millones por año. Eso significa que las nuevas tecnologías y los nuevos competidores están llegando al mercado a un ritmo sin precedentes. Aunque la incertidumbre se está acelerando, no está afectando a todos los sectores de la misma manera. Eso es porque hay dos tipos principales de incertidumbre - (? ¿Podemos hacer una solución deseable) exigen la incertidumbre (¿serán los clientes comprar su producto) y la incertidumbre tecnológica - y cuánta incertidumbre se enfrenta a su industria depende de la interacción de los dos.

La incertidumbre de la demanda surge de las incógnitas asociados con la solución de cualquier problema, tales como las preferencias del cliente ocultos. Los más incógnitas que hay sobre las preferencias de los clientes, mayor será la incertidumbre de la demanda. Por ejemplo, cuando el fundador de Rent the Runway Jenn Hyman se le ocurrió la idea de alquilar vestidos de diseño a través de Internet, la demanda fue alta incertidumbre porque nadie más lo estaba ofreciendo este tipo de servicio. Por el contrario, cuando Samsung y Sony estaban decidiendo si lanzar televisores LED, que ofrece mejor calidad de imagen que los televisores de plasma a un precio ligeramente superior, no fue menor incertidumbre sobre la demanda porque los clientes ya estaban comprando televisores.

Los resultados incertidumbre tecnológica de incógnitas con respecto a las tecnologías que puedan surgir o ser combinados para crear una nueva solución. Por ejemplo, una gran variedad de tecnologías limpias (incluyendo la eólica, solar y de hidrógeno) se disputan a los vehículos eléctricos y las ciudades, al mismo tiempo que una amplia variedad de tecnologías médicas (química, biotecnológica, genómica y robótica) se están desarrollando a tratar enfermedades. A medida que la tasa global de invención a través de las industrias, también aumenta la incertidumbre tecnológica.

Considere la matriz 2 × 2 a continuación. Las parcelas de eje horizontal cada industria basada en la incertidumbre tecnológica, medida como el promedio de gastos de I + D como porcentaje de las ventas en la industria durante los últimos diez años. Las parcelas de eje vertical incertidumbre de la demanda de cada industria, medida como una ponderación igual de volatilidad de los ingresos de la industria, o cambio, en los últimos 10 años y porcentaje de empresas en la industria que ingresaron o egresaron durante ese mismo período de tiempo. Aunque estas son medidas imperfectas, identifican las industrias que enfrentan los niveles iniciales más altos y más bajos de incertidumbre.



La siguiente tabla clasifica a las industrias en el 10 superior e inferior 10.



¿Dónde está su industria?

Si su industria se encuentra en el cuadrante inferior izquierdo, o en el 10 en la tabla anterior, se enfrenta a la incertidumbre relativamente baja línea de base para la demanda y la tecnología. Ejemplos de industrias aquí incluyen proveedores de servicios personales, tales como cortes de cabello y la limpieza en seco, que han utilizado tecnologías similares para dar soluciones a las demandas conocidas. Por el contrario, si usted está en el cuadrante inferior derecho, en general puede predecir la demanda, pero el reto que enfrentamos es la incertidumbre tecnológica. Por ejemplo, las compañías de seguros se enfrentan a la incertidumbre tecnológica que viene de lo grande que las inversiones de datos y de análisis impulsarán los ingresos; mientras que la demanda se basa en los datos demográficos altamente predecibles.

Si estás en el cuadrante superior izquierdo, que está con los que se enfrentan las industrias de alta incertidumbre de la demanda, pero baja incertidumbre tecnológica. Por ejemplo, restaurantes y hoteles a menudo tienen dificultades para predecir la demanda de sus servicios, debido a que muchos factores influyen en que, cuando, y donde la gente comer o viajar. Sin embargo, las tecnologías utilizadas para ofrecer comida o alojamiento no han cambiado dramáticamente en los últimos años.

Por último, las industrias en el cuadrante superior derecho - como el software, los productos farmacéuticos y equipos médicos - se enfrentan a una gran incertidumbre en la demanda y la tecnología. Por ejemplo, ¿quién habría predicho que los robots médicos podrían realizar cirugías? Cuando Intuitive Surgical puso en marcha el robot médico Sistema Da Vinci - que permite a los cirujanos operar utilizando la visualización en 3-D y cuatro brazos robóticos - la empresa se enfrenta a importantes técnica, así como la demanda de incertidumbre.

Si estás en el cuadrante superior derecho - o en los 10 sectores más inciertos que se muestran en la Tabla - usted requiere mayores capacidades de gestión de innovación que las industrias en los otros cuadrantes o en la parte inferior 10. De hecho, entre las 10 mejores empresas de la lista de Forbes de las más Empresas Innovadoras (desde 2011 cuando empezamos la lista), más del 80% de las empresas más innovadoras de competir en industrias en el cuadrante superior derecho. En otras palabras, si usted está en una industria de alta incertidumbre, debe sobresalir en la innovación ... o morir.

Un nuevo conjunto de herramientas y perspectivas - como, por ejemplo, el pensamiento de diseño, delgado de puesta en marcha, desarrollo ágil - están surgiendo en muchos campos dispares y revolucionando los gerentes manera en sociedades establecidas con éxito crear, refinar, y aportar nuevas ideas al mercado en condiciones de alta incertidumbre. En nuestro nuevo libro, The Innovator’s Method, que muestran cómo los gerentes pueden adaptar estas herramientas, en un proceso de extremo a extremo, para la gestión de la innovación.

Por ejemplo, las empresas que tienen éxito en la resolución de la demanda incertidumbre se convierten en expertos en el pensamiento de diseño y conceptos de validación a través de la experimentación rápida con los clientes. El éxito de las empresas de software como Google, Intuit y Salesforce.com batir hacia fuera su "beta" o "laboratorios" productos que ponen a prueba efectivamente la demanda de nuevos productos. Cuando el ingeniero de software de Google Paul Bucheit tenía ideas para Gmail y AdSense (el sistema que colocan anuncios basados ​​en palabras clave de su Gmail mensajes, buscar o sitio web) se encontró con que era a menudo luchando contra las opiniones de los líderes. Pero, afortunadamente, los experimentos con las opiniones clientes triunfo en Google. Siguiendo el consejo del entonces CEO Eric Schmidt a "conseguir 100 usuarios felices dentro de Google," Bucheit prototipo soluciones que finalmente resultaron demanda y ganó el día. Hoy, AdSense genera $ 10 billones en ingresos anuales para Google.


Las empresas que tienen éxito en la resolución de la incertidumbre tecnológica a menudo desarrollan una gama de colores más amplia tecnología. Por ejemplo, para ayudar a los equipos de puesta en marcha generan una amplia lista de soluciones, Intuit identificado y contratado a expertos en las tecnologías relacionadas con los dispositivos móviles, las redes sociales, la interacción del usuario, colaboración, datos y similares. Estos expertos son valiosas para la ampliación de búsquedas de soluciones, y que ayudan a los equipos identificar lo que es tecnológicamente factible. En biotecnología Regeneron, la compañía fue pionera en una nueva plataforma de experimentación - ratones "humanizados" que les permitió probar los efectos del fármaco más rápida y fiable - que aumentaron dramáticamente su capacidad de probar diferentes soluciones tecnológicas a los problemas.

La conclusión es que el éxito requiere una comprensión de cómo mucha incertidumbre que enfrenta y la capacidad de gestionar esas incertidumbres en nuevas formas.

¿Cuánta incertidumbre hace la cara de la industria? Hágase las siguientes preguntas:

  • ¿Las nuevas tecnologías o nuevas empresas comenzaron a amenazar a mi empresa o mi industria?
  • Durante los últimos cinco años tienen nuevos competidores entraron en el mercado y capturaron a 10% de la cuota por la orientación a nuestros clientes una propuesta de valor diferente a lo que ofrecemos?
  • Durante los últimos cinco años hemos empezado a ver las preferencias del cliente el cambio, lo que resulta en una mezcla diferente de productos y servicios que se exige?
  • ¿Ha tenido recientemente comenzó a ofrecer (o tienen previsto ofrecer) un producto o servicio que nunca se ha ofrecido antes?

Si usted contestó "sí" a las dos primeras preguntas, es muy probable que se sienta en un negocio con alta incertidumbre tecnológica; si "sí" a las dos últimas preguntas, es probable que tratar con gran demanda incertidumbre.

jueves, 16 de abril de 2015

La tendencia Big Data

El nuevo oro se llama Big data
La economía mundial considera que la gigante masa de información que crece por minuto en Internet es el nuevo gran activo. ¿Cómo convertirla en beneficios?
Por Martina Rua  | Para LA NACION


Docenas de métricas como éstas alimentan la nube virtual y revelan nuestra conducta online. Foto: Eva Mastrogiulio

Hace cuatro siglos la introducción del microscopio permitió ver y analizar organismos a un nivel celular que jamás se había imaginado. Esto generó avances en el conocimiento, al servicio de la salud y las ciencias en general. Como el microscopio, hoy la tecnología se dispone a desenmarañar y darle sentido el reservorio más grande de información del planeta: Internet.

Según IBM, los más de 1000 millones de internautas del mundo alimentamos a diario la Red con cerca de 15 petabytes de datos. ¿A qué equivale? 1000 petabytes son un exabyte, 1000 exabytes son un zettabyte. En el año 2015 habrá 8 zettabytes de información en la Red según la consultora IDC. Un zettabyte corresponde a 75 mil millones de iPads de 16 gigas o a mil millones de discos rígidos como los de una computadora promedio de escritorio. Hoy, en 2012, la Red contiene 2,7 zettabytes de datos, aproximadamente, y aunque es difícil pensar en esta cantidad de información, definirla y analizarla promete grandes beneficios para los usuarios. Según IDC, la cantidad de información en la Web se duplica cada 18 meses y aunque América latina todavía representa menos del 10% de la audiencia total mundial de Internet -8.9% según ComScore-, la participación en la Red no para de crecer y nuestro país es especialmente proclive al uso intensivo de las herramientas sociales y de la Web en general.

De qué se trata

Big Data es el término que se utiliza para describir los grandes volúmenes de datos que componen Internet y la posibilidad de obtener información sobre ellos.

La información en la Red está formada por datos estructurados -como las tradicionales bases de datos que puede tener, por ejemplo, una empresa de servicios sobre el consumo de energía de un usuario-, y por desestructurados, que en cantidad superan tres veces a los primeros. Buena parte de la información desestructurada -que representa el 80% del total- proviene de las herramientas sociales. Para tener una idea de lo que pasa en la Red en sólo un minuto: se generan 98.000 tweets, se bajan 23.148 aplicaciones, se juegan 208.333 minutos de Angry Birds, 277.000 personas se loguean a Facebook y se ven 1,3 millones de videos en YouTube, entre otras decenas de métricas que alimentan sin cesar la nube virtual y le enseñan sobre nuestra conducta online. "Todas las industrias guardan y necesitan acceder a la información de maneras muy distintas -describe Marcelo Fandiño, CEO de EMC Argentina, empresa de almacenamiento y cómputo en la nube-. Algunos datos necesitan ser analizados en tiempo real, otros estar almacenados por años con consultas muy puntuales. Ahora tenemos una memoria gigante y lo que hay que hacer es darle toda la inteligencia. El usuario se está volcando cada vez más a la Red para tener su información y pronto tendrá su máquina principal completamente alojada en la nube. Para eso tendremos que darle el máximo y más creativo análisis a cada documento y dato alojados allí."

No es casualidad que en el Foro Económico Mundial celebrado en junio en Suiza, el concepto de Big Data haya sido protagonista. Un informe desarrollado durante el encuentro, llamado Big Data, Big Impact, declara a la masa de información gigante como una nueva clase de activo económico, como el dinero o el oro. Sebastián Bellagamba, director para Latinoamérica y el Caribe de la Internet Society, organismo mundial que vela por el buen desarrollo y crecimiento de Internet, reflexiona sobre el fenómeno: "No es la primera vez que se juntan datos nuestros, uno ha estado dando información buena parte de su vida, sólo que internet lo hace más evidente. La Red va coleccionando datos de nuestro perfil (sexo, edad, gustos, hábitos, procedencia); eso sirve para darnos mejores resultados en las búsquedas y que pueden servir para tomar decisiones o generar políticas públicas que impacten de manera positiva en la sociedad, que no es lo mismo que juntar y distribuir datos personales como número de DNI, dirección o nombre. Que la información de la Red crezca es deseable siempre que se respeten los libertades individuales y el usuario pueda elegir qué datos le da al universo virtual", advierte Bellagamba. (Ver recuadro No me grabes.)

Desde IBM explican el universo de Big Data a partir de tres v: volumen, variedad y velocidad. "Tenemos un gran desafío por delante, dado que se espera que para el año 2020 haya 35 zettabytes de información. Con IBM Insights trabajamos con plataformas de código abierto, le agregamos seguridad y el análisis es cada vez más intuitivo; intenta encontrar patrones y utiliza herramientas para conectar de esta información que proviene de lugares diferentes. El análisis tradicional de Business Intelligence (inteligencia de datos) ya no es suficiente. Si una telefónica sufre una caída de servicio y los usuarios empiezan a reclamar en las redes, debe poder acceder a esa información de inmediato para actuar cuanto antes", ejemplifica Leonardo González Barceló, líder en Big Data de IBM.

Hasta aquí sólo tenemos una descripción de un fenómeno del que todo internauta -en mayor o menor medida- es parte. Cabe entonces la pregunta: ¿por qué debería interesarle este universo al usuario? o -quizás más relevante- ¿cómo afecta esta nube de datos en su vida?

Hasta donde llega

No es sólo más flujos de datos los que recibe la Web hoy, sino también datos completamente nuevos. En la actualidad, empresas y gobierno trabajan con miles de sensores digitales que arrojan información de todo tipo a la Red. En equipos industriales, automóviles, electrodomésticos, en las calles, estos sensores pueden medir -y comunicar- la localización, el movimiento, la vibración, la temperatura, la humedad y hasta cambios químicos en el aire. Esto, y la actividad en la Red en general, permite la toma de decisiones: qué construir y dónde hacerlo, prevenir un desastre natural, evitar un embotellamiento, detectar posibles derrumbes. "Es un fenómeno creciente, que antes existía, pero se daba en ambientes controlados con datos estructurados; ahora los datos provienen de todos lados. Google no existiría sin toda esa Big Data y es nuestra misión organizarla y entregarla a los usuarios de una manera que sea relevante para su vida", dice Giraldo Hierro, líder de Enterprise Sales de Google.

Cualquier usuario puede también consultar y usar la inteligencia que se desprende de la Web. En Buenos Aires y muchas ciudades de la Argentina y el resto del mundo, cualquier usuario puede ir a Google Maps, introducir una dirección, elegir la vista de satélite y ver en tiempo real la congestión de tráfico de la zona que desea visitar, con información que los mismos usuarios envían a la Red por sólo usar su teléfono Android. También Google ha descubierto que ciertos términos de búsqueda sirven como buenos indicadores de la actividad de la gripe y desarrolló Flue Trends, donde cualquiera puede ingresar y ver la evolución de la gripe a través de datos globales de las búsquedas de los internautas en Google. Así, se pueden hacer cálculos aproximados de la actividad de esta enfermedad en determinadas regiones, lo que podría resultar de utilidad para tomar acciones de prevención.

También se puede usar la información para hacer más eficiente el consumo energético. "A través de la estrategia de Smart Meters de IBM, se analizó el consumo de electricidad de un barrio a través de sensores que enviaban datos de consumo. En base a esa información, la compañía fue capaz de determinar los hábitos de los vecinos en cada momento del día, ver cómo variaba la demanda y hasta cambiar algunos de esos hábitos con estrategias de premios y bonificaciones a sus clientes", ejemplifica Barceló.

Otra cara de Big Data es que el ciudadano tiene cada vez más acceso a ver datos de gobierno que antes sólo eran analizados al interior de las administraciones públicas. En 2009, fue pionera la ciudad de Washington, que abrió las puertas a toda su información con Data.gov. En marzo de este año el GCBA implementó Buenos Aires Data, el primer repositorio público de datos abiertos del país basado en CKAN -la plataforma utilizada por otros gobiernos nacionales y municipales alrededor del mundo-. Se puede ver allí la ejecución presupuestaria del gobierno, el catálogo de las bibliotecas públicas de la ciudad (300.000 volúmenes), el movimiento de las bicicletas públicas (500.000 recorridos), y grandes volúmenes de información geográfica previamente disponibles sólo para uso interno, como los polígonos correspondientes a más de 300.000 parcelas que componen de la ciudad, entre otros registros.

A la luz de todo esto, no existe hoy una empresa de tecnología que despliegue su estrategia de negocio sin contemplar una mirada sobre Big Data. Ya sean de hardware, software o servicios, todas apuntan sus desarrollos e inversiones a herramientas y aplicaciones que puedan desarmar el ovillo más grande del mundo. Así EMC, HP, IBM, Netapp, Intel, SAP, entre tantas, lanzan herramientas para llegar a esos datos de manera más rápida e eficiente (algo que hace dos años se analizaba en una semana, puede hacerse ahora en un día). Por su parte, los gigantes de Internet como Facebook, Google y Amazon tienen herramientas propias para analizar la información, y las consultoras de análisis Web trabajan a destajo en aumentar el cruzamiento de estos datos estructurados y no estructurados en busca de un mejor aprovechamiento del universo virtual. No seremos sólo testigos de este fenómeno, sino protagonistas de la era del nuevo oro.

NO ME GRABES

Una de las discusiones que se viene con Big Data está relacionada con los derechos de los usuarios a no ser rastreados -de así desearlo- en sus búsquedas en Internet y, como contrapartida, su responsabilidad (y no sólo la de las empresas) en la comprensión de los términos y condiciones de uso de cada sitio que visitan.

De a poco los principales navegadores -Chrome, Firefox, Explorer- están agregando herramientas para que el usuario pueda decidir cuándo quiere y cuándo no quiere dejar rastro o información sobre su navegación.

Sin embargo, hay que tener en cuenta que al elegir estos filtros -se los conoce como Dont Track me-, también se le está quitando información a los sistemas para que brinden resultados más personalizados o tengan en cuenta los gustos o búsquedas frecuentes del usuario. "Falta una conciencia del usuario latino que aprueba términos y condiciones sin leer en la mayoría de las ocasiones qué es lo que está aceptando, y también una predisposición mayor de las empresas a mantener las reglas claras y no estar cambiando sus condiciones constantemente.

Hoy Internet no es una tecnología en su madurez; hay que estar atentos para atender la libertad de expresión y también para que la legislación que se haga no coarte Internet", opina Sebastián Bellagamba, de la Internet Society.

Juan Damia, representante para Latinoamérica de la Digital Analytics Association y titular de Intellignos, empresa local de análisis Web, remarca la importancia de aportarle claridad a la privacidad del usuario: "Si no empezamos a favorecer la privacidad del usuario, en el futuro directamente se va a prohibir medir todo. Hay que educar y mostrar al usuario la importancia que tiene ser medido, y que esto no invade la información personal. Promovemos un código de ética para que los profesionales trabajen respetando la información de los terceros. En Europa esto está avanzado y la gente no se desuscribe, por el contrario, elige y administra su navegación de una manera responsable, porque ve los beneficios de la inteligencia aplicada a la información en la Web"..

miércoles, 15 de abril de 2015

Como evitar las trampas del Big Data

Cómo evitar las "trampas" del Big Data 
Jill Dyche - Harvard Business Review



Tan emocionante como yo encuentro al Big Data, los ejecutivos con los que me cruzo están comprensiblemente recelosos de saltar con ambos pies. Después de todo, algunas industrias han estado discutiendo terabytes de información por años. Y es cierto que los costes de abastecimiento, limpieza, carga, consulta y almacenamiento de datos de transacciones de bases de datos tradicionales a menudo superiores a los beneficios previstos. La tendencia Big Data se trata tanto de nuevas soluciones para la gestión y almacenamiento de volúmenes de información cada vez mayor, ya que se trata de los propios datos.
La pregunta en la mente de muchos de los líderes empresariales es la siguiente: ¿Tiene el potencial para acelerar los procesos empresariales existentes justifican el enorme costo asociado con la adopción de tecnología, proyecto rampa hacia arriba, y la contratación y capacitación del personal que acompañe los esfuerzos Big Data? Para agravar el escepticismo, muchos líderes han sido quemados por los esfuerzos de adopción de TI fracasado en el pasado y han comenzado a perder la paciencia, la sospecha de que Big Data es lo que uno de mis clientes llamadas "otro ejercicio intelectual en TI."
Justificar la inversión en grandes volúmenes de datos no es fácil. De hecho, he visto como empresas pasaron muchos meses y dólares incontables investigando Big Data sólo que luchar para definir un caso de negocio. Incluso con un buen modelo de negocio, la política y las cuestiones de propiedad pueden torpedear fácilmente proyectos de Big Data, sobre todo si se requieren cambios en las estructuras organizativas y procesos de negocio. Los riesgos inherentes a la adopción de soluciones de TI emergentes pueden abrumar rápidamente las recompensas.
Se pregunta si el Big Data es la decisión correcta para su empresa? Vea si usted puede contestar a estas cinco preguntas:

1: ¿Qué no podemos hacer hoy que Big Data podríamos ayudarnos a hacer?

Los líderes empresariales deben ser capaces de proporcionar orientación sobre el problema que quieren que Big Data resuelva, si usted está tratando de acelerar los procesos existentes (como la detección de fraude) o introducir otras nuevas que hasta ahora han sido caro o poco práctico (como la transmisión de datos de "contadores inteligentes" o seguimiento picos meteorológicas que afectan las ventas). Si no puede definir el objetivo de un esfuerzo Big Data, no perseguirlo.

2: ¿Qué habilidades, tecnologías y desarrollo de datos existente prácticas tenemos en el lugar que podría ayudar a poner en marcha un esfuerzo de Big Data?

En el interés de la administración de datos como un activo corporativo, muchos líderes empresariales han formado organizaciones de gestión de datos discretos. La misión es simple: para gestionar la información en sí misma, separada de aplicaciones y plataformas. La arquitectura de datos, calidad de datos, y las habilidades de metadatos y herramientas de estos equipos proporcionan a menudo se pueden aprovechar para apoyar los esfuerzos de Big Data. Si su empresa no cuenta con una organización eficaz de gestión de datos en el lugar, la adopción de la tecnología Big Data será un gran desafío.

3: ¿Cómo sería una prueba de concepto similar, y cuáles son algunos límites razonables para asegurar su rápido despliegue?

Big Data puede tomar vida propia, que evoluciona de bromas pasillo informal en un esfuerzo en toda regla desarrollo personalizado. Una vez que usted articula un problema de negocio de buena fe, tener claro el resultado deseado. Como con muchas otras pruebas de concepto la regla "no hervir el océano" se aplica a los grandes datos. Definir un esfuerzo "tamaño de bocado", y ampliarlo una vez que se muestra el valor.

4: ¿Qué determina si tenemos luz verde para una inversión en Big Data?

Sepa lo que parece el éxito, y poner las medidas en vigor. En una cadena de tiendas especializadas que analizan las interacciones de medios sociales resultaron en recomendaciones de productos más específicos en su página web. El equipo de Big Data proyecta una rentabilidad del 7 por ciento levantamiento ingresos mensuales entre el segmento de clientes de alto valor. El esfuerzo terminaría pagando por sí mismo en cuatro meses. El equipo no tuvo problemas para obtener financiación para el proyecto.

5: ¿Podemos gestionar los cambios producidos por Big Data?

Los cambios estructurales y de proceso que probablemente se producirán con un esfuerzo de grandes volúmenes de datos necesitan ser manejados con mucho cuidado. Aunque muchos marginará Big Data como un esfuerzo de la tecnología, al igual que con cualquier iniciativa empresarial de sus beneficios anticipados deben ser claras. Alguien debería entonces establecer y comunicar los avances hacia el resultado deseado. Como dijo el gurú de la gestión del cambio John Kotter, "Los líderes eficaces ayudan a otros a entender la necesidad del cambio y aceptar una visión común de los resultados deseados." Una vez que haya identificado los beneficios, nombrar un portavoz - el más alto en la organización la mejor - para sancionar el esfuerzo y comunicar el progreso. Esta persona debe tener la autoridad para la organización para asegurarse de Big Data se Mindshare, presupuesto y apoyo. Con la comunicación periódica de resultados tangibles, el pago de grandes volúmenes de datos puede ser muy grande por cierto.

lunes, 13 de abril de 2015

El mercado de Big Data explota

El tamaño del mercado e ingresos de vendedores en el mercado de Big Data


Por Jeff Kelly con David Vellante y David Floyer - Wikibon


Este es el informe de 2011, publicado originalmente el 15 de febrero de 2012. Ver Big Data Vendor Ingresos y Pronóstico del Mercado 2012-2017 para la actualización de 2012.

El mercado de Big Data está al borde de una etapa de crecimiento rápido que verlo superar la marca de 50 mil millones dólares en todo el mundo en los próximos cinco años.

A principios de 2012, el mercado de Big Data se sitúa en poco más de 5000 millones dólares basado en el software relacionado, hardware, y los ingresos por servicios. Mayor interés y conciencia del poder de Big Data y capacidades analíticas relacionadas para obtener una ventaja competitiva y mejorar la eficiencia operativa, junto con la evolución de las tecnologías y servicios que hacen los grandes datos en una realidad práctica, dará lugar a una tasa compuesta anual súper cargado de 58% de aquí a 2016.

Como se explica en nuestro Data Manifiesto de Big, Big Data es la nueva fuente definitiva de ventaja competitiva en todas las industrias. Para aquellas organizaciones que comprender y aceptar la nueva realidad de Big Data, las posibilidades de innovación, una mayor agilidad y una mayor rentabilidad son casi infinitas.

A continuación se muestra el pronóstico de cinco años de Wikibon para el mercado de los grandes datos en su conjunto:


Figura 1 - Fuente: Wikibon 2012

Del mercado actual, Big Data proveedores pure-play representan 480 millones de dólares en ingresos. A pesar de su relativamente pequeño porcentaje de la corriente de ingresos general (aproximadamente 10%), estos vendedores - como Vertica, Splunk y Cloudera - son responsables de la gran mayoría de las nuevas innovaciones y enfoques modernos de la gestión de datos y análisis que han surgido en la última varios años y hecho grandes datos del sector más caliente de TI.

Wikibon considera Big Data puros de papeles como los de hardware, proveedores de software, o servicios independientes cuyas relacionadas con los datos de Big cuentas de ingresos para el 50% o más de los ingresos totales. Este grupo también se compone de tres hasta hace poco independiente proveedores de almacenamiento de datos de próxima generación - HP Vertica, Teradata Aster, y EMC Greenplum - que en gran medida continuará operando como entidades autónomas y no tiene, hasta el momento, tenía su ADN contaminado por sus adquirentes .

A continuación se muestra un desglose de los ingresos a nivel mundial de los mejores Big Data proveedores pure-play para el año 2011. *


Figura 2 - Fuente: Wikibon 2012

A continuación se muestra un desglose de la cuota de mercado en el segmento de puro juego del mercado de Big Data.



Figura 3 - Fuente: Wikibon 2012

Los actuales líderes del mercado Big Data, por ingresos, son IBM, Intel y HP, estas mega proveedores se enfrentarán a una mayor competencia de los proveedores de las empresas establecidas, así como los antes mencionados Big Data puros-plays en desarrollo tecnologías Big Data y casos de uso que están impulsando el mercado . Incumbe a Hadoop centrado puros-plays, sin embargo, establecer un modelo de negocio rentable para comercializar el marco de código abierto y el software relacionado, que hasta la fecha ha sido difícil de alcanzar.

A continuación se muestra un desglose de la corriente de los ingresos totales Big Data por el proveedor **:

Total 2011 Ingresos de Big Data Revenue por vendedor
VendorBig Data Revenue (in $US millions)Total Revenue (in $US millions)Big Data Revenue as Percentage of Total Revenue
IBM$953$106,0001%
Intel$765$54,0001%
HP$513$126,0000%
Fujitsu$285$50,7001%
Accenture$273$21,9000%
CSC$160$16,2001%
Dell$154$61,0000%
Seagate$149$11,6001%
EMC$138$19,0001%
Teradata$120$2,2005%
Amazon Web Services$116$65018%
SAS Institute$115$2,7001%
Capgemini$111$12,1001%
Hitachi$110$100,0000%
SAP$85$17,0000%
Opera Solutions$76$10076%
NetApp$75$5,0000%
Atos S.A.$75$7,4001%
Huawei$73$21,8000%
Siemens$69$102,0000%
Xerox$67$6,7001%
Tata Consultancy Services$61$6,3001%
SGI$60$6909%
Logica$60$60001%
Mu Sigma$55$6585%
Microsoft$50$70,0000%
Oracle$50$36,0000%
Splunk$45$6368%
1010data$25$3083%
Supermicro$23$9432%
MarkLogic$20$8025%
Cloudera$18$18100%
Red Hat$18$1,1002%
Informatica$17$7502%
Calpont$15$2560%
ClickFox$11$3531%
Fractal Analytics$12$12100%
Pervasive Software$10$5020%
Tableau Software$10$7214%
Think Big Analytics$8$8100%
MapR$7$7100%
Digital Reasoning$6$6100%
ParAccel$5$1145%
Couchbase$5$684%
DataStax$4.5$4.5100%
10gen$4.5$4.5100%
Datameer$4$4100%
Hortonworks$3$3100%
RainStor$2.5$2.5100%
Attivio$2.5$1913%
QlikTech$2$3001%
HPCC Systems$2$2100%
Karmasphere$2$2100%
Other$25n/an/a%
Total$5,125$866,6711%

Notas sobre la tabla de arriba. Ha habido varias preguntas de la comunidad en estos datos, la forma en que se obtuvo y por qué se cuantificaron ciertos proveedores como estaban. La siguiente captura de algunos de los aspectos más destacados de estas discusiones.

  • Intel, Seagate y Super Micro tienen grandes acciones debido a la propensión de datos de gran escala los racimos de utilizar componentes off-the-shelf y soluciones de caja blanca. Esto es especialmente cierto para los gigantes de Internet como Google y Facebook.
  • Fuerte presencia de IBM incluye una gran proporción de los servicios debido a la fuerte cartera de servicios profesionales de la empresa. Además, la fuerte negocio de software de análisis de IBM es un gran contribuyente a sus iniciativas de Big Data.
  • Cifras de Oracle Exadata y Exalogic incluyen porque son enfoques no tradicionales para el manejo de datos de gran tamaño. Sin embargo, no se incluye el conjunto de ingresos de estos productos. Se valoran los ingresos que se asociaron con implementaciones que eran grandes en capacidad.
  • La generación de ingresos de la empresa proveedor de almacenamiento de datos siguiente de Vertica, Greenplum, y Aster Data se incluyó en las cifras de ingresos Big Data generales de su empresa matriz.


Wikibon inició esta investigación en un esfuerzo por proporcionar alguna orientación a la comunidad sobre el tamaño del mercado de Big Data. Todo el mundo está zumbando sobre Big Data, que lleva a la pregunta: "¿Qué tan grande es el mercado de Big Data" Se realizaron búsquedas pero no pudimos encontrar ninguna información de mercado y sentimos que poner adelante a tops / abajo y fondos / hasta el análisis sería útil. Poner una "estaca en la tierra 'en el tamaño del mercado también, esperamos, generar nuevos debates en la comunidad y ayudarnos a afinar las estimaciones del mercado. Toda la entrada creíble será evaluado y actuar en consecuencia rápidamente.

En cuanto a la metodología, el tamaño del mercado de Big Data, pronóstico, y los datos de cuota de mercado relacionados se determinó con base en una extensa investigación de las cifras de ingresos públicos, informes de prensa, entrevistas con los proveedores y revendedores en relación con las tuberías de clientes, hojas de ruta de productos, y la retroalimentación de la comunidad de Wikibon los profesionales de TI. Muchos vendedores no fueron capaces o dispuestos a proporcionar cifras exactas para nuestra definición Big Data, y porque muchos de los puros de papeles son de propiedad privada era necesario que Wikibon para triangular muchas fuentes de información para determinar nuestras cifras finales. Wikibon define los grandes datos para incluir conjuntos de datos cuyo tamaño y tipo que sean impracticables para procesar y analizar con las tecnologías de bases de datos tradicionales y herramientas relacionadas. El mercado de datos grande, por lo tanto, incluye las tecnologías, herramientas y servicios diseñados para hacer frente a estas deficiencias. Éstas incluyen:

  • Hadoop distribuciones, software, subproyectos y hardware relacionado;
  • La próxima generación de almacenes de datos y hardware relacionado;
  • Big data plataformas analíticas y aplicaciones;
  • Plataformas y aplicaciones de inteligencia de negocios, minería de datos y visualización de datos que se aplican a los grandes datos;
  • Plataformas de integración de datos y herramientas que se aplican a los grandes datos;
  • Apoyo Big Data, capacitación y servicios profesionales.

Si bien esta es una definición ciertamente amplio mercado, la mayoría de las tecnologías y herramientas básicas Big Data comparten alguna combinación de las siguientes características. Se aprovechan de hardware común para permitir scale-out, técnicas de procesamiento en paralelo; emplear a un cierto nivel de modelo de datos no relacionales con el fin de procesar los datos no estructurados y semi-estructurados; aprovechar el almacenamiento de datos en columnas y / o capacidades de compresión de datos para mejorar la eficiencia de la consulta; y son interoperables con análisis de negocios y tecnologías de visualización de datos para transmitir conocimientos a los usuarios finales.

A continuación se muestra un desglose de los ingresos Big Data por el hardware, software y servicios.


Figura 4 - Fuente: Wikibon 2012

Pure-plays desarrollo de la innovación Big Data

Mientras que los pesos pesados ​​de TI de IBM e Intel actualmente liderando el mercado de Big Data en los ingresos en general, esto se debe principalmente a su amplitud de ofertas y atrincheramiento en muchos centros de datos empresariales, y, en el caso de Intel, la propensión de los proyectos de Big Data para utilizar los productos básicos x / 86 servidores. Además, el énfasis de IBM en análisis y su cartera de grandes servicios están impulsando gran parte de los ingresos de datos grande de la compañía. Por otra parte, el mercado es inmaduro, con pequeños Big Data puros-plays sólo el aumento gradual de sus estrategias de salida al mercado.

Las innovaciones de mayor impacto en el mercado de grandes volúmenes de datos son, de hecho, que viene de los numerosos vendedores pure-play que, a partir de ahora, sólo poseen una pequeña participación en el mercado global. Si bien no todos van a tener éxito en el largo plazo, y sin embargo, algunos tienen que entregar ningún ingreso significativo, Wikibon espera que muchos de estos vendedores disfrutando de un rápido crecimiento en los próximos cinco años como sus ofertas, servicios de apoyo, y los canales de venta madurar. Por supuesto, esto también significa todos y cada uno de puro juego Big Data es un objetivo de adquisición potencial de mega proveedores de IBM, Oracle, HP, EMC, y otros. Como ha sucedido en otros mercados de rápido crecimiento, como el mercado de Business Intelligence en el período 2007-2008, el mercado de Big Data experimentará una consolidación significativa en los próximos tres a cinco años. Los vendedores de la adquisición sería prudente permitir actuales Big Data puros-plays para seguir operando y, más importante, innovando como entidades mayormente independientes, o el riesgo de sofocar la innovación que muy está alimentando un enorme crecimiento del mercado de datos grande.

A continuación se presentan ejemplos específicos de las innovaciones que están siendo impulsados ​​por grandes datos puros de roles:

Distribuciones de Hadoop Cloudera y Hortonworks son responsables de la mayoría de las contribuciones al proyecto Apache Hadoop que mejoran significativamente las capacidades de rendimiento de la fuente abierta del marco Big Data y la empresa de preparación.

Cloudera, por ejemplo, contribuye significativamente a Apache HBase, la base de datos no relacional basada en Hadoop que permite la baja latencia, búsquedas rápidas. La última de estas iteraciones, a la que los ingenieros de Cloudera contribuyeron, es v2 hFile, una serie de parches que mejoran la eficiencia de almacenamiento HBase.

Hortonworks ingenieros están trabajando en una arquitectura de próxima generación MapReduce que promete aumentar el tamaño máximo de clúster Hadoop más allá de su actual limitación práctica de 4.000 nodos, así como añadir un cierto nivel de transmisión en tiempo real las capacidades de análisis de datos.

MapR tiene un enfoque más propio para Hadoop, que complementa HDFS con su compatible con la API de DirectAccess NFS en su distribución de Hadoop empresa, añadiendo capacidades significativas de rendimiento y tiempo de actividad.

Next Generation Data Warehousing Los tres líderes, hasta hace poco independientes proveedores de almacenamiento de datos de próxima generación - Vertica, Greenplum, y Aster Data - están dando un vuelco al mercado tradicional de almacenamiento de datos empresariales con bases de datos analíticas masivamente paralelas, columnares que entregan aligerar la carga de datos rápido y casi real capacidades de consulta de tiempo.

La última versión de la Vertica Analytic Platform, Vertica 5.0, por ejemplo, incluye nuevas capacidades de elasticidad para expandir fácilmente o implementación de contratos y un montón de nuevas funciones analíticas en la base de datos.

Aster Data ha sido pionero en un marco de SQL-MapReduce novela, que combina lo mejor de ambos enfoques de tratamiento de datos, en tanto que única plataforma analítica de colaboración de Greenplum, Chorus, ofrece un entorno social para científicos de datos para experimentar con Big Data.

Los tres proveedores experimentaron un crecimiento significativo de los ingresos en los últimos dos o tres años, con Vertica a la cabeza con un estimado de $ 84 millones en ingresos en 2011, seguido de Aster Data, con 52 millones de dólares y Greenplum con $ 40 millones.

Plataformas y aplicaciones Big Data Analytic Un puñado de up-and-coming proveedores están desarrollando aplicaciones y plataformas que aprovechan la infraestructura Hadoop subyacente para proporcionar tanto a los científicos de datos y usuarios de negocios "regulares" con herramientas fáciles de usar para la experimentación de Big Data. Menos madura es el mercado de pulido a los usuarios finales aplicaciones Big Data.

Datameer está ganando tracción significativa con su plataforma de inteligencia de negocio basado en Hadoop que aprovecha una interfaz de hoja de cálculo familiar para permitir a los usuarios sin motor para manipular o analizar datos basada en Hadoop de otra manera; Razonamiento Digital, cuya plataforma de síntesis se encuentra en la parte superior de Hadoop para analizar la comunicación basada en texto, está muy arraigado en el sector gubernamental y está lista para expandir a las empresas más tradicionales. Karmasphere ha desarrollado una plataforma de desarrollo analítico que permite a los científicos datos para realizar consultas ad hoc sobre datos basados ​​en Hadoop través de una interfaz SQL.

Big-Data-as-a-Service Big-Data-as-a-Service se está desarrollando rápidamente gracias a proveedores como Tresata, 1010data y ClickFox. Aplicaciones y servicios de Big Data en la nube tienen el potencial de permitir que las pequeñas y medianas empresas, así como las empresas que carecen de conocimientos técnicos internos Big Data, para aprovechar el procesamiento de grandes volúmenes de datos y capacidades analíticas sin necesidad de desplegar y gestionar en las instalaciones hardware o software.

Plataforma basada en la nube de Tresata, por ejemplo, aprovecha Hadoop para procesar y analizar grandes volúmenes de sus clientes los datos financieros, incluyendo enriqueciéndola con datos de terceros, tales como los datos del mercado de valores y devuelve los resultados a través de on-demand visualizaciones para los bancos, los datos financieros empresas y otras compañías de servicios financieros.

1010data ofrece una aplicación basada en la nube que permite a los usuarios de negocios y analistas para manipular datos en el formato de hoja de cálculo familiar, pero a escala Big Data. Y las minas plataforma ClickFox grandes volúmenes de datos de punto de contacto del cliente para asignar la experiencia total del cliente con efectos visuales y análisis entregados bajo demanda.

Plataformas no Hadoop Big Data Otros proveedores no Hadoop contribuyen innovación significativa a la gran paisaje datos incluyen:

  • Splunk, que se especializa en el procesamiento de datos y el análisis de archivos de registro para permitir a los administradores supervisar el desempeño de TI de infraestructura e identificar los cuellos de botella y otras interrupciones en el servicio;
  • HPCC Systems, una spin-off de LexisNexis, que ofrece un marco de Big Data compitiendo para Hadoop que sus ingenieros construyen internamente en los últimos diez años para ayudar a la empresa en el procesamiento y análisis de grandes volúmenes de datos para sus clientes en finanzas, servicios públicos y gobierno ;
  • DataStax, que ofrece una versión comercial de la base de datos de código abierto Apache Cassandra NoSQL junto con los servicios de apoyo conexos incluidos con Hadoop.

Por supuesto, hay muchos otros que prometen Big Data creación de empresas que son demasiado temprano en su existencia a ser incluido en este informe los ingresos, pero que ninguno-la-menos están fuera de aperturas prometedoras. Entre ellos se encuentran Sqrrl, Aerospike, Platfora, Continuidad, Hadapt y Wibidata. Las empresas deben mantener una estrecha vigilancia sobre estos y otros datos de gran puros de papeles, ya que continúan desarrollando innovadoras pero prácticas Big Data plataformas, aplicaciones y servicios.

Línea de Acción: El mercado de Big Data está explotando, no sólo en términos de marketing publicitario, sino también en los ingresos reales. Mientras que las personas razonables pueden debatir definiciones y tamaños del mercado en general, una cosa está clara - Big Data es un mercado grande y de rápido crecimiento. Para profesionales de TI que significa la investigación de las formas en que se puede monetizar las fuentes de datos en sus organizaciones y la obtención de las habilidades necesarias para alcanzar dicho objetivo. Para la comunidad de proveedores que significa que usted necesita tener una historia alrededor de Big Data que es creíble con una hoja de ruta que ofrece un valor de negocio claro y flexibilidad para moverse con este espacio de rápido crecimiento.

Twitter Delicious Facebook Digg Stumbleupon Favorites More

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Hostgator Coupon Code