Mostrando entradas con la etiqueta Big Data. Mostrar todas las entradas
Mostrando entradas con la etiqueta Big Data. Mostrar todas las entradas

domingo, 25 de marzo de 2018

¿Sigue Facebook o no?


Después de una semana o agitación, ¿qué sigue para la red social?

Autor Andrew Hutchinson
@adhutchinson
Social Media Today



Motivadas por las revelaciones del uso indebido del grupo de cabildeo político Cambridge Analytica a fines de la semana pasada, Zuck y compañía han sido arrastrados por prácticamente todos los principales medios de comunicación, y en la mayoría de los aspectos, con razón se enfrentan a algunas preguntas difíciles.

Como notamos en nuestra publicación sobre el tema, las preocupaciones sobre los vastos bancos de datos de Facebook y las formas en que esos datos podrían ser utilizados de manera indebida han estado hirviendo por algunos años, volviéndose más significativos a veces, y luego desapareciendo nuevamente. Porque Facebook se ha convertido en algo habitual, porque el intercambio parece relativamente pequeño. Debido a que varias herramientas y dispositivos habilitados para la tecnología ahora están rastreando cada elemento de su existencia cotidiana, incluso si dejara de usar Facebook, aún estaría renunciando a sus datos en varios otros niveles.

Y aunque ese último punto es cierto, Facebook sigue siendo el guardián de la mayor base de datos de información personal que haya existido alguna vez. Las compañías de tarjetas de crédito saben a dónde va, qué gasta y qué compra. Los planes de fidelización de supermercados conocen sus hábitos de compra, sus patrones de viaje (en combinación con las recompensas de combustible). Hay otras formas de recopilar datos personales, pero Facebook, a través de su escala, es mucho más que esto.

Puede que no haya sido la intención de Facebook convertirse en una base de datos de personas que lo abarca todo, pero lo es, y eso, como la discusión más amplia ahora es la pesca, viene con una gran responsabilidad.

Pero, ¿qué significa esto realmente para Facebook? ¿Vamos a ver a los usuarios desconectarse, indignados por lo que ha pasado?

¿Es este el final de The Social Network?

En una palabra, no, aquí hay una descripción general de algunos de los impactos de flujo continuo y lo que podrían significar para la compañía.

"Elon se sale de Facebook"

Como se señaló, con el último escándalo de Facebook llegando a un punto álgido, mucha gente ha discutido acerca de dejar de Facebook por completo, dejando de lado la calma y negándose a dar a la compañía más datos. La banda británica Massive Attack eliminó su página de Facebook, la primera respuesta de alto perfil a las noticias, pero un nombre más grande que tomó la misma acción fue Elon Musk, que eliminó las páginas de Facebook de SpaceX y Tesla, que tenían 2,6 millones de seguidores cada una.

Esas son malas noticias para The Social Network, ¿verdad? Las grandes compañías que apagan Facebook por completo no pueden ser buenas. Sin embargo, en este caso, es difícil ver el movimiento como algo más que simbólico.

En el caso de Massive Attack, su decisión se basa en sus valores: la banda siempre ha abogado por diversas causas y problemas políticos, por lo que no es sorprendente verlos adoptar una postura. Con respecto a Musk, también señaló que sus empresas realmente no utilizan Facebook de todos modos, por lo que no tiene un gran impacto.

Ah, y él mantiene funcionando sus cuentas de Instagram, porque, según Musk, Instagram es "bastante independiente".

La postura de Musk destaca el alcance y la influencia de Facebook, y la falta de conciencia más amplia sobre cuán lejos se extienden ahora los tentáculos de la plataforma. Mientras que un número creciente de personas se ha unido al coro #deletefacebook, la mayoría no dice lo mismo de Instagram. O Whatsapp. O Messenger.

Reciba noticias de redes sociales como esta en su bandeja de entrada diariamente. Suscríbase a las redes sociales hoy:

De hecho, varios informes han indicado que los usuarios molestos por la conducta de Facebook están cambiando a Instagram, y muchos de ellos ni siquiera saben que Facebook posee ambas plataformas. Si no está satisfecho con el seguimiento de sus datos en Facebook y el registro de su actividad para usar esa información para la orientación de anuncios, no está haciendo ninguna declaración al utilizar sus otras aplicaciones.

Esa es la verdadera razón: mientras que Facebook tiene más de 2 mil millones de usuarios, esas otras tres aplicaciones ahora tienen más de 3.6 mil millones combinados. La población total de la Tierra es de alrededor de 7,6 mil millones, lo que le da una perspectiva de cuán entrelazado es Facebook, y estas aplicaciones ni siquiera están disponibles en la nación más poblada y en muchas regiones de baja conectividad.

Puede parecer un paso lógico, incluso necesario, detener el uso de Facebook, pero dejar a Zuck and Co. fuera de tu vida será mucho más difícil de lo que piensas.

Y eso es antes de considerar el aspecto FOMO: si abandona Facebook, se perderá todas las actualizaciones de sus amigos. Quizás, si pudieras convencer a todos de que se vayan, podrías estar bien, pero es una pregunta difícil. Esta es la misma razón por la que es tan difícil para las aplicaciones sociales más nuevas entrar en el mercado, porque para que sean valiosas, debes convencer a todas las redes de amistad para que se encuentren.

Hay una razón por la cual los investigadores han comparado los elementos adictivos de la plataforma con los que proporcionan las drogas duras.

Salir de Facebook también pasa por alto otro elemento crucial: que, de todos modos, ya es demasiado tarde.

Los datos a los que Cambridge Analytica, y muchos otros, han accedido fueron desde 2014, antes de que Facebook moviera para bloquear más aspectos de sus datos. Como noté esta semana, esas ideas aún son valiosas, y en gran medida indicativas de los rasgos y hábitos de la personalidad, pero esa información ya ha sido registrada.

Si ya usaste Facebook, ya tienen todo esto, y no hay una manera real para que Facebook lo recupere todo. En sus diversas entrevistas de esta semana, Zuckerberg señaló que realizarán 'auditorías forenses' en cualquier caso en que sospechen que sus datos pueden haber sido mal utilizados. Lo cual es genial, pero solo se está haciendo en retrospectiva, y se puede apostar a que de todas las diversas aplicaciones y herramientas que tomaron datos de Facebook antes de los cambios, al menos algunas de las personas involucradas ahora están mirando lo que tienen, con un ven a venderlo al mejor postor.

La información ya está disponible; puedes evitar que Facebook tome más, definitivamente. Pero los beneficios de hacerlo son discutibles.

Uso de datos

Como se explicó en The Atlantic, se crearon millones de aplicaciones de Facebook antes de que la compañía cambiara sus restricciones de datos, lo que significa que un montón de personas y empresas ya tienen acceso a los datos de Facebook.

Ahora, puede pensar que esa información es de hace cuatro años, no es válida ahora, pero sería incorrecta. Debido a la forma en que puede usar esa información, en realidad es tan indicativa ahora como lo era entonces, y seguirá siéndolo, probablemente para siempre.

El truco, como notamos en una publicación anterior, está en escala.

Por ejemplo, si tuviera acceso a todos los puntos de datos de Facebook, podría ir y enumerar todos los "me gusta" de las personas que son miembros de, digamos, grupos racistas. A continuación, puede hacer una referencia cruzada de esos "me gusta" y obtener una lista de aspectos comunes: a las personas que les gusta este grupo también les puede gustar un 95% de "me gusta", "Y" y "Z".

En función de esa idea, podría tomar esas características comunes y compararlas con todos los datos de Facebook que tiene. Ahora, a pesar de que esos otros miembros no han expresado abiertamente su apoyo al mismo grupo y / o puntos de vista, usted sabe que existe una gran probabilidad de que sean susceptibles de recibir el mismo mensaje.

Extrapole ese ejemplo a los billones de puntos de datos a los que también tiene acceso a través de la actividad de Facebook y puede imaginar cuán poderosas y precisas podrían ser esas predicciones. Por ejemplo, no sería 'X', 'Y' y 'Z' como sus puntos en común, podría hacer coincidir cientos, incluso miles de puntos de datos.

Los estudios ya han vinculado la actividad de Facebook con las inclinaciones psicológicas, por lo que ya existen plantillas para tal conocimiento. Las tendencias pueden cambiar con el tiempo, pero los enlaces subyacentes entre estos puntos de datos probablemente seguirán siendo los mismos: podría tomar el perfil de una persona que se unió a Facebook el año pasado y hacer una referencia cruzada con estos puntos de datos y se le ocurriría una perfil preciso de esa persona.

Con tantos usuarios y tantos datos, realmente no se sabe cómo podría manipularse para descubrir tendencias e inclinaciones relevantes. Y esto ya existe, no importará si cierras tu perfil de Facebook ahora. Podrías hacerlo en protesta, como lo ha hecho Massive Attack, pero el impacto seguirá siendo el mismo. A menos que Facebook pueda encontrar una manera de recuperar todos sus datos, y eliminar toda referencia y registro de la misma fuera de la empresa, el problema persistirá.

Y simplemente no hay forma de que puedan lograr esto.

Desastre social

Entonces, ¿qué ocurre entonces? Simplemente siéntese y acepte que sus datos estén siendo utilizados y abusados, y que estén de acuerdo con eso.

La actitud aquí puede parecer un poco derrotista, pero ese es el núcleo del problema: Facebook no puede corregirlo. La compañía está haciendo todo lo posible, pero como se señaló, eso no será suficiente: será posible, ahora y en el futuro, que las empresas y las personas utilicen estos conocimientos para orientar sus mensajes y llegar a audiencias muy específicas, y incluso pueden manipular la opinión popular basada en eso.

Incluso si Facebook eliminara los anuncios en su plataforma, eso aún no eliminaría el problema, ya que puede usar los mismos datos para la orientación de muchas otras formas. E incluso si esto nunca sucedió y nadie más tuvo acceso a estas ideas fuera de Facebook, Facebook sí lo haría, junto con mucho, mucho más.

Es eso aceptable? ¿Podemos realmente confiar en una entidad corporativa con tanto conocimiento?

Este es el verdadero problema: no es que Cambridge Analytica u otra organización haya utilizado datos de Facebook, sino que, en primer lugar, existe tanta información. Elimine Facebook de la ecuación y todavía hay muchas otras fuentes a las que puede hacer referencia: estamos en una época en la que los macrodatos se han convertido en parte de nuestra forma de vida y también pueden usarse de manera negativa. El debate más amplio aquí ni siquiera es realmente acerca de Facebook, se trata de la forma en que se almacenan y comparten los datos, y la ética de dicho uso.

¿Hay alguna manera de controlar esto? ¿Puedes detectar y hacer cumplir las reglas de uso de datos? Como notado, Facebook está haciendo todo lo que puede, pero realmente no hay mucho que puedan hacer. Este es uno de los temas centrales de nuestro tiempo, y es probable que empeore (rastreadores de fitness, asistentes inteligentes, etc.).

Entonces, ¿cómo afectará esto realmente a Facebook? Yo diría que no cambiará mucho. La gente estará molesta, los reguladores examinarán el caso, se realizarán movimientos. Pero al final del día, la plataforma se ha convertido en una parte tan importante de la interacción cotidiana que las personas probablemente continúen.

¿Eso significa que usted puede ser blanco de anuncios políticos diseñados para cumplir con sus inclinaciones? Sí. ¿Eso significa que debes cuestionar todo? Sí.

¿Eso importa? No lo sé.

Pero ciertamente no está configurado para simplificar el avance.

martes, 16 de enero de 2018

Big Data y Marketing para el futuro

Cómo la ciencia de datos cambiará el mundo de la comercialización como lo conocemos


por James Cook University [Contenido patrocinado] |
Marketing Profs


Big Data. Es uno de esos términos que ahora es tan amplio -y, seamos honestos, indiscriminadamente- utilizados en el mundo de los negocios que incluso los menos cínicos entre nosotros probablemente se cansen de ello. Parece que se trata de llenar las lagunas en las reuniones menguantes y hacer que los empresarios suenen como si estuvieran al tanto de los tiempos digitales.

Pero lo que pasa con "Big Data" es que, aunque podría ser usado en exceso, y ocasionalmente mal usado, no es un cliché sin sentido. La tecnología digital ha barrido el mundo analógico en el que una vez trabajamos y nos inundó de datos. Y cuanto más sofisticada es la tecnología digital, más fácil nos resulta enviar información o que otros sigan nuestros hábitos de compra. En otras palabras, se generan más y más datos.

Es una estadística que se repite a menudo: en 2013 IBM afirmó que "el 90% de los datos en el mundo de hoy se han creado en los últimos dos años". Más recientemente, en 2015, Cisco predijo que la cantidad de datos creados en 2019 eclipsará la información total creada en todos los años de Internet anteriores combinados. Y, dentro de dos años, cada persona producirá, en promedio, 1.7 megabytes de datos por segundo.

Big Data es ... bueno ... eso: una enorme cantidad de información. Específicamente, información que se puede recopilar y analizar (que es una definición amplia de datos generalmente aceptada).

¿Pero hay un significado más preciso? ¿Y cuáles son las implicaciones para el marketing?

'Big Data': ¿una definición más específica?


"Big Data" realmente comenzó su ascenso a la fama a principios de la década de 2010, pero fue, según un detective de palabras del New York Times, utilizado en Silicon Valley ya en la década de 1990.

En 1997, la NASA utilizó el término para referirse a una dificultad que enfrentó: "[Es] un desafío interesante para los sistemas informáticos: los conjuntos de datos en general son bastante grandes, gravando las capacidades de la memoria principal, el disco local e incluso el disco remoto. este es el problema del big data ".

De hecho, aunque no parece haber una definición acordada de "Big Data", la mayoría de las definiciones mencionan la naturaleza problemática del tamaño de los conjuntos de datos. Se refieren a la logística de acomodar los datos, pero, lo que es más importante, también al problema que tiene la tecnología antigua al clasificar y analizar los nuevos y enormes volúmenes de datos.

Las definiciones menos formales también hablan de Big Data como una oportunidad. Sí, el argumento es que estamos nadando en cifras, estadísticas, números demográficos, etc., pero si pudiéramos aprovecharlos, podríamos construir una imagen analítica superior a cualquier cosa que hayamos visto antes, y en casi cualquier disciplina. O, para citar una publicación de blog de los expertos en datos import.io, "más datos son mejores si sabes qué hacer con ellos".


¿Cómo se aplica Big Data al marketing?


Big Data se aplica al marketing de innumerables maneras. Estos son solo algunos de los más importantes:

1. Publicidad y contenido. La revolución digital puede haber hecho que la promoción de los productos esté más involucrada, con nuevos medios, nuevas plataformas, nuevas técnicas, pero ha simplificado el seguimiento y la supervisión del rendimiento de esa promoción. Un buen científico de datos puede ayudar a una organización a experimentar con su publicidad y contenido, utilizando información digital para determinar qué métodos y mensajes están resonando con los clientes y cuáles están fallando. Y luego tiene todo el campo de las perspectivas de los clientes, que es tan vasto que realmente merece su propio artículo para hacerlo, incluso un toque de justicia.

2. Precios. El análisis profesional de datos puede cambiar la forma en que las organizaciones abordan los precios. En 2014, McKinsey estimó que "el 30% de las decisiones de precios que las empresas hacen cada año no ofrecen el mejor precio". Su solución sugerida para el problema era el análisis de datos: "Para aquellos que pueden poner orden en la complejidad de los grandes datos, el valor es sustancial".

3. Optimizar el gasto. Otro importante informe de McKinsey analizó los negocios como una serie de compensaciones -precio por volumen, por ejemplo- y dijo que "en el pasado, muchas de esas concesiones se han hecho con un poco de información y mucho instinto". El "nuevo mundo", según McKinsey, permite a las empresas utilizar "análisis avanzados -particularmente más datos en tiempo real- [para] eliminar gran parte de las conjeturas" cuando se intenta garantizar que el gasto sea perfecto para cualquier cantidad de actividades de marketing: desde las redes sociales a la inversión en centros de llamadas, o la publicidad tradicional para almacenar equipos.


4. Mirando hacia el futuro. El mejor análisis de datos no solo ayuda a los equipos de marketing a realizar mejoras incrementales (tan importantes como son); puede ser completamente revolucionario. Estamos empezando a ver ejemplos, en todo el mundo, de que Big Data se utiliza como una herramienta extraordinaria para predecir y pronosticar tendencias.

Como lo dice el blog import.io: "Olvídese de las tendencias de imitación, el espionaje corporativo o el robo de los mejores trabajadores de la competencia. La ciencia de los datos aprovecha la información que ya existe, la información que señala la tendencia".

Lo que todas estas cosas tienen en común es esto: la información sola, proporcionada por una era en la que la mitad de la población mundial tiene acceso a Internet y 50 mil millones de dispositivos están conectados a través de Internet, es esencialmente inútil a menos que se analice cuidadosa y expertamente .

Los científicos de datos por lo tanto se vuelven críticamente importantes. Pero, por el momento, y en el futuro previsible, no hay suficientes.

El científico de datos: ¿un recurso precioso?


Big Data no puede ser una moda pasajera, en parte porque el mercado nos dice que no.

Ha pasado más de media década desde que Harvard Business Review describió el papel de los científicos de datos como "El trabajo más atractivo del siglo XXI", sin embargo, todavía hay una escasez masiva en todo el mundo. La industria quiere profesionales que puedan separar el trigo de la paja, y simplemente no hay suficiente para andar, ni siquiera cerca.

En 2016, un informe sobre ciencia de datos de CrowdFlower encontró que el 83% de los científicos de datos estadounidenses encuestados informaron que había escasez de personal calificado en su campo. Produjo un informe similar en 2017 pero no hizo la misma pregunta; en su lugar, preguntó acerca de cómo eran los encuestados "en demanda". En total, el 89% de los científicos de datos dijeron que fueron contactados al menos una vez al mes para nuevas oportunidades de trabajo; El 30% dijo que fueron contactados varias veces a la semana.

El notable déficit de mercado es difícil para los negocios, pero (como lo insinúa el estudio CrowdFlower) brillante para los científicos de datos y los que se convertirán en profesionales de las ciencias de datos en el futuro cercano.

Convertirse en calificado

En un artículo periodístico en 2015, Jodie Sangster, CEO del Instituto de Analíticos Profesionales de Australia, describió a un científico de datos como "alguien que no solo entiende los datos sino que entiende los negocios y puede establecer un puente entre el uso de datos y el logro de resultados comerciales".

Eso, entre muchas otras cosas, es lo que un Máster en Ciencia de Datos le ayudará a convertirse: un experto en la aplicación de análisis de datos en negocios específicos y contextos de marketing.

Si está interesado en formar parte de este campo en auge, estudiará asignaturas en las áreas de matemáticas, tecnología de la información y negocios. En la Universidad James Cook, todas las materias son enseñadas por respetados académicos interdisciplinarios y expertos de la industria. Y también puede optar por completar su maestría completamente en línea, en su propio tiempo, exactamente cuando le conviene.

domingo, 17 de diciembre de 2017

Los costos del Big Data




El gran costo del Big Data

 Forbes


Post invitado escrito por John Bantleman

John Bantleman es CEO de RainStor, que vende software de base de datos utilizado para proyectos de Big Data.

Hemos entrado en la era de Big Data donde se descubren nuevas oportunidades de negocios todos los días porque las tecnologías innovadoras de administración de datos ahora permiten a las organizaciones analizar todo tipo de datos. Los datos semiestructurados y no estructurados que se generan en grandes cantidades a la velocidad de la red son fuentes ricas de información que le dicen a las organizaciones exactamente lo que los clientes necesitan y quieren y cómo o por qué compran. Pero con las nuevas oportunidades de negocio viene el costo, y los verdaderos costos aún no se han apreciado del todo.

Big Data no es exactamente nuevo. Los líderes del mercado han estado almacenando y analizando tipos de datos múltiples no solo para obtener una ventaja competitiva, sino también para lograr una visión más profunda de los patrones de comportamiento del cliente que impactan directamente en su negocio.

Dos sectores específicos - telecomunicaciones y venta minorista - han invertido en soluciones de data warehousing donde se acumulan grandes cantidades de transacciones e interacciones de los clientes para determinar los indicadores de rendimiento clave, como los ingresos por año o por cliente o el costo de adquisición de clientes a través de Internet promociones o picos estacionales. Sin embargo, incluso los líderes del mercado no pueden permitirse almacenar y administrar datos detallados sin procesar a escala de petabytes a lo largo del tiempo en almacenes de datos tradicionales. A menudo almacenan, digamos, los últimos cuatro trimestres y luego descargan el historial a la cinta sin conexión, que no es de fácil acceso. El desafío empresarial se produce cuando la Navidad cae en sábado, y necesitan analizar datos de hace siete años para comprender patrones específicos. La reinstalación de datos más antiguos y voluminosos en el almacén no solo es muy desafiante, sino también costoso.



Dos factores clave entran en juego con respecto a la gestión y análisis Big Data a escala empresarial. Primero, los innovadores web, como Facebook, Google y Yahoo, han desarrollado una arquitectura de almacenamiento y computación escalable para administrar Big Data: Hadoop, que paraleliza grandes conjuntos de datos a través de hardware básico de bajo costo para una escala fácil y reduce drásticamente el costo de petabyte ambientes.

En segundo lugar, los requisitos tecnológicos para administrar Big Data se han trasladado del dominio de unos pocos mercados distintos al aumento de la demanda y los requisitos únicos en una amplia gama de sectores. Los operadores de comunicaciones que administran la escala de petabytes hoy esperan un crecimiento de datos de 10-100x debido al cambio a 4G y LTE con el aumento de los dispositivos de punto final conectados para aprovechar miles de aplicaciones móviles. La red inteligente de servicios públicos se está sumergiendo en Big Data mientras las ciudades de todo el mundo se unen a la nueva "red digitalizada". Las instituciones de servicios financieros están viendo crecimientos compuestos del 100 por ciento en los datos de negociación y opciones, que deben almacenarse durante más de 7 años. Durante los próximos 3 a 5 años, Big Data será una estrategia clave para las organizaciones del sector público y privado. De hecho, en los próximos 5 años, se espera que el 50 por ciento de los proyectos de Big Data se ejecuten en Hadoop.

La realidad es que los enfoques de bases de datos tradicionales no escalan ni escriben datos lo suficientemente rápido para mantenerse al día con la velocidad de creación. Además, los almacenes de datos diseñados para el propósito son excelentes para manejar datos estructurados, pero el hardware tiene un alto costo para escalar a medida que crecen los volúmenes.

Un habilitador clave para Big Data es la escalabilidad de bajo costo de Hadoop. Por ejemplo, un cluster Petabyte Hadoop requerirá entre 125 y 250 nodos que cuestan ~ $ 1 millón. El costo de una distribución Hadoop compatible tendrá costos anuales similares (~ $ 4,000 por nodo), que es una pequeña fracción de un almacén de datos empresarial ($ 10- $ 100s de millones). En la evaluación inicial, Big Data en Hadoop parece ser una gran oferta. Las empresas innovadoras tienen Hadoop en la actualidad: la pregunta es ¿cómo lo aprovecharán ya qué ritmo se convertirá en una misión crítica y central para el enfoque de TI?

Sin embargo, el costo real se encuentra en la operación y administración general o integración de Big Data dentro del ecosistema existente. A medida que los entornos de Big Data escalan, como en Yahoo, la gestión de 200 petabytes en 50,000 nodos requiere que se agreguen más para brindar capacidad de almacenamiento adicional. Muchas organizaciones Web 2.0 que ejecutan Hadoop dependen completamente de la redundancia de datos, pero si usted es un banco empresarial o un operador de comunicaciones, debe cumplir con la seguridad basada en estándares, la recuperación ante desastres y la disponibilidad. Como Hadoop existe hoy, introduce una administración más compleja y la necesidad de recursos especializados.

Detrás de la superficie de Big Data en las implementaciones de Hadoop, muchos innovadores de la plataforma de código abierto han invertido y creado el "Científico de datos", esencialmente un estadístico que puede programar de forma nativa y aprovechar los marcos MapReduce. Para integrar MapReduce, la mayoría de las empresas necesita desarrollar una base de habilidades completamente nueva, y la inversión en capital humano superará rápidamente a la inversión en infraestructura. Además, deben aprovechar el almacén de datos existente y la infraestructura de inteligencia empresarial donde Big Data en Hadoop necesita integrarse para aprovechar las herramientas y habilidades existentes. La imposibilidad de aprovechar los estándares en Hadoop como SQL requiere una mayor inversión sin reducir el costo del almacén de datos.

Big Data ofrece ganancias para las grandes empresas, pero los costos ocultos y la complejidad presentan barreras con las que las organizaciones tendrán problemas. Aunque Hadoop es relativamente nuevo en la empresa, está haciendo grandes avances para mejorar la confiabilidad y la facilidad de uso. No hay escasez de innovación proveniente de las nuevas empresas y los principales contribuyentes al proyecto de código abierto Apache. Las dos áreas que tendrán el mayor impacto tanto en la facilidad de adopción como en el costo son:

  • aprovechar el lenguaje de consulta SQL existente y las herramientas de BI existentes contra datos dentro de Hadoop; y
  • la capacidad de comprimir datos al nivel más granular, lo que no solo reducirá los requisitos de almacenamiento, sino que reducirá el número de nodos y simplificará la infraestructura.

Sin estas dos capacidades, el aprendizaje de habilidades requerirá tiempo y dinero, y no se adaptará a las demandas de la empresa. Las tasas de crecimiento de los datos simplemente superarán el costo de la escala para administrar cientos de terabytes a petabytes de Big Data que llegan todos los días.

Los CIO y los CTO deben analizar de cerca el verdadero costo de Big Data. Sabemos que una cosa está comprobada: los beneficios de aprovechar Big Data superarán la inversión en TI, y por eso agradecemos a nuestros innovadores de base. Costo por cuánto es la pregunta.

martes, 9 de mayo de 2017

La nueva economía de los datos

Los datos están dando lugar a una nueva economía
¿Cómo se está formando?
The Economist



Una refinería de petróleo es una catedral industrial, un lugar de poder, teatro y oscuros recovecos: torres agrietadas adornadas sus pináculos góticos, gas flameando sus vitrales, el hedor de los hidrocarburos su embriagador incienso. Los centros de datos, por el contrario, ofrecen un espectáculo menos obvio: edificios gris sin ventanas que no tienen altura ni ornamento, parecen extenderse hasta el infinito.

Sin embargo, los dos tienen mucho en común. Por un lado, ambos están llenos de pipas. En las refinerías se recogen la gasolina, el propano y otros componentes del crudo, que han sido separados por el calor. En grandes centros de datos, transportan aire para enfriar decenas de miles de computadoras que extraen patrones de valor, predicciones y otras ideas, a partir de información digital en bruto.

Ambos cumplen también el mismo papel: producir materias primas cruciales para la economía mundial. Ya sea automóviles, plásticos o muchas drogas, sin los componentes de crudo, gran parte de la vida moderna no existiría. Las destilaciones de centros de datos, por su parte, impulsan todo tipo de servicios en línea y, cada vez más, el mundo real a medida que los dispositivos se conectan cada vez más.

Los datos son para este siglo lo que fue el petróleo hasta el último: un motor de crecimiento y cambio. Los flujos de datos han creado nuevas infraestructuras, nuevos negocios, nuevos monopolios, nuevas políticas y, fundamentalmente, nuevas economías. La información digital es diferente a cualquier recurso anterior; Es extraído, refinado, valorado, comprado y vendido de diferentes maneras. Cambia las reglas para los mercados y exige nuevos enfoques de los reguladores. Muchas batallas se librarán sobre quién debe poseer y beneficiarse de los datos.



Hay mucho que desechar. IDC, una firma de investigación de mercado, predice que el "universo digital" (los datos creados y copiados cada año) alcanzará 180 zetabytes (180 seguidos de 21 ceros) en 2025 (ver gráfico). El bombeo de todo a través de una conexión a Internet de banda ancha tomaría más de 450 millones de años. Para acelerar la transferencia a sus centros de datos, Amazon, un gigante del comercio electrónico con un brazo de computación en nube de rápido crecimiento, utiliza camiones tirando contenedores de envío cada uno con dispositivos de almacenamiento que contienen 100 petabytes (unos 15 ceros). Para ingerirlo todo, las empresas están construyendo rápidamente refinerías de datos. En 2016, Amazon, Alphabet y Microsoft acumularon cerca de 32.000 millones de dólares en gastos de capital y arrendamientos de capital, un 22% más que el año anterior, según el Wall Street Journal.
La calidad de los datos también ha cambiado. Ya no son principalmente las reservas de información digital, bases de datos de nombres y otros datos personales bien definidos, como la edad, el sexo y los ingresos. La nueva economía se centra más en el análisis de los flujos rápidos en tiempo real de datos a menudo no estructurados: las corrientes de fotos y videos generadas por los usuarios de las redes sociales, las redes de información producidas por los viajeros en su camino al trabajo, Sensores en un motor a reacción.

Desde los trenes de metro y las turbinas de viento hasta los asientos de los inodoros y los tostadores, todo tipo de dispositivos se están convirtiendo en fuentes de datos. El mundo se cerrará con los sensores conectados, por lo que la gente dejará un rastro digital dondequiera que vayan, incluso si no están conectados a Internet. Como explica Paul Sonderegger, estratega de datos de Oracle, un fabricante de software: "Los datos serán la máxima externalidad: los generaremos lo que hagamos".

Es lo que sabes

Lo más importante es que el valor de los datos está aumentando. Facebook y Google utilizaron inicialmente los datos que recopilaron de los usuarios para orientar mejor la publicidad. Pero en los últimos años han descubierto que los datos pueden convertirse en cualquier número de servicios de inteligencia artificial (IA) o "cognitivos", algunos de los cuales generarán nuevas fuentes de ingresos. Estos servicios incluyen la traducción, el reconocimiento visual y la evaluación de la personalidad de alguien mediante el tamizado a través de sus escritos, todo lo cual puede ser vendido a otras empresas para utilizar en sus propios productos.

Aunque los signos de la economía de los datos están en todas partes, su forma sólo se está aclarando ahora. Y parecería bastante familiar a J.R. Ewing. Hay los datos principales, un número creciente de wildcatters y un montón de otras empresas tratando de obtener un pedazo de la acción. Todos están dispuestos a explotar un poderoso motor económico llamado "efecto de red de datos", que utiliza datos para atraer a más usuarios, que luego generan más datos, lo que ayuda a mejorar los servicios, lo que atrae a más usuarios.

Las mayores bombas de los depósitos más abundantes. Cuantos más usuarios escriban comentarios, "como" los mensajes y de otra manera participar con Facebook, por ejemplo, cuanto más aprende sobre los usuarios y el mejor objetivo de los anuncios en newsfeeds se convierten. Del mismo modo, cuanto más personas buscan en Google, mejores resultan sus resultados de búsqueda.

Estas empresas siempre están buscando nuevos pozos de información. Facebook consigue que sus usuarios entrenen algunos de sus algoritmos, por ejemplo cuando suben y etiquetan fotos de amigos. Esto explica por qué sus computadoras ahora pueden reconocer a cientos de millones de personas con un 98% de precisión. El mayordomo digital de Google, llamado "Asistente", mejora las tareas y responde a las preguntas cuanto más se usa.

Uber, por su parte, es mejor conocido por sus paseos en taxi baratos. Pero si la empresa tiene un valor estimado de 68.000 millones de dólares, es en parte porque posee el mayor grupo de datos sobre la oferta (conductores) y la demanda (pasajeros) para el transporte personal. Del mismo modo, para la mayoría de la gente Tesla es un fabricante de coches eléctricos de lujo. Pero sus últimos modelos recogen montañas de datos, lo que permite a la empresa optimizar sus algoritmos de autodirigido y luego actualizar el software en consecuencia. A finales del año pasado, la firma había recolectado 1.300 millones de millas para conducir datos-órdenes de magnitud más que Waymo, la división de auto-conducción de Alphabet.

Las start-ups "basadas en datos" son las catapultas de la nueva economía: prospectan el petróleo digital, lo extraen y lo convierten en nuevos servicios inteligentes, desde el análisis de rayos X y tomografías computarizadas hasta determinar dónde pulverizar herbicidas en un campo. Nexar, una startup israelí, ha ideado una manera inteligente de usar los controladores como fuentes de datos. Su aplicación convierte sus smartphones en dashcams que marcan imágenes de sus viajes a través de acciones que normalmente realizan. Si muchos golpean inesperadamente el freno en el mismo punto en la carretera, esto señala un bache u otro obstáculo. Como compensación por usar la aplicación de Nexar, los conductores obtienen un dashcam y servicios gratuitos, como un informe detallado si tienen un accidente. El objetivo de la empresa es ofrecer todo tipo de servicios que ayuden a los conductores a evitar accidentes y que ellos o sus aseguradores pagarán. Uno de ellos es alertas sobre baches o cuando un coche alrededor de una esquina ciega de repente se detiene.

Las empresas no tecnológicas están intentando hundir pozos digitales también. GE, por ejemplo, ha desarrollado un "sistema operativo para el Internet industrial", llamado Predix, para ayudar a los clientes a controlar su maquinaria. Predix también es un sistema de recolección de datos: agrupa los datos de los dispositivos a los que está conectado, los mezcla con otros datos y, a continuación, entrena algoritmos que pueden ayudar a mejorar las operaciones de una central eléctrica, cuándo mantener un motor a reacción antes de que se descomponga y similares.

Al igual que en los mercados petroleros, las empresas de datos más grandes siguen tomando las más pequeñas (véase el cuadro). Pero otro aspecto de la economía de datos parecería extraño a los concesionarios de oro negro. El petróleo es la mercancía más negociada del mundo por valor. Los datos, en cambio, apenas se negocian, al menos no por dinero. Eso está muy lejos de lo que muchos pensaban cuando hablaron de los datos como una "nueva clase de activos", como lo hizo el Foro Económico Mundial (WEF), el organizador de la conferencia de Davos, En 2011. La economía de datos, que el término sugiere, consistirá en prosperar los mercados de bits y bytes. Pero tal como está, es sobre todo una colección de silos independientes.



Guárdatelo para ti mismo

Esta ausencia de mercados es el resultado de los mismos factores que han dado lugar a las empresas. Todo tipo de "costos de transacción" en los mercados-búsqueda de información, negociación de acuerdos, ejecución de contratos y demás- lo hacen más simple y eficiente simplemente para llevar estas actividades en la empresa. Asimismo, a menudo es más rentable generar y utilizar datos dentro de una empresa que comprarlos y venderlos en un mercado abierto.

A pesar de su abundancia, los flujos de datos no son una mercancía: cada flujo de información es diferente, en términos de puntualidad, por ejemplo, o cuán completo puede ser. Esta falta de "fungibilidad", en la jerga económica, hace difícil para los compradores encontrar un conjunto específico de datos y poner un precio en él: el valor de cada tipo es difícil de comparar con otros datos. Hay un desincentivo al comercio como cada lado se preocupará de que está recibiendo el extremo corto del palo.

Los investigadores apenas han empezado a desarrollar metodologías de precios, algo que Gartner, una consultoría, llama "infonomía". Uno de sus pioneros, Jim Short de la Universidad de California en San Diego, estudia casos en los que se ha tomado una decisión sobre la cantidad de datos que vale la pena. Uno de ellos involucra a una subsidiaria de Caesars Entertainment, un grupo de juegos de azar, que se declaró en quiebra en 2015. Su activo más valioso, por US $ 1.000 millones, se determinó que era el dato que se dice de los 45 millones de clientes que se habían unido al cliente de la empresa - programa de lealtad durante los últimos 17 años.

La dificultad en la fijación de precios es una razón importante por la que una empresa podría encontrar más fácil comprar otra, incluso si está principalmente interesada en los datos. Este fue el caso en 2015, cuando IBM informó que gastó $ 2 mil millones en la Weather Company, para obtener sus manos en las montañas de datos meteorológicos, así como la infraestructura para recogerlos. Otro fudge es el trueque: partes del Servicio Nacional de Salud de Gran Bretaña y DeepMind, la división AI de Alphabet, han acordado intercambiar acceso a datos de pacientes anónimos para obtener información médica extraída de ellos.

El hecho de que la información digital, a diferencia del petróleo, también es "no rival", lo que significa que puede ser copiado y utilizado por más de una persona (o algoritmo) a la vez, crea complicaciones adicionales. Esto significa que los datos pueden ser fácilmente utilizados para otros fines distintos de los acordados. Y se suma a la confusión acerca de quién posee datos (en el caso de un automóvil autónomo, podría ser el fabricante de automóviles, el proveedor de los sensores, el pasajero y, con el tiempo, si los automóviles autodirigidos se auto- Vehículo propiamente dicho).

"Los datos comerciales son tediosos", dice Alexander Linden de Gartner. Como resultado, los tratos de datos son a menudo bilaterales y ad hoc. No son para los débiles: los contratos de datos a menudo se ejecutan sobre decenas de páginas de legalese denso, con un lenguaje que especifica los usos permitidos y cómo se protegen los datos. Un alto ejecutivo de un gran banco recientemente le dijo al Sr. Linden que tiene cosas mejores que hacer que firmar en tales documentos, incluso si los datos tienen un gran valor.

En el caso de los datos personales, las cosas son aún más difíciles. Kenneth Laudon, de la Universidad de Nueva York, escribió en un artículo influyente titulado "Mercados y Privacidad", en 1996. "Un mercado de información nacional regulado podría permitir la compra y venta de información personal, otorgando al vendedor el derecho de determinar cuánta información se divulga" Más recientemente, el FEM propuso el concepto de una cuenta bancaria de datos. Los datos de una persona, sugirió, deberían "residir en una cuenta donde sería controlada, administrada, intercambiada y contabilizada".

La idea parece elegante, pero ni una cuenta de mercado ni de datos se han materializado todavía. El problema es lo opuesto al de los datos corporativos: la gente le da datos demasiado fácilmente a cambio de servicios "gratuitos". Los términos de intercambio se han convertido en la norma casi por accidente, dice Glen Weyl, economista de Microsoft Research. Después de que estallara la burbuja de las puntocom a comienzos de los años 2000, las firmas necesitaban urgentemente una forma de ganar dinero. La recopilación de datos para la publicidad dirigida fue la solución más rápida. Sólo recientemente se han dado cuenta de que los datos podrían convertirse en cualquier número de servicios de AI.

Esclavo del algoritmo

Si esto hace que el comercio de datos para servicios gratuitos un intercambio injusto depende en gran medida de la fuente del valor de estos servicios: los datos o los algoritmos que los crujen? Data, argumenta Hal Varian, economista jefe de Google, exhibe "rendimientos decrecientes a escala", lo que significa que cada pieza adicional de datos es algo menos valiosa y en algún momento la recopilación de más no añade nada. Lo que importa más, dice, es la calidad de los algoritmos que crujen los datos y el talento que una firma ha contratado para desarrollarlos. El éxito de Google "se trata de recetas, no de ingredientes".
Eso pudo haber sido verdad en los días tempranos de la búsqueda en línea pero parece incorrecto en el nuevo mundo valiente de AI. Los algoritmos son cada vez más autodidactas: cuanto más y más frescos se alimentan, mejor. Y los rendimientos marginales de los datos pueden subir realmente a medida que las aplicaciones se multiplican, dice Weyl. Después de que una empresa de viajes de gran alcance ha recogido datos suficientes para ofrecer un servicio de información en tiempo real de tráfico, digamos, más datos no pueden agregar mucho valor. Pero si sigue recogiendo datos, en algún momento puede ofrecer más servicios, como la planificación de rutas.

Tales debates, así como la falta de un comercio próspero de datos, pueden ser problemas de dentición. Se necesitaron décadas para que los mercados de petróleo funcionaran bien. Irónicamente, fue Standard Oil, el monopolio creado por John D. Rockefeller a finales del siglo XIX, que aceleró las cosas: ayudó a crear la tecnología y -el nombre de la firma era su programa- los estándares que hicieron posible para el nuevo Recurso a ser comercializado.

Los mercados han existido por mucho tiempo para los datos personales que son de alto valor o fácil de estandarizar. Los llamados "intermediarios de datos" hacen un comercio rápido en ciertos tipos de datos. En otras áreas, los mercados, o algo parecido a ellos, están empezando a desarrollarse. Oracle, que domina el mercado de bases de datos corporativas, por ejemplo, está desarrollando lo que equivale a un intercambio de activos de datos. Quiere que sus clientes intercambien datos, los combinen con los conjuntos proporcionados por Oracle y extraigan información, todo ello en el entorno seguro de la nube informática de la empresa, donde puede asegurarse, entre otras cosas, de que la información no sea mal utilizada. Cognitive Logic, una startup, ha llegado con un producto similar, pero deja los datos en sistemas de TI separados.

Otras empresas jóvenes esperan dar a los consumidores más de una participación en sus datos. Citizenme permite a los usuarios reunir toda su información en línea en un solo lugar y ganar una pequeña cuota si la comparten con marcas. Datacoup, otra empresa de nueva creación, está vendiendo ideas a partir de datos personales y traspasando parte de los ingresos a sus usuarios.



Hasta el momento ninguno de estos esfuerzos realmente ha despegado; Aquellos que se centran en los datos personales en particular nunca pueden hacerlo. Ahora los consumidores y los gigantes en línea están encerrados en un abrazo incómodo. La gente no sabe cuánto valen sus datos, ni realmente quieren lidiar con la molestia de manejarlos, dice Alessandro Acquisti de Carnegie Mellon University. Pero también están mostrando síntomas de lo que se denomina "desamparo aprendido": los términos y condiciones de los servicios a menudo son impenetrables y los usuarios no tienen más remedio que aceptarlos (las aplicaciones de teléfonos inteligentes salen inmediatamente si no se pulsa en "Acepto").

Por su parte, las empresas en línea se han convertido en dependientes de la droga de datos gratuitos: no tienen interés en cambiar fundamentalmente el trato con sus usuarios. Pagar los datos y construir sistemas costosos para rastrear las contribuciones haría que los refinadores de datos fueran mucho menos rentables.

Los datos no serían el único recurso importante que no se comercializa ampliamente; Espectro de radio y derechos de agua. Pero para los datos esto es probable que genere ineficiencias, sostiene Weyl. Si la información digital carece de un precio, es posible que nunca se generen datos valiosos. Y si los datos permanecen atascados en silos, nunca se extraerá mucho valor. Las grandes refinerías de datos no tienen el monopolio de la innovación; Otras empresas pueden estar mejor situadas para encontrar formas de explotar la información.

La escasez de mercados de datos también hará que sea más difícil resolver los problemas políticos de nudillos. Tres se destacan: antimonopolio, privacidad e igualdad social. La más acuciante, sin duda, es la antimonopolio -como sucedió con el petróleo. En 1911, la Corte Suprema de Estados Unidos confirmó un fallo de corte inferior para romper con Standard Oil, que entonces controlaba alrededor del 90% de la refinación de petróleo en el país.

Algunos ya están pidiendo una ruptura similar de los gustos de Google, incluyendo a Jonathan Taplin de la Universidad del Sur de California en su nuevo libro "Move Fast and Break Things". Pero un remedio tan radical no resolvería realmente el problema. Una ruptura sería muy perjudicial y ralentizaría la innovación. Es probable que un Googlet o un Babyface se vuelva rápidamente dominante de nuevo.

Sin embargo, los llamamientos a la acción están creciendo. Ariel Ezrachi, de la Universidad de Oxford, ha publicado recientemente un libro titulado "Virtual Competition" con Maurice Stucke de la Universidad de Tennessee. Con muchos más y más frescos datos que otros, argumenta, pueden detectar rápidamente amenazas competitivas. Sus bolsillos profundos les permiten comprar startups que algún día podrían convertirse en rivales. También pueden manipular los mercados que hospedan, por ejemplo, haciendo que sus algoritmos reaccionen rápidamente para que los competidores no tengan ninguna posibilidad de ganar clientes bajando los precios. "La mano invisible se está convirtiendo en digital", dice Ezrachi.

Cuidado con la mano digital

Como mínimo, los creyentes tienen que afilar sus herramientas para la era digital. La Comisión Europea no bloqueó la fusión de Facebook y WhatsApp. Argumentó que aunque estos estaban operando los dos mayores servicios de mensajería de texto, había un montón de otros alrededor y que el acuerdo tampoco se sumaría a la acumulación de datos de Facebook porque WhatsApp no ​​recolectó mucha información sobre sus usuarios. Pero Facebook estaba comprando una empresa que temía que pudiera convertirse en un rival serio. Había construido un "gráfico social" alternativo, la red de conexiones entre amigos, que es el activo más valioso de Facebook. Durante el proceso de aprobación de la fusión, Facebook se comprometió a no fusionar las dos bases de usuarios, pero comenzó a hacerlo el año pasado, lo que ha llevado a la comisión a amenazarlo con multas.

La frustración con Facebook ayuda a explicar por qué algunos países de Europa ya han comenzado a actualizar las leyes de competencia. En Alemania se está produciendo una legislación en el parlamento que permitiría a la Oficina Federal de Cárteles intervenir en los casos en que los efectos de red y los activos de datos desempeñan un papel. La agencia ya ha tomado un interés especial en la economía de datos. Se ha iniciado una investigación sobre si Facebook está abusando de su posición dominante para imponer ciertas políticas de privacidad. Andreas Mundt, su presidente, quiere hacer más: "¿Podemos optimizar aún más nuestras técnicas de investigación? ¿Cómo podemos integrar mejor los efectos dinámicos en nuestros análisis? "

Una buena regla general para los reguladores es ser tan inventiva como las empresas que vigilan. En un reciente informe, los señores Ezrachi y Stucke propusieron que las autoridades antimonopolio operaran lo que denominan "incubadoras de colusión tácitas". Para averiguar si los algoritmos de fijación de precios manipulan los mercados o incluso se combinan, los reguladores deben ejecutar simulaciones en sus propias computadoras.

Otra idea es promover alternativas a las pilas centralizadas de datos. Los gobiernos podrían dar más datos de los que recogen, creando oportunidades para las empresas más pequeñas. También podrían apoyar "cooperativas de datos". En Suiza, un proyecto denominado Midata recoge datos de salud de los pacientes, que pueden decidir si quieren que se incluyan en los proyectos de investigación.

Distribución de los datos

Para algunas clases cruciales de datos, el intercambio puede incluso necesitar ser obligatorio. Ben Thompson, que publica Stratechery, un boletín informativo, sugirió recientemente que las redes sociales dominantes deberían ser requeridas para permitir el acceso a sus gráficos sociales. Instagram, un servicio de intercambio de fotos que también ha sido tragado por Facebook, se puso en marcha al tener nuevos usuarios importar la lista de sus seguidores de Twitter. "Las redes sociales han hecho esto imposible hace mucho tiempo, por lo que es mucho más difícil para los competidores a surgir", señala Thompson.
El intercambio de datos obligatorio no es desconocido: Alemania exige que las aseguradoras conjuntamente mantengan un conjunto de estadísticas, incluyendo los accidentes de tráfico, que las empresas más pequeñas no podrían compilar por sí mismas. El nuevo Reglamento General de Protección de Datos de la Unión Europea (GDPR), que comenzará a aplicarse en mayo de 2018, requiere servicios en línea para facilitar a los clientes la transferencia de su información a otros proveedores e incluso a competidores.

Pero la "portabilidad de datos", así como el intercambio de datos, resalta el segundo problema político: la tensión entre los mercados de datos y la privacidad. Si se intercambian o comparten datos personales, es más probable que se produzcan fugas. Para reducir este riesgo, el GDPR fortalece el control de las personas sobre sus datos: requiere que las empresas obtengan consentimiento explícito para la forma en que usan los datos. Las multas por violaciones serán abruptas: hasta 4% de los ingresos globales o 20 millones de euros (22 millones de dólares).



Tales reglas serán difíciles de aplicar en un mundo en el que los flujos de datos se mezclan y se emparejan. Y hay otra tensión entre la protección de datos más estricta y más competencia: no sólo tienen grandes empresas mayores medios para cumplir con la regulación de la privacidad caro, sino que también les permite controlar los datos más estrechamente.

Con el tiempo, la nueva tecnología, que va más allá de la anonimización simple y fácil de deshacer, puede aliviar esas tensiones. Bitmark, otra empresa de lanzamiento, utiliza la misma tecnología "blockchain" detrás de bitcoin, una moneda digital, para hacer un seguimiento de quién ha accedido a los datos. Pero la innovación jurídica también será necesaria, dice Viktor Mayer-Schönberger, de la Universidad de Oxford. Él y otros expertos en datos sostienen que no sólo la recopilación de datos debe ser regulada, sino su uso. Al igual que los productores de alimentos no pueden usar ciertos ingredientes, las empresas en línea podrían estar prohibidas de usar ciertos datos o usarlos de tal manera que podrían causar daño a un individuo. Esto, argumenta, cambiaría la responsabilidad hacia los recopiladores de datos y los usuarios de datos que deberían ser responsables de cómo manejan los datos en lugar de confiar en obtener el consentimiento individual.

Tal regulación "basada en el uso" sería tan difícil de policiar como las reglas convencionales de notificación y consentimiento que actualmente gobiernan qué datos se recogen y cómo se usan. También es probable que empeore lo que algunos ven como el tercer gran desafío de la economía de datos en su forma actual: que algunos se beneficiarán mucho más que otros, social y geográficamente.

Para los datos personales, al menos, el modelo actual parece apenas sostenible. A medida que los datos se vuelven más valiosos y la economía de datos crece en importancia, las refinerías de datos harán todo el dinero. Los que generan los datos pueden rechazar un intercambio desigual que sólo los ve obtener servicios gratuitos. El primero en señalar esto fue Jaron Lanier, quien también trabaja para Microsoft Research, en su libro "¿Quién posee el futuro?", Publicado en 2014.

El Sr. Weyl, que colabora con el Sr. Lanier y está escribiendo un libro sobre la renovación de la economía liberal con Eric Posner de la Universidad de Chicago, avanza otra versión de este argumento: en última instancia, los servicios de AI no son proporcionados por algoritmos sino por las personas que generan la cruda material. "Los datos son mano de obra", dice Weyl, que está trabajando en un sistema para medir el valor de las contribuciones de datos individuales para crear una base para un intercambio más justo.

Trabajadores de datos del mundo, uníos!

El problema, dice el Sr. Weyl, es hacer que la gente entienda que sus datos tienen valor y que se deben una compensación. "Necesitamos algún tipo de movimiento obrero digital", dice. Se requerirá aún más convincente para obtener los "servidores de sirena", como Lanier llama a los gigantes de datos, para cambiar sus formas, ya que benefician grandemente del statu quo.

Una distribución geográfica más equitativa del valor extraído de los datos puede ser aún más difícil de lograr. Actualmente, la mayoría de las grandes refinerías de datos están basadas en América o están controladas por firmas estadounidenses. A medida que avanza la economía de datos, esto también parece difícilmente sostenible. Las escaramuzas pasadas entre América y Europa sobre la privacidad dan una idea de lo que vendrá. En China, los proyectos de reglamentación exigen que las empresas almacenen todos los "datos críticos" que recopilen en servidores basados ​​en el país. Los conflictos por el control del petróleo han marcado el mundo durante décadas. A nadie le preocupa que las guerras se peleen por los datos. Pero la economía de datos tiene el mismo potencial para la confrontación.

Este artículo apareció en la sección Briefing de la edición impresa bajo el título "Combustible del futuro"

sábado, 25 de febrero de 2017

Algoritmo busca asesinos en serie




El algoritmo capaz de identificar asesinos seriales
Cruzando datos públicos como nadie lo había hecho antes, un ex periodista enseñó a las computadoras a encontrar patrones comunes en los homicidios no resueltos
Infobae



Cuando en octubre de 2014 Darren Deon Vann, un hombre de 43 años, fue detenido por el homicidio de la joven Afrikka Hardy en Indiana, Thomas Hargrove siguió el caso como si se tratara de algo personal. Cuatro años antes, el periodista retirado, experto en análisis de datos, había escrito varias veces a la policía de la ciudad donde sucedió el hecho, con la misma pregunta: "¿Es posible que haya un asesino serial activo en la zona de Gary?".

Nunca le respondieron.

Thomas Hargrove desarrolló un algoritmo que detecta patrones entre homicidios no resueltos en la misma zona.

Vann llevó a los investigadores hasta seis edificios donde había dejado otros seis cuerpos de mujeres asesinadas. Antes de pedir un abogado y callar para dejar de autoincriminarse, Vann se jactó de haberse dedicado a matar desde la década de 1990.

En sus correos electrónicos y en sus cartas certificadas al Departamento de Policía de Gary, Hargrove había enviado una serie de hojas de cálculos que él había creado sobre la base de información que la Agencia Federal de Informaciones (FBI) tenía sobre los homicidios en esa ciudad de Indiana: 14 casos sin resolver, mujeres entre 20 y 50 años, todas estranguladas.
"En comparación con las estadísticas del país, el número de asesinatos similares era en Gary mucho más elevado que la norma", escribió Robert Kolker en su perfil del investigador espontáneo para Bloomberg Businessweek. "Tanta gente, muerta de la misma manera en la misma ciudad, ¿no sugeriría eso que al menos unas pocas de ellas, o acaso más, podrían ser casos conectados? ¿Y que el homicida estaría suelto todavía?".

Hargrove ofreció otros datos, ignorados como los anteriores por la policía de Gary: varias de las mujeres habían sido estranguladas en sus domicilios; al menos en dos casos, un incendio había tratado de ocultar lo sucedido; varias de las víctimas habían sido halladas en edificios abandonados.

Ese dato hizo que el ex periodista prestara atención al caso de Vann.
El asesino de Hardy había guiado a la policía a edificios abandonados, donde hallaron otras víctimas estranguladas.

Su método de análisis estadístico servía, comprobó.
Pero si tenía razón, no había logrado evitar la muerte de siete mujeres desde que se intentó contactar con la policía hasta la detención del homicida confeso.


La fundación MAP se dedicó a recopilar información sobre homicidios no resueltos, entre los cuales se destacan patrones de similitud cuando ha actuado un asesino serial.

Junto con un ex investigador de homicidios del FBI, Eric Witzig, autor del trabajo académico Observations on the Serial Killer Phenomenon (Observaciones sobre el fenómeno del asesino serial), Hargrove fundó The Murder Accountability Project (MAP, Proyecto de Contraloría de Asesinatos).

En su página, en la sección "Por qué existimos", explicaron el sentido del MAP: "Cada año al menos 5.000 asesinos quedan impunes. La tasa de esclarecimiento de homicidios mediante un arresto policial ha disminuido durante los años, hasta que hoy un tercio queda sin solución".

En comparación de tasas anteriores de más del 80% (en la década de 1960, llegó al 90%), en 2014 el porcentaje era del 64,5% y en 2015, del 61,5%, con grandes variaciones entre ciudades: Los Angeles, Nueva York y Houston están por encima del 70%, mientras que Nueva Orleans, Detroit y Saint Louis oscilan en el 40%, sin contar casos especiales como el de Chicago, que tuvo un aumento de 485 homicidios en 2015 a 762 en 2016.
"Como resultado —siguieron Hargrove y Witzig en su web— más de 222.000 estdounidenses han muerto en homicidios no resueltos desde 1980: más que el total de muertes de todas las acciones militares del país desde la Segunda Guerra Mundial".

Como no existe una oficina gubernamental que estudie los homicidios no resueltos, el MAP se dedicó a obtener información de nivel federal, estatal y local sobre ellos, y lo puso en línea. La innovación de Hargrove, según Bloomberg, "fue enseñarle a una computadora a detectar tendencias en homicidios no resueltos, utilizando información disponible públicamente que nadie, incluidas las autoridades de aplicación de la ley, habían usado antes".

Luego de pasar meses en el desarrollo del algoritmo que identificaría casos sin solución similares al punto de sugerir el mismo asesino (geografía, sexo, edad, método de homicidio, por ejemplo) lo puso a prueba al someterlo a ingeniería inversa: tomó un caso muy conocido, el del asesino de Green River, quien confesó haber matado a 48 mujeres en Seattle, Washington, a lo largo de dos décadas. Y funcionó.


La tasa de esclarecimiento policial de los homicidios ha bajado sin pausa desde la década de 1960, ilustra un cuadro de MAP.

MAP se basó en el Informe Complementario de Homicidios que el FBI publica cada año desde 1976: cada caso que fue denunciado a la institución aparece con el detalle de la edad de la víctima, la raza, el género, la forma en que fue asesinada, las circunstancias que se conocen. Como 18 estados no pasan sus estadísticas al FBI, Hargrove y Witzig apelaron a la Ley de Libertad de Información (FOIA) para pedir datos de esos lugares. También recurrieron a la justicia en el caso de Illinois, que no les respondió.
"Ya han reunido detalles de casos de 638.454 homicidios desde 1980 a 2014, incluidos 23.219 que no habían sido denunciados al FBI", escribió Kolker.

"Es la lista más completa de casos detallados de homicidios en los Estados Unidos de que se dispone, y el sitio del grupo lo ha publicado de manera abierta". Es decir que cualquiera puede consultarla: "Uno puede buscar su lugar natal y ver si hay algo sospechoso", dijo Hargrove. "Si es el padre de una asesinada, puede buscar su caso, y ver si hay otros registros que se le parezcan. Quisimos hacerlo una colaboración abierta sobre homicidio".

Entre las revelaciones laterales que brindó el algoritmo se halla una de importancia: Hargrove notó que allí donde se redujeron los presupuestos de las policías aumentaron los casos sin solución. En Flint, Michigan, por ejemplo, se ajustó la planta de oficiales de 330 a 185, y la tasa de resolución de casos se desmoronó más de 30% desde 1990.

Y entre los planes futuros de MAP se incluyen aumentar las colaboraciones con las fuerzas policiales. Ya han asesorado a las jefaturas de Atlanta, Georgia, y Austin, Texas. También han ofrecido seminarios a detectives en la Asociación Internacional de Investigadores de Homicidios y en la División de Capacitación del FBI en Quantico, Virginia.

viernes, 16 de diciembre de 2016

Dictadura digital china

La dictadura digital de China
Experimentos inquietantes con una nueva forma de control social
The Economist




Cuando el comunismo se derrumbó en la Unión Soviética, hace 25 años esta semana, el Partido Comunista Chino parecía estar dirigiéndose irreversiblemente hacia abajo. Sí, los tanques habían dejado la Plaza de Tiananmen tras aplastar una revuelta en 1989, pero la guerra parecía perdida. Incluso el crecimiento vertiginoso de China, que despegó un año después del colapso soviético, parecía probable que sólo arrancara al partido de su base ideológica. En 1998, el presidente Bill Clinton indicó que prevé una trayectoria democrática inevitable. Dijo a su homólogo chino, Jiang Zemin, que China estaba "en el lado equivocado de la historia".

Sin embargo, aunque Occidente ha sufrido la crisis financiera y las consecuencias de un intento fallido de implantar la democracia en Oriente Medio, el Partido Comunista de China se aferró a su monopolio del poder. Sus líderes se comportan como si China nunca tuviera que someterse a la transformación democrática que todos los países ricos han pasado a través en el camino hacia la prosperidad. En cambio, parecen creer que el partido puede mantener el control, y algunos funcionarios están apostando que la forma de hacerlo está en una nueva forma de dictadura digital.

Un partido aparte

Bajo su líder, Xi Jinping, el partido mira desde el exterior para ser más fuerte que en cualquier momento en décadas. Desde Tiananmen, aparatos viejos han sido reemplazados por brillantes tecnócratas e incluso empresarios. Los ciudadanos gozan de libertades inimaginables hace una generación: hacer negocios, viajar al extranjero y seguir una vida libre. Utilizando técnicas occidentales de relaciones públicas, el partido recuerda a los chinos comunes cómo todos, gracias al consumismo en masa, están pasando un buen rato.

Y sin embargo, el partido sigue siendo profundamente inseguro. Durante los últimos años ha sentido la necesidad de imponer una feroz represión contra los disidentes y sus abogados. Es activistas bullying en Hong Kong que desafían su autoridad y está aterrorizando a las minorías inquietas. El rápido crecimiento económico ha creado una nueva y enorme clase media que disfruta de la oportunidad de enriquecerse, pero que también desconfían de todo lo que les rodea: de los funcionarios que se burlan de los derechos de propiedad, de un sistema de salud estatal plagado de corrupción, Que rutinariamente venden mercancías de mala calidad, de un sistema educativo en el que el engaño es la norma y de las personas cuyos antecedentes criminales y financieros son imposibles de evaluar.

El partido se preocupa con razón de que una sociedad que carece de confianza es inestable. Así que está experimentando con un remedio sorprendente. Lo llama un "sistema de crédito social" (ver artículo). Dice que la idea es aprovechar la información almacenada digitalmente para que todo el mundo se comporte de manera más honesta, ya sea por compañías nocturnas o por personas que esquivan impuestos o multa. Eso suena bastante justo. Pero el gobierno también habla de esto como una herramienta de "gestión social": es decir, controlar el comportamiento de los individuos. Este es un régimen que ya trata de controlar la frecuencia con que la gente visita a sus padres. ¿Cuánto más podría ir? Las calificaciones de los ciudadanos deben vincularse con sus números de identidad. Muchos temen que los resultados negativos puedan resultar en sanciones, como negarse a un préstamo bancario o permiso para comprar un billete de tren, incluso por razones políticas. Tienen motivos para preocuparse. El gobierno decretó este año que el sistema debería registrar estos pecados vagamente definidos como "unirse para interrumpir el orden social".
En Occidente, también, las bocanadas de datos que la gente deja detrás de ellos a medida que van sobre sus vidas están siendo aspirado por empresas como Google y Facebook. Aquellos con acceso a estos datos sabrán más acerca de las personas de lo que la gente sabe sobre sí mismos. Pero usted puede estar bastante seguro de que Occidente tendrá reglas-especialmente donde el estado está involucrado. En China, por el contrario, el monitoreo podría resultar en una distopía digital. Los funcionarios hablan de la creación de un sistema que en el año 2020 "permitirá a los dignos de confianza a vagar por todas partes bajo el cielo mientras que hace difícil para los desacreditados dar un solo paso".

Hasta ahora, el esquema es sólo experimental, en aproximadamente 30 áreas. El propio gobierno no está seguro de qué tan lejos puede tomarlo. Ha habido mucho debate sobre cómo garantizar que los ciudadanos puedan cuestionar sus calificaciones. De hecho, los intentos de utilizar el sistema para darle al partido más músculo están encontrando oposición. Los medios oficiales han reportado dudas acerca de un experimento en el cual los ciudadanos que visitan las oficinas gubernamentales para quejarse de los errores judiciales fueron castigados con escasos resultados. Los medios han incluso citado a críticos comparando tales tácticas con los japoneses entregando certificados de "buen ciudadano" a chinos de confianza durante la odiada ocupación del ejército imperial durante la guerra.

Que el partido ha dado publicidad a tales preocupaciones sugiere que puede prestar atención a algunos de ellos. Pero es igualmente probable que los experimentos marquen el comienzo de algo más grande y más siniestro. Son de un pedazo con las tradiciones burocráticas profundamente encajadas de China de la coacción y del paternalismo. El gobierno considera que tiene el derecho de entrometerse en la vida de los ciudadanos. El resentimiento público no ha hecho ninguna diferencia en los esfuerzos brutales, mal-juzgados para dictar cuántos niños las familias pueden tener. Siempre que el señor Xi es desafiado, su instinto siempre parece ser la represión. La sucesión rutinaria de amenazas que cualquier gobierno enfrenta es más probable que conduzca a la opresión que a un debate libre, informado o una decisión que el estado debe abandonar las herramientas digitales disponibles.

Vuelve el foco a los gobernantes, no en los gobernados

En lugar de calificar a los ciudadanos, el gobierno debería permitirles evaluar la forma en que gobierna. Vast sistemas digitales no son necesarios para eso. Para todas las debilidades de la democracia, la urna todavía puede funcionar. Demasiado pedir en China, tal vez? No si el gobierno va a ser tomado en su palabra. Su esbozo del esquema de crédito social llama ampliamente a "sistemas completos para restringir y supervisar el uso del poder" y pasos para "ampliar los canales de participación pública en la formulación de políticas gubernamentales". Eso suena mucho a la democracia.

Tristemente, el Sr. Xi muestra poco interés en experimentos de ese tipo. Testigo de los matones que fueron recientemente desplegados fuera de la casa de un ciudadano de Pekín que se atrevió a tratar de presentarse en una elección local sin el permiso del partido. En su lugar, el Sr. Xi sigue desarrollando herramientas y sistemas digitales para controlar a las personas. Eso alimentará la ira y el resentimiento hacia el gobierno. A la larga demostrará que Clinton tenía razón.

martes, 26 de julio de 2016

Target sabe que estás embarazada antes que tu pareja

Cómo Target se dio cuenta de una muchacha adolescente estaba embarazada antes que lo haga su padre






Kashmir Hill, Forbes

Bienvenido a las partes no tan privadas donde la tecnología y privacidad colisionan

Target ha dado en el target.
Cada vez que vaya de compras, que comparten detalles íntimos sobre sus patrones de consumo con los minoristas. Y muchos de estos minoristas están estudiando los detalles de averiguar lo que le gusta, lo que necesita y que los cupones son más propensos a hacer feliz. Target, por ejemplo, se ha descubierto la manera de los datos de la mina su camino en su vientre, para averiguar si usted tiene un bebé en camino mucho antes de lo que necesita para empezar a comprar pañales.

Charles Duhigg esboza en el New York Times cómo Target trata de atrapar a los padres-a-ser en ese momento crucial antes de que se conviertan en rampantes - y leales - compradores de todas las cosas en colores pastel, de plástico, y en miniatura. Habló a Target estadístico Andrew Pole - antes de Target se asustó y le cortó todas las comunicaciones - sobre las pistas sobre la inminente paquete de alegría de un cliente. Target asigna a cada cliente un número identificador de Guest, atado a su tarjeta de crédito, nombre o dirección de correo electrónico que se convierte en un cubo que almacena un historial de todo lo que han comprado y cualquier información demográfica de destino ha recibido de ellos o comprados a otras fuentes. El uso que, Polo observó datos de compra histórica para todas las mujeres que se habían inscrito para los registros bebé de Target en el pasado. Desde el New York Times:

[Pole] corrió una prueba tras otra, analizar los datos, y en poco tiempo surgieron algunas pautas útiles. Lociones, por ejemplo. Un montón de gente compra loción, pero uno de los colegas de Pole notaron que las mujeres en el registro del bebé estaban comprando grandes cantidades de loción sin aroma a principios del segundo trimestre de embarazo. Otro analista señaló que en algún momento en las primeras 20 semanas, las mujeres embarazadas cargaron en suplementos como el calcio, magnesio y zinc. Muchos compradores compran bolas de jabón y algodón, pero cuando alguien de repente empieza a comprar un montón de jabón sin olor y extra-grandes bolsas de bolas de algodón, además de entregar desinfectantes y toallitas, indica que podrían estar recibiendo cerca de su fecha de entrega.

O tiene una infección bastante desagradable ...

A medida que las computadoras de Pole se arrastraron a través de los datos, que fue capaz de identificar alrededor de 25 productos que, cuando se analizaron en conjunto, le permitió asignar cada comprador una puntuación de "predicción de embarazo". Más importante aún, también podía calcular su fecha de vencimiento dentro de una pequeña ventana, por lo que podría enviar cupones de destino sincronizados con etapas muy específicas de su embarazo.
Uno de los empleados de destino me habló proporcionado un ejemplo hipotético. Tome un comprador de destino ficticia llamada Jenny Ward, que es de 23 años, vive en Atlanta y en marzo compró loción de manteca de cacao, una bolsa suficientemente grande como para funcionar como una bolsa de pañales, zinc y suplementos de magnesio y una alfombra azul brillante. Hay, por ejemplo, una probabilidad del 87 por ciento que está embarazada y que su fecha de entrega es en algún momento a finales de agosto.

via How Companies Learn Your Secrets – NYTimes.com.
Y tal vez eso es un niño basado en el color de esa alfombra?

Así Target comenzó a enviar cupones para artículos de bebé a los clientes en función de sus puntuaciones de embarazo. Duhigg comparte una anécdota - tan bueno que suena compuesta por - que transmite la forma precisa de manera inquietante es la focalización. Un hombre enojado se fue a un destino fuera de Minneapolis, exigiendo hablar con un gerente:

Target sabe antes de que aparezca.
"Mi hija esta en el correo!", Dijo. "Ella todavía está en la escuela secundaria, y que está enviando sus cupones para ropa de bebé y cunas? ¿Estás tratando de animarla a quedar embarazada? "
El director no tiene ni idea de lo que el hombre estaba hablando. Miró el anuncio publicitario. Efectivamente, estaba dirigida a la hija del hombre y contenía la publicidad de ropa de maternidad, muebles del cuarto y fotografías de bebés sonriendo. El director se disculpó y luego llamó unos días más tarde para disculparse de nuevo.

(Buen servicio al cliente, Target).

En el teléfono, sin embargo, el padre era un tanto desconcertado. "Tuve una charla con mi hija", dijo. "Resulta que ha habido algunas actividades en mi casa no han sido completamente conscientes. Ella es debido en agosto. Te debo una disculpa."

viernes, 18 de septiembre de 2015

Los datos son el próximo destino del marketing

Los datos son la próxima gran cosa en la comercialización del contenido
Alexandra Samuel - Harvard Business Insider



La eficacia decreciente de la publicidad convencional y el auge de los medios sociales han llevado cada vez más marcas de abrazar la comercialización de contenidos. Cada vez más empresas están viendo a sí mismos no sólo como anunciantes, pero a medida que los editores, el lanzamiento de las redacciones digitales, podcasts, y otras formas de contenido de marca con el fin de mantener sus marcas, perspectivas y propuestas de valor frente a los clientes.

Sin embargo, mientras las empresas han abrazado su nuevo papel como creadores de contenido, se han perdido en gran parte en una de las últimas tendencias en el mundo de los medios de comunicación tradicionales: el periodismo de datos. Esto todavía-nueva forma de presentación de informes se basa en la creciente disponibilidad de conjuntos de datos y herramientas de análisis de datos para descubrir y contar historias, como el impacto de las vacunas en enfermedades infecciosas, el persistente problema de la segregación escolar, o las diferencias en las horas de trabajo en todas las industrias, a menudo la presentación de los resultados a través de visualizaciones convincentes o aplicaciones interactivas. Periódicos como The Guardian y The New York Times han invertido mucho en el periodismo de datos porque reconocen que el mundo de los grandes datos ofrece oportunidades para descubrir nuevos conocimientos, y para contar historias en forma de nueva convincentes. Así como historias cruciales, basadas en datos atraen el tipo de atención de los medios sociales que los editores sueñan: nuevos datos e infografías repartidas en Twitter, Facebook y otros canales sociales precisamente porque son capaces de contar una historia en un conciso, convincente y atractivo a la vista camino.

Mientras infografías son ahora una parte estándar del kit de herramientas del comunicador corporativo, visualizaciones de datos impulsadas por datos originales son todavía pocos y distantes entre sí. Mira en Pinterest y verá que muchos de infografía corporativos son, básicamente, las entradas del blog bonitas, no visualizaciones de datos que cuentan una historia original.

Eso es un descuido irónico, porque las empresas de hoy en día tienen acceso a más datos que nunca. Toda esa información podría ser forraje para la comercialización de primera categoría; En cambio, es tratado como un secreto de Estado, y se utiliza casi exclusivamente para impulsar la toma de decisiones internas. Busque "contenido por datos", y usted no encontrará mucho de convertir los datos en los mensajes o informes en el blog: encontrará su mayoría vendedores que utilizan datos para orientar sus campañas de marketing y decisiones propias.

Las excepciones a esta regla son las pocas empresas que han utilizado sus propios datos para impulsar historias originales y fascinantes: empresas como OkCupid, General Electric, y el pedal de arranque. Mi favorita es la quijada, que ha descubierto algunas ideas fascinantes de toda la gente que llevan sus seguidores de fitness - como cuando la gente en diferentes ciudades despiertan y van a dormir (a continuación). Estas marcas reconocen lo que prácticamente cada marca debe hacer: abrir el cofre del tesoro de los datos y ofreciendo algunos de que la riqueza de nuevo a los clientes y al público en forma de contenido original.



Me desperté con el poder de los datos como un recurso de marketing de contenidos a través de mi trabajo con Vision Critical: porque una gran cantidad de empresas globales utilizan la plataforma de software de inteligencia de clientes de Vision Critical, estábamos en una gran posición para desarrollar informes como compartir es la Obra Nueva ( con Jeremías Owyang) y Lo Social Análisis de Medios no te puedo decir. Trabajando en esos informes me abrió los ojos a los beneficios que un enfoque cuantitativo puede ofrecer cualquier tipo de negocio:

Tráfico. Infografía son el tipo de contenido que es más probable que se comparta en las redes sociales, por lo que la creación de visualizaciones de datos que ofrecen un valor real a sus lectores es una gran manera de difundir sus ideas y mensaje - y para atraer tráfico a su sitio. A diferencia de una entrada típica blog, una visualización de datos o informe tiene algún poder de permanencia, sobre todo si usted elige sus palabras clave de título con cuidado para que sus mensajes aparecen cada vez que la gente busca números en su tema o industria.

Valor. El auge de las marcas como los editores ha llevado a una explosión en el volumen de contenido disponible en línea. Y seamos honestos: la mayor parte es terrible. De la interminable spew de publicaciones en el blog destinado a establecer una "marca personal" sobre un tema determinado, a la rutina diaria de mantenimiento de sitios web corporativos abastecido con comunicados de arriba-hasta la fecha, una gran cantidad de lo que está consiguiendo acodado las ofertas más en términos de palabra recuento de lo que ofrece en la información actual o una visión práctica. Cuando usted está compartiendo,, números pertinentes precisos frescas, usted está ofreciendo contenido que da a la gente el valor real.

Autoridad. Compartir, la curaduría, y análisis de datos - sobre todo si no se ha compartido antes - establece su marca como la autoridad en un tema. Si usted puede conocer un informe o infografía que ofrece una toma nueva o definitiva en un conjunto clave de las tendencias del mercado o problemas, usted se convierte en el visto a la fuente en ese tema. Eso puede llevar a los medios ganados menciones y solicitudes de entrevistas, pero igual de importante, el propio informe pone de relieve la experiencia de su empresa. Para las empresas B2B, en particular, lo que subraya la experiencia es a menudo uno de los principales objetivos de la comercialización de contenidos, y el contenido de datos impulsada logra ese objetivo de manera muy eficaz.

Aprender. Habilidades de análisis de datos están resultando ser cada vez más importante en la empresa de hoy en día, por lo que una gran cantidad de empresas tienen una fuerza significativa cuando se trata de usar la analítica interna para tomar decisiones de negocio. Pero cuando empiezas a compartir sus métricas externamente, puede obtener una nueva perspectiva - porque ver cómo otras personas responden y tienen sentido de que puede darle nuevas ideas en los números que usted piensa que usted ya sabe dentro y por fuera. Eso es particularmente cierto si usted toma una página del surgimiento del movimiento de datos abiertos en el gobierno, y de hecho soltar algunos de sus datos en una forma que otras personas puedan utilizar para crear sus propios gráficos o análisis: se pueden encontrar patrones y puntos de vista que usted haría nunca han pensado para explorar.

Transparencia. En un momento en que los consumidores están cada vez más preocupados por la forma en que las empresas recopilan y usan su información personal, contenido basado en datos ofrece una manera para que las empresas que la gente vea cómo se utiliza su información. Esa transparencia no sólo genera confianza, pero ayuda a hacer frente a su preocupación de que se dan por vencidos más valor al compartir su información de lo que reciben de vuelta de las empresas que recogen la misma. Por agregación de los datos de una manera que preserve la privacidad de los usuarios individuales, y proporciona una visión basada en los patrones revelados a través de esa agregación, las marcas pueden ayudar a los clientes a comprender cómo se está utilizando sus datos.

Para todo el valor que el marketing basado en datos puede ofrecer, sigue siendo una parte infrautilizado de caja de herramientas de la comercialización - y como un reciente mensaje Nieman Lab observó, muchas de las empresas que se han aventurado en este espacio lo están haciendo mal. Pero precisamente porque la narración de datos, a cargo sigue siendo la excepción, hay una enorme oportunidad para que las empresas se destacan de las hordas de marketing girando información cuantitativa en contenidos de calidad.

domingo, 28 de junio de 2015

La poderosa Ley de Moore




Chispas en el Centro de una Revolución Tecnológica
Por Joel S Horwitz, Director, IBM Analytics
MIT Technology Review




La mayoría de nosotros en el negocio de tecnología están familiarizados con la Ley de Moore. Para aquellos de nosotros que no lo estamos, la ley establece que el número de transistores o potencia de procesamiento por pulgada cuadrada en circuitos integrados se duplica cada año desde su invención. Esta tendencia llevó primero a la aparición de los ordenadores personales y teléfonos inteligentes, y ahora con el Internet de las Cosas. 1 de cada 5 personas en el mundo tienen ahora un ordenador personal, y en los EE.UU., 4 de cada 5 personas lo tienen. En el caso de la telefonía móvil, 1 de cada 2 personas en el mundo tienen un smartphone, y en los EE.UU., 3 de 4. Mirando a través de incluso la pequeña ventana que tenemos para el potencial de la IOT, es claro que el, mundo conectado digital en que todos viven en está posicionado para reinventar los negocios, la ciencia y la sociedad.




Todos nuestros dispositivos conectados están alimentando un crecimiento de datos que es completamente nuevo para todos. A partir de hace 3 años, hemos generado más datos de los que hemos creado en los 199.997 años de la historia humana que conduce a ese punto. Lo que esto significa estelariza a de los datos es que la forma en que pensamos acerca de los datos y la tecnología tiene que cambiar en el nivel más fundamental. No es sólo una cuestión de escala, los tipos de datos y la posibilidad de que la forma en que afectan a la vida humana y el mundo son diferentes en el núcleo. Los enfoques tradicionales son o no van a funcionar con los nuevos, grandes cantidades de datos, o que no se van a producir resultados que son relevantes en un mundo donde la información en tiempo real desde dispositivos de cableado en todo, desde los latidos del corazón humano a los datos interestelar está fluyendo constantemente y a un ritmo creciente.

Por ejemplo, ya no podemos tratar de transformar los datos antes de cargarlo en un entorno de análisis. No podemos mover datos alrededor de analizarlo, ni podemos consultar datos con preconcebidas preguntas ya que hay demasiadas variables que pensar.

Afortunadamente, al mismo tiempo que esta explosión de datos que está sucediendo a nuestro alrededor, las barreras para trabajar con los datos y la tecnología de datos están bajando a un ritmo increíblemente rápido.

Ahora todo el mundo tiene acceso a la información, la tecnología y las herramientas necesarias para extraer valor aún sin explotar de esta explosión de datos. Para probar esto, he tracé datos de tendencias que agregados de fuentes en la web.




El costo de la computación, almacenamiento, y la banda ancha necesaria-para trabajar con datos y realizar análisis en es económicamente cero. El acceso a la tecnología por sí sola no es en sí mismo valioso.

Para obtener una visión de todos estos datos requiere la invención de nuevas disciplinas. El campo bien llamada de la Ciencia de Datos ha surgido, y los nuevos roles del Ingeniero de Datos y el científico de datos se encuentran en un estado de evolución, con los límites y las habilidades fluctuante y creciente como las nuevas tecnologías de datos como el aprendizaje de la máquina y la computación distribuida emergen. Cada función tiene su propio conjunto de competencias que en muchos aspectos está convirtiendo el estado actual de las mejores prácticas de análisis en su cabeza.

En primer lugar, acostumbrarse a la idea de matemáticas borrosas (probabilidad) y puntos de vista, incluso difusos (precisión: lo están convirtiendo en la norma, no la excepción La próxima conmoción:.. Cómo tomamos estas ideas y convertirlas en acción Aquí es donde Apache Spark viene en Spark hace uso de las nuevas tendencias en la ciencia de datos y crea lo que yo considero el sistema operativo de Google Analytics para programar datos en conocimiento El objetivo final:.. aplicaciones alimentadas por la inteligencia profunda.

Conducir demanda de aplicaciones inteligentes es la Internet de las Cosas. El IOT es el siguiente paso en el alcance de los análisis: la inteligencia integrada en todo. Conducir este mega tendencia es el aumento en la cantidad de cálculos por kwh que se va para arriba como mejoramos la eficiencia de energía-explicados con elegancia en este trabajo de Jonathan G. Koomey: la eficiencia eléctrica de la computación se ha duplicado aproximadamente cada año y medio por más de 6 décadas.





Con el tiempo, vamos a mirar atrás y ver este año, 2015, como el año en que hicimos un cambio fundamental en nuestra forma de pensar de ideas simplemente descubriendo a su aplicación a gran escala y en formas que producen ideas que no podemos imaginar en este momento . Vamos ya no consideramos conocimientos derivados de los datos como la información visualizada en el salpicadero. Insights derivados de los datos son la verdadera fuente de la próxima revolución industrial: la economía perspicacia. Mi parte, estoy emocionado por todos nosotros, ya que estamos cada vez más conectado a los dispositivos y el uno al otro en todo el mundo, para detener la roza nuestro camino a través de una jungla generada de forma aleatoria de los datos, y en lugar de tener una visión entregado a nosotros en el momento en el que más lo necesitamos.

Usted puede encontrar los detalles de mis fuentes de datos y análisis de la visualización sencilla a continuación.

## datasets
http://www.mkomo.com/cost-per-gigabyte
http://drpeering.net/white-papers/Internet-Transit-Pricing-Historical-An...
http://www.jcmit.com/cpu-performance.htm
https://www.dropbox.com/s/f7ag8zkkerqcnak/tech_cost_trends.csv?dl=0

## technology trends analysis

techdata = read.csv(“data/tech_cost_trends.csv”)
## visualize in trendline
plot(techdata$Year,techdata$Cost.of.Performance, type=”n”, xlab=”Year”,ylab=”Cost”, log=”y”)
lines(techdata$Year,techdata$Cost.of.Performance, col=”blue”, lwd=2.5)
lines(techdata$Year,techdata$Cost.of.Storage, col=”red”,lwd=2.5)
lines(techdata$Year,techdata$Cost.of.Transfer, col=”green”,lwd=2.5)

leg.txt <- c(“Performance”, “Storage”, “Transfer”)
legend(1990,1e+11, legend=leg.txt, lty=c(1,1), lwd=c(2.5,2.5),col=c(“blue”,”red”,”green”))

## visualize in ggplot
g <- ggplot(techdata, aes(techdata$Year))
g <- g+ geom_line(aes(y=techdata$Cost.of.Performance), colour=”blue”)
g <- g+ geom_line(aes(y=techdata$Cost.of.Storage), colour=”red”)
g <- g+ geom_line(aes(y=techdata$Cost.of.Transfer), colour=”green”)
g

Twitter Delicious Facebook Digg Stumbleupon Favorites More

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Hostgator Coupon Code