Mostrando entradas con la etiqueta servidor. Mostrar todas las entradas
Mostrando entradas con la etiqueta servidor. Mostrar todas las entradas

domingo, 17 de diciembre de 2017

Los costos del Big Data




El gran costo del Big Data

 Forbes


Post invitado escrito por John Bantleman

John Bantleman es CEO de RainStor, que vende software de base de datos utilizado para proyectos de Big Data.

Hemos entrado en la era de Big Data donde se descubren nuevas oportunidades de negocios todos los días porque las tecnologías innovadoras de administración de datos ahora permiten a las organizaciones analizar todo tipo de datos. Los datos semiestructurados y no estructurados que se generan en grandes cantidades a la velocidad de la red son fuentes ricas de información que le dicen a las organizaciones exactamente lo que los clientes necesitan y quieren y cómo o por qué compran. Pero con las nuevas oportunidades de negocio viene el costo, y los verdaderos costos aún no se han apreciado del todo.

Big Data no es exactamente nuevo. Los líderes del mercado han estado almacenando y analizando tipos de datos múltiples no solo para obtener una ventaja competitiva, sino también para lograr una visión más profunda de los patrones de comportamiento del cliente que impactan directamente en su negocio.

Dos sectores específicos - telecomunicaciones y venta minorista - han invertido en soluciones de data warehousing donde se acumulan grandes cantidades de transacciones e interacciones de los clientes para determinar los indicadores de rendimiento clave, como los ingresos por año o por cliente o el costo de adquisición de clientes a través de Internet promociones o picos estacionales. Sin embargo, incluso los líderes del mercado no pueden permitirse almacenar y administrar datos detallados sin procesar a escala de petabytes a lo largo del tiempo en almacenes de datos tradicionales. A menudo almacenan, digamos, los últimos cuatro trimestres y luego descargan el historial a la cinta sin conexión, que no es de fácil acceso. El desafío empresarial se produce cuando la Navidad cae en sábado, y necesitan analizar datos de hace siete años para comprender patrones específicos. La reinstalación de datos más antiguos y voluminosos en el almacén no solo es muy desafiante, sino también costoso.



Dos factores clave entran en juego con respecto a la gestión y análisis Big Data a escala empresarial. Primero, los innovadores web, como Facebook, Google y Yahoo, han desarrollado una arquitectura de almacenamiento y computación escalable para administrar Big Data: Hadoop, que paraleliza grandes conjuntos de datos a través de hardware básico de bajo costo para una escala fácil y reduce drásticamente el costo de petabyte ambientes.

En segundo lugar, los requisitos tecnológicos para administrar Big Data se han trasladado del dominio de unos pocos mercados distintos al aumento de la demanda y los requisitos únicos en una amplia gama de sectores. Los operadores de comunicaciones que administran la escala de petabytes hoy esperan un crecimiento de datos de 10-100x debido al cambio a 4G y LTE con el aumento de los dispositivos de punto final conectados para aprovechar miles de aplicaciones móviles. La red inteligente de servicios públicos se está sumergiendo en Big Data mientras las ciudades de todo el mundo se unen a la nueva "red digitalizada". Las instituciones de servicios financieros están viendo crecimientos compuestos del 100 por ciento en los datos de negociación y opciones, que deben almacenarse durante más de 7 años. Durante los próximos 3 a 5 años, Big Data será una estrategia clave para las organizaciones del sector público y privado. De hecho, en los próximos 5 años, se espera que el 50 por ciento de los proyectos de Big Data se ejecuten en Hadoop.

La realidad es que los enfoques de bases de datos tradicionales no escalan ni escriben datos lo suficientemente rápido para mantenerse al día con la velocidad de creación. Además, los almacenes de datos diseñados para el propósito son excelentes para manejar datos estructurados, pero el hardware tiene un alto costo para escalar a medida que crecen los volúmenes.

Un habilitador clave para Big Data es la escalabilidad de bajo costo de Hadoop. Por ejemplo, un cluster Petabyte Hadoop requerirá entre 125 y 250 nodos que cuestan ~ $ 1 millón. El costo de una distribución Hadoop compatible tendrá costos anuales similares (~ $ 4,000 por nodo), que es una pequeña fracción de un almacén de datos empresarial ($ 10- $ 100s de millones). En la evaluación inicial, Big Data en Hadoop parece ser una gran oferta. Las empresas innovadoras tienen Hadoop en la actualidad: la pregunta es ¿cómo lo aprovecharán ya qué ritmo se convertirá en una misión crítica y central para el enfoque de TI?

Sin embargo, el costo real se encuentra en la operación y administración general o integración de Big Data dentro del ecosistema existente. A medida que los entornos de Big Data escalan, como en Yahoo, la gestión de 200 petabytes en 50,000 nodos requiere que se agreguen más para brindar capacidad de almacenamiento adicional. Muchas organizaciones Web 2.0 que ejecutan Hadoop dependen completamente de la redundancia de datos, pero si usted es un banco empresarial o un operador de comunicaciones, debe cumplir con la seguridad basada en estándares, la recuperación ante desastres y la disponibilidad. Como Hadoop existe hoy, introduce una administración más compleja y la necesidad de recursos especializados.

Detrás de la superficie de Big Data en las implementaciones de Hadoop, muchos innovadores de la plataforma de código abierto han invertido y creado el "Científico de datos", esencialmente un estadístico que puede programar de forma nativa y aprovechar los marcos MapReduce. Para integrar MapReduce, la mayoría de las empresas necesita desarrollar una base de habilidades completamente nueva, y la inversión en capital humano superará rápidamente a la inversión en infraestructura. Además, deben aprovechar el almacén de datos existente y la infraestructura de inteligencia empresarial donde Big Data en Hadoop necesita integrarse para aprovechar las herramientas y habilidades existentes. La imposibilidad de aprovechar los estándares en Hadoop como SQL requiere una mayor inversión sin reducir el costo del almacén de datos.

Big Data ofrece ganancias para las grandes empresas, pero los costos ocultos y la complejidad presentan barreras con las que las organizaciones tendrán problemas. Aunque Hadoop es relativamente nuevo en la empresa, está haciendo grandes avances para mejorar la confiabilidad y la facilidad de uso. No hay escasez de innovación proveniente de las nuevas empresas y los principales contribuyentes al proyecto de código abierto Apache. Las dos áreas que tendrán el mayor impacto tanto en la facilidad de adopción como en el costo son:

  • aprovechar el lenguaje de consulta SQL existente y las herramientas de BI existentes contra datos dentro de Hadoop; y
  • la capacidad de comprimir datos al nivel más granular, lo que no solo reducirá los requisitos de almacenamiento, sino que reducirá el número de nodos y simplificará la infraestructura.

Sin estas dos capacidades, el aprendizaje de habilidades requerirá tiempo y dinero, y no se adaptará a las demandas de la empresa. Las tasas de crecimiento de los datos simplemente superarán el costo de la escala para administrar cientos de terabytes a petabytes de Big Data que llegan todos los días.

Los CIO y los CTO deben analizar de cerca el verdadero costo de Big Data. Sabemos que una cosa está comprobada: los beneficios de aprovechar Big Data superarán la inversión en TI, y por eso agradecemos a nuestros innovadores de base. Costo por cuánto es la pregunta.

domingo, 1 de septiembre de 2013

Google 'Loon', Internet a través de globos

Se han inspirado en el vuelo en grupo de las aves
'Loon', el proyecto más ambicioso de Google para dar Internet al planeta con globos inteligentes
El mayor problema es el viento, dicen los ingenieros

Periodista Digital


Los globos se comunicarán entre ellos, y además tendrán información sobre el movimiento de cada uno

Google.



Google ha dado a conocer su Proyecto Loon, la idea más ambiciosa de la compañía para difundir Internet por todo el planeta, en especial lugares remotos, mediante una red globos inteligentes que formarían una especie de malla para establecer una cobertura estable.

La preocupación aún es el vierto, pero están trabajando en ello.

La compañía ha dado una explicación más compleja sobre lo que los programas de los globos inteligentes harán en el espacio. De acuerdo con Google, encontró la inspiración en la naturaleza y en la forma en que las aves vuelan juntas.

The Next Web --Google explains how Project Loon smart balloons ‘flock' to deliver consistent Internet coverage-- cita las declaraciones del equipo deinvestigación.

Los globos se comunicarán entre ellos, y además tendrán información sobre el movimiento de cada uno. La firma espera que la simulación sea mucho más sofisticada en el futuro.

Los dispositivos serán cada vez más inteligentes para que el proyecto sea viable, según la empresa.

En un video, se muestra cómo es que los globos pueden reaccionar a las condiciones que las rodean con el propósito de garantizar que no haya espacios vacíos en su formación.

El experimento es en Nueva Zelanda, y pronto llegaría a California.

sábado, 4 de mayo de 2013

Historia de la primera página web


El pequeño milagro en el escritorio de Tim





Hace no mucho, si empezabas un relato con la frase "En el pasado...", tu interlocutor sabía que hablabas, como mínimo, del Descubrimiento de América. O del período Jurásico.
Ya no es así. Ahora Colón está a la vuelta del almanaque y los dinosaurios se extinguieron antes de ayer. Mirá la Web, por ejemplo. No, no es que se haya extinguido. Todo lo contrario. Vivimos en un mundo Web. El correo electrónico, la búsqueda de una casa nueva, la compra y venta de casi cualquier producto o servicio, los pasajes y hoteles para un viaje soñado, Facebook y Wikipedia, docenas de jueguitos, la hora en París, el clima en el techo de tu casa y el techo de tu casa en Google Maps, todo eso está hoy en ese servicio de Internet al que llamamos la Web .
Aunque Internet y la Web no son lo mismo -ni remotamente-, si esta nación de casi 2500 millones de habitantes que es la Red tuviera un portal de entrada, sin duda sería una página Web. Es más: uno siente que la Web ha estado ahí siempre. Vamos, ¿cómo vivíamos antes?
La verdad es que muchos de nosotros pasamos una parte sustancial de nuestras vidas sin la Web (y sin Internet, para el caso). ¡En serio! De hecho, la Web cumplió el martes último, oficialmente, 20 años. Desde su creación son, en realidad, unos pocos más (digamos, 22), pero lleva 20 años entre nosotros, los ciudadanos de a pie.
Sólo 20 años. Y parecen 100. 
Tim Berners-Lee
Para la ocasión, la Organización Europea para la Investigación Nuclear (CERN) recuperó de sus archivos la primera página Web de la historia (http://info.cern.ch/hypertext/WWW/TheProject.html) , puesta en línea en agosto de 1991 por Tim Berners-Lee, que en marzo de 1989 había propuesto este sistema de hipertexto para la documentación del CERN y que en 1990, con la ayuda del belga Robert Cailliau, había logrado ponerlo en marcha.
El 30 de abril de 1993 el CERN publicó un documento en el que comunicaba formalmente que la Web pasaba al dominio público ( https://cds.cern.ch/record/1164399 ). Ese mismo año el Centro Nacional de Supercomputación de los Estados Unidos lanzó el primer navegador gráfico, llamadoMosaic , que no sólo será un impulsor fundamental de la expansión de la recién nacida Web, sino que pronto inspirará a Mark Andreessen, coautor de Mosaic , a fundar Netscape. Dos años después, en septiembre de 1995, llegarían las conexiones de Internet para particulares a la Argentina.
Ahora, si el sitio fundacional de la Web te parece una antigüedad, entonces el primer servidor Web te va a dejar pasmado. Pista: un smartphone es alrededor de 90 veces más poderoso que aquella máquina histórica, la computadora donde funcionó el primer servidor HTTP.

POR FAVOR, NO APAGAR

¿Qué es un servidor Web? Es la máquina que aloja y ofrece las páginas Web que vemos a diario. En otras palabras, cuando entramos a un sitio nuestra PC, el smartphone o la tablet hablan con otra computadora, a la que se denomina servidor Web servidor HTTP , y que, por toda respuesta, enviará los datos que constituyen la página que queremos ver y que el Internet Explorer , el Chrome o el Firefox convertirán en los vistosos gráficos a los que estamos habituados.
Por supuesto, cuando tenés centenares de miles de personas visitando tu sitio no te alcanza con una computadora. Pero en junio de 1991 había un solo sitio Web, el de Tim Berners-Lee, alojado en su propia computadora. Sobre su escritorio.
Sí, es una NeXT, la empresa que fundó Steve Jobs tras ser expulsado de Apple en 1986. Las NeXT, lanzadas en 1988, no tuvieron éxito comercial, pero eran muy valoradas en el ambiente científico y técnico porque, para la época, resultaban muy avanzadas. Por añadidura, su software marcaría el paso de buena parte de la informática que disfrutamos hoy (más sobre esto enseguida).
Miremos un poco la foto. Se observa que el monitor era de tubo de rayos catódicos -las primeras pantallas LCD para computadoras de escritorio aparecerían a mediados de la década del '90- y, además, blanco y negro; ese detalle no se ve en esta foto, porque la pantalla está apagada, pero la base de la pantalla es característica de los display monocromáticos de las NeXT, un modelo destinado al diseño gráfico de diarios, libros y revistas. En este sitio hay, entre otras imágenes históricas, una captura de pantalla de la NeXT de Berners-Lee: http://info.cern.ch/www20/photos/
Sobre el teclado hay una copia del documento que describe el sistema de hipertexto propuesto por Berners-Lee en marzo de 1989. Pegado al frente del gabinete, a la derecha, se ve un cartel que inspira ternura, considerando lo que vino después. Escrito a mano en marcador rojo, reza: "Esta máquina es un servidor. ¡No apagar!"
No sólo era un servidor. Era el primero de su tipo, el primer servidor Web. Se llamaba CERN httpd (la es por daemon , la palabra que se usa en Unix para denominar los procesos en segundo plano) y fue discontinuado en 1996. Dato curioso: este software sufría el bug del 2000, el error que aquejó a muchos sistemas que asignaban dos dígitos para el año y que, por lo tanto, podían confundir el 2000 con 1900.
Avión a chorro
Como dije, las NeXT eran máquinas poderosas en su tiempo. Recuerdo haber visto avisos y reseñas de estos equipos. Uno sólo podía soñar con comprarse una NeXT. Es que, a valores de hoy, costaban unos 12.000 dólares. Además, no se comercializaban en la Argentina.
¿Y qué obtenías por ese dinero? (Recomiendo sentarse, antes de continuar.) Un microprocesador de 32 bits a 25 MHz (25 millones de ciclos por segundo), el 68030 de Motorola, que también era usado por las Apple II, por las Commodore Amiga y por equipos de Sun Microsystems. El 68030, que alcanzaba 18 MIPS (Millones de Instrucciones Por Segundo) no tenía capacidades aritméticas de coma flotante, así que las NeXT incorporaban un coprocesador matemático, el 68882.
¿Cómo se compara esto con la tecnología de hoy? El cerebro electrónico de mi smartphone es un chip de 64 bits con 4 núcleos que funciona a 1500 millones de ciclos por segundo; esto es, un reloj 60 veces más rápido que el del 68030. Medí sus MIPS (con la app CF-Bench , para Android) y el resultado fue 1620, unas 90 veces más que aquellas NeXT. Teóricamente, la diferencia debería ser mayor, en el orden de las 500 veces, pero aun con esta medición más conservadora el abismo es enorme. Si el límite de velocidad de las autopistas urbanas aumentara 90 veces, podrías viajar a 9000 kilómetros por hora. Casi 3 veces más que el récord de velocidad alcanzado por un avión tripulado. O 10 veces la velocidad de un avión de pasajeros. O, metros más, metros menos, la velocidad de una bala.
¿Y comparado con una PC de escritorio de última generación? Pongamos un Core i7 Extreme Edition de Intel, que supera los 147.000 MIPS. Eso es más de 8000 veces más rápido que la NeXT donde nació la Web. Es tanto más rápido que no tiene sentido hacer analogías con el mundo físico.

MEMORIAS DEL SILICIO

Las máquinas como la que Tim Berners-Lee tenía en su escritorio venían con 8 MB de memoria RAM, que podía expandirse a 16; sí, megas. Este teléfono que llevo en el bolsillo tiene entre 256 y 128 veces más RAM; mi PC tiene 1000 veces más memoria.
En su momento, sin embargo, 8 MB de RAM era un privilegio, con la mayoría de las computadoras personales de la época provistas de 1 MB de memoria o menos.
Como adelanté, otro detalle interesante de la computadora donde corrió el primer servidor Web es su software. Usaba el NeXTSTEP, un sistema operativo tipo Unix basado en el núcleo Mach de la Universidad de Carnegie Mellon. Ofrecía, además, el lenguaje de programación Objective-C, nacido a principios de la década del '80 de la mano de Brad Cox y Tom Love, que se propusieron añadirle al lenguaje C la orientación a objetos que era el sello de otro célebre lenguaje de la época, el Smalltalk.
¿Qué tiene que ver esto con la informática actual? Fijate: el NeXTSTEP se convirtió en el OS X, el sistema operativo de las actuales Mac, y en el iOS, el sistema de las iPad y los iPhone. Objective-C es el lenguaje que se usa hoy, aggiornado, para crear aplicaciones para las Mac, el iPhone y la iPad. De hecho, el entorno de desarrollo que traían las NeXT, llamada Project Builder , es abuela de la actual Xcode . Este conjunto de herramientas de software integradas trazó, pues, las bases de los modernos esquemas de tiendas de aplicaciones vinculadas a dispositivos.
Para quienes estén interesados en estas brillantes y fugaces estrellas de la tecnología que fueron las NeXT, aquí hay un sitio con mucha y buena información:http://www.kevra.org/TheBestOfNext/
Aunque en la foto no se distingue bien, la NeXT de Berners-Lee poseía un gabinete de magnesio en forma de cubo y de color negro, lo que le valió el mote de The Cube . Mote que Jobs adoptaría para la siguiente generación, que bautizaría NeXT Cube. Fabricada en 1990, venía de base con 16 MB de RAM, un procesador más potente (el 68040), disco duro de 400 MB y una ranura adicional para diskettes, cerca del borde superior.
Por supuesto, aparte del poder de cómputo está el asunto de la conectividad. Esos números simplemente se van de escala. Para no abundar y sólo como ejemplo, Google necesita 200.000 veces más ancho de banda que el de un hogar para ofrecer sus servicios.
***
Muchas grandes cosas han tenido inicios humildes. Pero pocas tan colosales y a la vez de arranque tan humilde como la Web, que 20 años después tiene no ya un solitario sitio alojado en una computadora de escritorio, sino más de 630 millones de sites operando en inmensas granjas de servidores.
Se ha vuelto tan grande que ya no cabe en una foto..



Twitter Delicious Facebook Digg Stumbleupon Favorites More

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Hostgator Coupon Code