Mostrando entradas con la etiqueta CPU. Mostrar todas las entradas
Mostrando entradas con la etiqueta CPU. Mostrar todas las entradas

domingo, 28 de junio de 2015

La poderosa Ley de Moore




Chispas en el Centro de una Revolución Tecnológica
Por Joel S Horwitz, Director, IBM Analytics
MIT Technology Review




La mayoría de nosotros en el negocio de tecnología están familiarizados con la Ley de Moore. Para aquellos de nosotros que no lo estamos, la ley establece que el número de transistores o potencia de procesamiento por pulgada cuadrada en circuitos integrados se duplica cada año desde su invención. Esta tendencia llevó primero a la aparición de los ordenadores personales y teléfonos inteligentes, y ahora con el Internet de las Cosas. 1 de cada 5 personas en el mundo tienen ahora un ordenador personal, y en los EE.UU., 4 de cada 5 personas lo tienen. En el caso de la telefonía móvil, 1 de cada 2 personas en el mundo tienen un smartphone, y en los EE.UU., 3 de 4. Mirando a través de incluso la pequeña ventana que tenemos para el potencial de la IOT, es claro que el, mundo conectado digital en que todos viven en está posicionado para reinventar los negocios, la ciencia y la sociedad.




Todos nuestros dispositivos conectados están alimentando un crecimiento de datos que es completamente nuevo para todos. A partir de hace 3 años, hemos generado más datos de los que hemos creado en los 199.997 años de la historia humana que conduce a ese punto. Lo que esto significa estelariza a de los datos es que la forma en que pensamos acerca de los datos y la tecnología tiene que cambiar en el nivel más fundamental. No es sólo una cuestión de escala, los tipos de datos y la posibilidad de que la forma en que afectan a la vida humana y el mundo son diferentes en el núcleo. Los enfoques tradicionales son o no van a funcionar con los nuevos, grandes cantidades de datos, o que no se van a producir resultados que son relevantes en un mundo donde la información en tiempo real desde dispositivos de cableado en todo, desde los latidos del corazón humano a los datos interestelar está fluyendo constantemente y a un ritmo creciente.

Por ejemplo, ya no podemos tratar de transformar los datos antes de cargarlo en un entorno de análisis. No podemos mover datos alrededor de analizarlo, ni podemos consultar datos con preconcebidas preguntas ya que hay demasiadas variables que pensar.

Afortunadamente, al mismo tiempo que esta explosión de datos que está sucediendo a nuestro alrededor, las barreras para trabajar con los datos y la tecnología de datos están bajando a un ritmo increíblemente rápido.

Ahora todo el mundo tiene acceso a la información, la tecnología y las herramientas necesarias para extraer valor aún sin explotar de esta explosión de datos. Para probar esto, he tracé datos de tendencias que agregados de fuentes en la web.




El costo de la computación, almacenamiento, y la banda ancha necesaria-para trabajar con datos y realizar análisis en es económicamente cero. El acceso a la tecnología por sí sola no es en sí mismo valioso.

Para obtener una visión de todos estos datos requiere la invención de nuevas disciplinas. El campo bien llamada de la Ciencia de Datos ha surgido, y los nuevos roles del Ingeniero de Datos y el científico de datos se encuentran en un estado de evolución, con los límites y las habilidades fluctuante y creciente como las nuevas tecnologías de datos como el aprendizaje de la máquina y la computación distribuida emergen. Cada función tiene su propio conjunto de competencias que en muchos aspectos está convirtiendo el estado actual de las mejores prácticas de análisis en su cabeza.

En primer lugar, acostumbrarse a la idea de matemáticas borrosas (probabilidad) y puntos de vista, incluso difusos (precisión: lo están convirtiendo en la norma, no la excepción La próxima conmoción:.. Cómo tomamos estas ideas y convertirlas en acción Aquí es donde Apache Spark viene en Spark hace uso de las nuevas tendencias en la ciencia de datos y crea lo que yo considero el sistema operativo de Google Analytics para programar datos en conocimiento El objetivo final:.. aplicaciones alimentadas por la inteligencia profunda.

Conducir demanda de aplicaciones inteligentes es la Internet de las Cosas. El IOT es el siguiente paso en el alcance de los análisis: la inteligencia integrada en todo. Conducir este mega tendencia es el aumento en la cantidad de cálculos por kwh que se va para arriba como mejoramos la eficiencia de energía-explicados con elegancia en este trabajo de Jonathan G. Koomey: la eficiencia eléctrica de la computación se ha duplicado aproximadamente cada año y medio por más de 6 décadas.





Con el tiempo, vamos a mirar atrás y ver este año, 2015, como el año en que hicimos un cambio fundamental en nuestra forma de pensar de ideas simplemente descubriendo a su aplicación a gran escala y en formas que producen ideas que no podemos imaginar en este momento . Vamos ya no consideramos conocimientos derivados de los datos como la información visualizada en el salpicadero. Insights derivados de los datos son la verdadera fuente de la próxima revolución industrial: la economía perspicacia. Mi parte, estoy emocionado por todos nosotros, ya que estamos cada vez más conectado a los dispositivos y el uno al otro en todo el mundo, para detener la roza nuestro camino a través de una jungla generada de forma aleatoria de los datos, y en lugar de tener una visión entregado a nosotros en el momento en el que más lo necesitamos.

Usted puede encontrar los detalles de mis fuentes de datos y análisis de la visualización sencilla a continuación.

## datasets
http://www.mkomo.com/cost-per-gigabyte
http://drpeering.net/white-papers/Internet-Transit-Pricing-Historical-An...
http://www.jcmit.com/cpu-performance.htm
https://www.dropbox.com/s/f7ag8zkkerqcnak/tech_cost_trends.csv?dl=0

## technology trends analysis

techdata = read.csv(“data/tech_cost_trends.csv”)
## visualize in trendline
plot(techdata$Year,techdata$Cost.of.Performance, type=”n”, xlab=”Year”,ylab=”Cost”, log=”y”)
lines(techdata$Year,techdata$Cost.of.Performance, col=”blue”, lwd=2.5)
lines(techdata$Year,techdata$Cost.of.Storage, col=”red”,lwd=2.5)
lines(techdata$Year,techdata$Cost.of.Transfer, col=”green”,lwd=2.5)

leg.txt <- c(“Performance”, “Storage”, “Transfer”)
legend(1990,1e+11, legend=leg.txt, lty=c(1,1), lwd=c(2.5,2.5),col=c(“blue”,”red”,”green”))

## visualize in ggplot
g <- ggplot(techdata, aes(techdata$Year))
g <- g+ geom_line(aes(y=techdata$Cost.of.Performance), colour=”blue”)
g <- g+ geom_line(aes(y=techdata$Cost.of.Storage), colour=”red”)
g <- g+ geom_line(aes(y=techdata$Cost.of.Transfer), colour=”green”)
g

Twitter Delicious Facebook Digg Stumbleupon Favorites More

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Hostgator Coupon Code