Mostrando entradas con la etiqueta inteligencia artificial. Mostrar todas las entradas
Mostrando entradas con la etiqueta inteligencia artificial. Mostrar todas las entradas

lunes, 18 de febrero de 2019

Racionalidad: Algoritmos de precios aprenden solitos a hacer colusión

Inteligencia artificial, precios algorítmicos y colusión



Emilio Calvano, Giacomo Calzolari, Vincenzo Denicolò, Sergio Pastorello

VOX CEPR Portal

A las agencias antimonopolio les preocupa que los algoritmos de precios autónomos cada vez más utilizados por los proveedores en línea puedan aprender a confabularse. Esta columna utiliza experimentos con algoritmos de fijación de precios impulsados por AI en un entorno controlado para demostrar que incluso los algoritmos relativamente simples aprenden sistemáticamente a jugar estrategias colusivas sofisticadas. Lo más preocupante es que aprenden a coludir por ensayo y error, sin conocimiento previo del entorno en el que operan, sin comunicarse entre sí, y sin estar específicamente diseñados o instruidos para conspirar.





¿Recuerdas tu última compra en línea? Lo más probable es que el precio que pagaste no fue establecido por los humanos, sino por un algoritmo de software. Ya en 2015, más de un tercio de los proveedores en Amazon.com tenían precios automatizados (Chen et al. 2016), y la participación ciertamente ha aumentado desde entonces, con el crecimiento de una industria de software de revisión de precios que suministra sistemas de precios llave en mano, incluso los vendedores más pequeños ahora pueden pagar precios algorítmicos.

A diferencia de los sistemas tradicionales de gestión de ingresos que las empresas como las aerolíneas y los hoteles utilizan desde hace mucho tiempo, en los que el programador sigue siendo el responsable de las opciones estratégicas, los programas de precios que están surgiendo ahora son mucho más "autónomos". Estos nuevos algoritmos adoptan la misma lógica que los programas de inteligencia artificial (IA) que han alcanzado recientemente actuaciones sobrehumanas en entornos estratégicos complejos como el juego de Go o el ajedrez. Es decir, el programador instruye al algoritmo solo sobre el objetivo del ejercicio: ganar el juego, por ejemplo, o generar el mayor beneficio posible. No se le dice específicamente cómo jugar el juego, sino que aprende de la experiencia. En una fase de entrenamiento, el algoritmo experimenta activamente con las estrategias alternativas jugando contra clones en entornos simulados, adoptando con mayor frecuencia las estrategias que mejor se desempeñan. En este proceso de aprendizaje, el algoritmo requiere poca o ninguna guía externa. Una vez que se completa el aprendizaje, el algoritmo se pone a trabajar.

Desde el punto de vista antimonopolio, la preocupación es que estos algoritmos de precios autónomos pueden descubrir de forma independiente que, para obtener el mayor beneficio posible, deben evitar las guerras de precios. Es decir, pueden aprender a coludir incluso si no se les ha indicado específicamente que lo hagan, e incluso si no se comunican entre sí. Esto es un problema. Primero, el "buen desempeño" desde el punto de vista de los vendedores, es decir, los altos precios, es malo para los consumidores y para la eficiencia económica. En segundo lugar, en la mayoría de los países (incluidos Europa y EE. UU.) Tal colusión 'tácita', que no se basa en la intención y la comunicación explícitas, actualmente no se considera ilegal, ya que es improbable que ocurra entre agentes humanos y eso, incluso si ocurrió, sería casi imposible de detectar. La sabiduría convencional, entonces, es que la aplicación agresiva de la ley antimonopolio podría producir muchos falsos positivos (es decir, condenar una conducta inocente), mientras que una política tolerante resultaría en relativamente pocos falsos negativos (es decir, excusando una conducta anticompetitiva). Sin embargo, con la llegada de los precios de la IA, la preocupación es que el equilibrio entre los dos tipos de error podría verse alterado. Aunque hasta el momento no se ha producido evidencia real de colusión algorítmica autónoma, 1 agencias antimonopolio están debatiendo activamente el problema.

Quienes están preocupados (por ejemplo, Ezrachi y Stucke 2015) argumentan que los algoritmos de AI ya superan a los humanos en muchas tareas, y no parece haber ninguna razón por la que los precios deban ser diferentes. Estos comentaristas se refieren también a una literatura de informática que ha documentado el surgimiento de cierto grado de precios no competitivos en simulaciones en las que los algoritmos independientes de fijación de precios interactúan repetidamente. Algunos académicos (por ejemplo, Harrington 2018), están desarrollando caminos para hacer que la colusión de AI sea ilegal.

Los escépticos dicen que estas simulaciones no utilizan el modelo canónico de colusión, por lo que no representan los mercados reales (por ejemplo, Kuhn y Tadelis 2018, Schwalbe 2018) .3 Además, el grado de precios anticompetitivos parece ser limitado, y en cualquier caso los precios altos como tales no necesariamente indican colusión, que en cambio debe incluir algún tipo de esquema de recompensa y castigo para coordinar el comportamiento de las empresas. Según los escépticos, lograr una auténtica colusión sin comunicación es una tarea desalentadora no solo para los humanos sino también para los programas de inteligencia artificial más inteligentes, especialmente cuando el entorno económico es estocástico. Cualquiera que sea el exceso de precios que se encuentre en las simulaciones podría deberse a la falla de los algoritmos para aprender el equilibrio competitivo. Si esto fuera así, entonces habría pocas razones para preocuparse, dado que el problema probablemente se desvanecerá a medida que la inteligencia artificial se desarrolle más.

Para informar este debate de políticas, en un artículo reciente (Calvano et al. 2018a) construimos agentes de precios de AI y los dejamos interactuar repetidamente en entornos controlados que reproducen el modelo canónico de colusión de los economistas, es decir, un juego de precios repetidos con movimientos simultáneos y precio completo. flexibilidad. Nuestros hallazgos sugieren que en este marco, incluso los algoritmos de precios relativamente simples aprenden sistemáticamente a jugar sofisticadas estrategias colusivas. Las estrategias aplican castigos que son proporcionales a la extensión de las desviaciones y son de duración finita, con un retorno gradual a los precios de la desviación previa.

La Figura 1 ilustra las estrategias de castigo que los algoritmos aprenden a jugar de manera autónoma. Partiendo de los precios (colusorios) en los que los algoritmos han convergido (la línea de puntos gris), anulamos la elección de un algoritmo (la línea roja), forzándolo a desviarse hacia abajo al precio competitivo o de Nash (la línea de puntos naranja) para uno período. El otro algoritmo (la línea azul) sigue jugando según lo prescrito por la estrategia que ha aprendido. Después de esta desviación exógena en el período, ambos algoritmos recuperan el control del precio.

Figura 1 Respuestas de los precios ante la desviación del recorte de precios.


Nota: Las líneas azul y roja muestran la dinámica del precio a lo largo del tiempo de dos algoritmos de precios autónomos (agentes) cuando el algoritmo rojo se desvía del precio colusivo en el primer período.

La figura muestra la trayectoria del precio en los periodos posteriores. Claramente, la desviación se castiga inmediatamente (el precio de la línea azul cae inmediatamente después de la desviación de la línea roja), lo que hace que la desviación no sea rentable. Sin embargo, el castigo no es tan severo como podría ser (es decir, la reversión al precio competitivo), y es solo temporal; luego, los algoritmos regresan gradualmente a sus precios de pre-desviación.

Lo que es particularmente notable es el comportamiento del algoritmo de desviación. Claramente, está respondiendo no solo al rival sino también a su propia acción. (Si respondiera solo al rival, no habría ninguna razón para reducir el precio en el período t = 2, ya que el rival ha cobrado el precio colusivo en el período t = 1). Este tipo de comportamiento autorreactivo es un signo distintivo de colusión genuina, y sería difícil explicarlo de otra manera.

La colusión que encontramos es típicamente parcial: los algoritmos no convergen con el precio de monopolio, sino uno más bajo. Sin embargo, mostramos que la propensión a coludir es obstinada: la colusión sustancial continúa prevaleciendo incluso cuando las empresas activas son tres o cuatro en número, cuando son asimétricas y cuando operan en un entorno estocástico. La literatura experimental con sujetos humanos, por el contrario, ha encontrado consistentemente que prácticamente no pueden coordinarse sin una comunicación explícita, salvo en el caso más simple, con dos agentes simétricos y sin incertidumbre.

Lo más preocupante es que los algoritmos no dejan rastro de acción concertada: aprenden a coludir simplemente por prueba y error, sin conocimiento previo del entorno en el que operan, sin comunicarse entre sí y sin estar diseñados o instruidos específicamente. para conspirar Esto plantea un verdadero desafío para la política de competencia. Si bien se necesita más investigación antes de considerar medidas políticas, el llamado de atención de las agencias antimonopolio parece estar bien fundamentado.

Referencias

Calvano, E, G Calzolari, V Denicolòand S Pastorello (2018a), “Artificial intelligence, algorithmic pricing and collusion,” CEPR Discussion Paper 13405.

Calvano, E, G Calzolari, V Denicolòand S Pastorello (2018b), “Algorithmic Pricing What Implications for Competition Policy?” forthcoming in Review of Industrial Organization.

Chen, L, A Mislove and C Wilson (2016), “An Empirical Analysis of Algorithmic Pricing on Amazon Marketplace”, in Proceedings of the 25th International Conference on World Wide Web, WWW'16, World Wide Web Conferences Steering Committee, pp. 1339-1349.

Ezrachi, A and M E Stucke (2015), "Artificial Intelligence and Collusion: When Computers Inhibit Competition", Oxford Legal Studies Research Paper No. 18/2015, University of Tennessee Legal Studies Research Paper No. 267.

Harrington, J E, Jr (2018), “Developing Competition Law for Collusion by Autonomous Price-Setting Agents,” working paper.

Schwalbe, U (2018), “Algorithms, Machine Learning, and Collusion,” working paper.

Kühn K U and S Tadelis (2018), “The Economics of Algorithmic Pricing: Is collusion really inevitable?”, working paper.

Notas finales

  1. El único caso antimonopolio que involucraba precios algorítmicos fue el desafío exitoso por parte de las agencias antimonopolio estadounidenses y británicas de un software de precios supuestamente diseñado para coordinar el precio de los carteles de múltiples vendedores en línea. Ver Wired Magazine, U.S. v. Topkins, 2015 y caso CMA 2015 n. 50223.
  2. Véanse, por ejemplo, los comentarios de M. Vestager, Comisionado Europeo, en la 18ª Conferencia sobre Competencia de Bundeskartellamt, Berlín, 16 de marzo de 2017 ("Algoritmos y Competencia"), y el discurso de M. Ohlhausen, Presidente interino de la FTC, en la Conferencia de Concurrencias Antimonopolio en la Conferencia del Sector Financiero, Nueva York, 23 de mayo de 2017 ("¿Debemos temer las cosas que suenan en la noche? Algunos pensamientos iniciales sobre la intersección de la Ley Antimonopolio y el Precio Algorítmico"). La OCDE patrocinó una mesa redonda sobre algoritmos y colusión en junio de 2017, y en septiembre de 2017, la Oficina de Competencia de Canadá publicó un documento de discusión sobre la capacidad de los algoritmos para coludir como un tema importante para la aplicación de la ley antimonopolio (“Big data e Innovación: implicaciones para la política de competencia en Canadá"). Más recientemente, la CMA británica publicó un libro blanco sobre "Algoritmos de precios" el 8 de octubre de 2018. Por último, la séptima sesión de las Audiencias de la FTC sobre competencia y protección del consumidor, del 13 al 14 de noviembre de 2018, se centró en el "impacto de los algoritmos y la artificialidad". Inteligencia."
  3. Estas simulaciones suelen utilizar modelos de precios escalonados que no encajan bien con los precios algorítmicos (Calvano et al. 2018a, 2018b).

domingo, 10 de febrero de 2019

IA: El Pentágono usará inteligencia artificial para predecir crisis políticas y financieras

EE.UU. crea un algoritmo que predice golpes de estado y crisis financieras

El Pentágono trabaja en una inteligencia artificial de nueva generación capaz de ‘explicar el mundo’


Inteligencia artificial (Dong Wenjie / Getty)


Alberto Barbieri |  La Vanguardia


Son tiempos difíciles para refinados estrategas a lo Henry Kissinger o incluso para simples adivinos. Los algoritmos pronto podrían llegar a predecir el futuro o, al menos, interpretar un mundo cada vez más complicado. Es el sueño del Pentágono y de su brazo para la innovación tecnológica, la agencia gubernamental Darpa. De modo que, donde no llega el análisis geopolítico, pronto podría llegar la inteligencia artificial.

Si estuviéramos ante la enésima provocación de Elon Musk o la promesa de una nueva startup californiana en busca de inversores, cabría ser escépticos. Pero el hecho de que se trate de un proyecto financiado por el Departamento de Defensa de los EE.UU. obliga a aumentar el nivel de atención.

DARPA es la agencia del Pentágono para el desarrollo de las tecnologías de frontera

The Defense Advanced Research Projects Agency (DARPA) fue creada en 1958, cuando el ritmo de los descubrimientos tecnológicos viajaba a una velocidad espectacular, en el apogeo de la Guerra Fría. Desde entonces, la agencia desempeña la delicada tarea de mantener a los EE.UU. a la vanguardia en términos de tecnologías avanzadas para la seguridad nacional.

Prácticamente todas las patentes de tecnologías de frontera más decisivas provienen de aquí. Desde el GPS a los teléfonos móviles. En 1968, en estos laboratorios se inventó Internet, que fue ‘regalado’ al mundo solo en 1991, después del colapso de la Unión Soviética y el triunfo de Washington como única potencia planetaria. Suelen ir en serio.

El proyecto Kairos

El nuevo proyecto de Darpa se llama KAIROS (knowledge-directed artificial intelligence reasoning over schemas) y quiere aprovechar al máximo la habilidad principal de la Inteligencia Artificial (IA): encontrar patrones y correlaciones escondidos en una miríada de datos.

Definidos por primera vez por el científico cognitivo Jean Piaget en 1923, los esquemas son unidades de conocimiento que los humanos emplean para dar sentido a los eventos al organizarlos en estructuras narrativas comunes. Por ejemplo, ir a una tienda generalmente implica un esquema de transacción, que pasa por un conjunto de acciones, roles (comprador, vendedor) y secuencias temporales (los artículos se escogen y luego se pagan). El modelo de funcionamento de Kairos (Darpa.mil)

Acciones fáciles de imaginar para una persona, pero sorprendentemente complicadas de definir formalmente de tal manera que un sistema informático pueda entenderlas. Nos resultan familiares por su uso prolongado y frecuente, pero no son inmediatamente obvias, ni están sujetas a reglas físicas, como la aceleración constante en la caída de una manzana de un árbol.

Kairos, asegura Darpa, “tiene como objetivo desarrollar un sistema semi-autónomo capaz de identificar y realizar un seguimiento de las correlaciones entre eventos y datos aparentemente no relacionados, ayudando así a crear narraciones más generales del mundo que nos rodea y a prever cómo evolucionarán”.

Predecir golpes de estado, revoluciones o crisis financieras

El objetivo, por tanto, es crear un sistema de machine learning capaz de tamizar todos los eventos y noticias que cada día invaden los medios de comunicación, internet y las redes sociales, para encontrar un gran esquema común con el que interpretar la actualidad y vislumbrar el futuro.

Como en todos los sistemas de aprendizaje automático e inteligencia artificial, la materia prima clave son los datos. Cuanto más datos se recopilan, más posibilidades hay de elaborar patrones; sin embargo, al mismo tiempo, cuanto más y complejos son los datos recopilados, más difícil es interpretarlos.

La inteligencia artificial puede ser capaz de prever el futuro (eclipse_images / Getty)

La intención del Pentágono es eliminar la arbitrariedad y el margen de error de los analistas políticos, militares y económicos y capacitar una tecnología que pueda averiguar con anticipación la próxima crisis en los mercados financieros, un golpe de estado o una revuelta popular para informar a tiempo los organismos para los que trabaja.

Las aplicaciones militares y de defensa son bastantes obvias, si pensamos, por ejemplo, en el fracaso de los servicios secretos occidentales en el período de las Primaveras árabes, pese a las señales que corrían abundantes en las redes sociales. Los expertos en servicios de inteligencia, de hecho, concuerdan en que el 90% de la información útil a entender la realidad no es secreta, sino que se encuentra disponible públicamente. Basta con saberla leer e interpretar. Tal vez una máquina lo haga mejor que todos los 007.
“Kairos pretende crear narraciones más generales del mundo que nos rodea y prever cómo evolucionarán” Darpa

“Descubrir conexiones relevantes a través de montañas de información y los elementos estáticos que subyacen requiere información temporal y patrones de eventos, que pueden ser difíciles de capturar a escala con las herramientas y sistemas disponibles actualmente”, explica el Dr. Boyan Onyshkevych, gerente de Darpa en su página web.

El proyecto Kairos se encuentra todavía en su etapa teórica. Lo que sí es seguro es que, al principio, el sistema se limitará a asimilar una gran cantidad de información, multimedia y multilingüe, comenzando con crear una biblioteca de esquemas básicos. En una segunda fase, el algoritmo se probará con la información en circulación, con el objetivo de reconducir los diversos datos dentro de patrones predefinidos.

El papel clave de la inteligencia artificial en la geopolítica

En un futuro próximo, el uso de la inteligencia artificial representará un aspecto decisivo en el campo bélico y en los equilibrios entre potencias. Gracias a las enormes inversiones de los últimos años, en 2025, China quiere adelantar a los EE.UU. en el dominio de la IA. La apuesta por la tecnología, de hecho, es una forma mucho más rápida de la militar para reducir la diferencia existente entre la potencia hegemónica y su contrincante asiático.

En este contexto, Darpa ha anunciado la inversión de 2 mil millones de dólares para la puesta en marcha de una nueva generación de IA, la tercera. Con el programa ‘ AI Next ’, que también incluye el proyecto Kairos, la agencia pretende “explorar nuevas teorías y aplicaciones que podrían permitir a las máquinas adaptarse a situaciones cambiantes”.

El proyecto AI Next de Darpa (Darpa.mil)

El estudio de la inteligencia artificial por parte del gobierno de los EE.UU. comenzó ya en los años sesenta. En esos años nació la que se define como ‘primera ola’, que incluye principalmente software basados en reglas, como aquellos capaces de desafiarnos al ajedrez.

La segunda generación, a partir de los años 90, se basa en algoritmos que aprenden, extrayendo de una rica muestra de ejemplos las lógicas que luego usan para proporcionar una respuesta. Así es como funcionan los programas de reconocimiento de imágenes, que pueden identificar a un gato porque han ‘asimilado’ cientos de imágenes de gatos asociadas con la palabra gato.

Darpa ahora tiene ambiciones mucho más elevadas y financiará la investigación de nuevas tecnologías capaces de motivar los mecanismos y las lógicas utilizadas. Los nuevos algoritmos tendrán que reconocer la presencia de un gato en una foto, pero también deberán poder explicar su deducción, diciendo, por ejemplo, que se trata de un animal de cuatro patas, con cola y pelaje, etc. La crisis de liderazgo y educación al pensamiento estratégico se intenta solucionar también así.

Inteligencia artificial (Caiaimage/Rafal Rodzoch / Getty)

jueves, 1 de marzo de 2018

De las Fake-News al Info-Apocalipsis

El experto que predijo la crisis de las noticias falsas de 2016 ahora anuncia el info-apocalipsis

Aviv Ovady, un experto en tecnología, periodismo y redes sociales, advirtió que la manipulación de contenidos era una bomba antes de que estallara. Ahora señala que algunas tecnologías mucho más sofisticadas, como la falsificación realista de videos y la suplantación de mensajes de los votantes a los legisladores, podrían causar problemas mucho más graves
Infobae



A mediados de 2016, Aviv Ovadya, tecnólogo principal del Centro sobre Responsabilidad en las Redes Sociales (CSMR) de la Universidad de Michigan, escuchó alarmas internas. La economía de la atención que habían creado esas plataformas no tenía, a diferencia de la real, un sistema de controles y equilibrios. En plena campaña por la presidencia de los Estados Unidos, un momento redituable como pocos, si las plataformas como Facebook o Twitter priorizaban los clicks, los share y, en definitiva, la publicidad —es decir, el dinero— nada protegía la veracidad de la información.

La crisis de las noticias falsas, que Ovadya anticipó —pues presentó un informe a las grandes empresas tecnológicas, aunque resultó un esfuerzo vano—, se convirtió en realidad.

"Me di cuenta que si estos sistemas se desbocaban, no habría nada que los controlase, y la cosa iba a ser seria, y velozmente", dijo a BuzzFeed en una nota que advierte algo mucho peor: la crisis de las noticias falsas fue apenas una muestra de lo que depara el futuro inmediato. Que, cree, luce como el info-apocalipsis.


El experto en tecnología e información Aviv Ovadya anticipó la crisis de las noticias falsas, pero las plataformas no prestaron atención. Ahora prevé un escenario de manipulación mucho peor.

Lo que sucedió se basó en recursos poco sofisticados —algoritmos que hacía prevalecer la información engañosa o polarizadora, porque generaba más interacciones y por ende, más dinero para la plataforma— en comparación con los que son capaces de crear una realidad completamente falsa: "herramientas que se desarrollan a toda velocidad basadas en la inteligencia artificial, el aprendizaje automático y la realidad aumentada", como describió el autor del artículo, Charlie Warzel.

El futuro que ve este experto en tecnología trae un montón de herramientas tecnológicas hábiles, fáciles de usar y sobre todo casi imposibles de detectar "para manipular la percepción y falsificar la realidad".

En una escena virtual vulnerable —"a la propaganda, a la desinformación, a la publicidad oscura de gobiernos extranjeros"— la capacidad de desarrollar, por ejemplo, audios y videos tan realistas que no se pueden distinguir de los reales, dañaría, al punto de cuestionar su relevancia, "una piedra angular del discurso humano: la credibilidad de los hechos", según BuzzFeed.


La inteligencia artificial es un factor clave del info-apocalipsis en el vulnerable escenario virtual.
Cualquiera —al menos cualquier individuo u organización política con los recursos y la malicia— podría desatar el info-apocalipsis, hacer que "parezca que algo ha sucedido, más allá de que haya pasado o no", según Ovadya, un graduado del MIT que también es investigador de innovación en el Centro Tow de Periodismo Digital en la Universidad de Columbia, con una beca Knight.

Ofreció un ejemplo que resuena en el escenario global del presente: uno que involucra a Donald Trump y a Kim Jong-un.

Lo llamó "manipulación diplomática".

Supone que a un algoritmo de aprendizaje automático se lo nutre de cientos de horas de videos del presidente de los Estados Unidos o del dictador norcoreano, con el objetivo de que luego produzca un clip "casi perfecto, virtualmente imposible de distinguir de la realidad", de alguno de ellos declarando la guerra. Ovadya enfatizó que la perfección no es requisito: "Basta con que sea lo suficientemente bueno como para que el enemigo crea que sucedió algo que provoque una respuesta impulsiva y temeraria de represalia".


Una crisis de la envergadura de las noticias falsas fue posible con herramientas tecnológicas mucho menos sofisticadas que las que amenazan hoy la credibilidad de los hechos. (iStock)
¿No será alarmista? "El alarmismo puede ser bueno, habría que ser alarmista sobre estas cosas", dijo a Warzel mientras le mostraba escenarios posibles de noticias falsas, campañas de desinformación asistidas por inteligencia artificial y propaganda, todos posibles en el futuro cercano.

El info-apocalipsis "es mucho peor de lo que la mayoría de nosotros se puede imaginar", dijo. "Y cuanto más lejos en el futuro se mira, peor es".

Universidades como Stanford y Washington estudian programas que crean videos y audios manipulados; "en rincones turbios de la internet hay gente que comenzó a usar algoritmos de aprendizaje automático para crear con facilidad videos pornográficos que imponen de manera realista las cabezas de celebridades —o de cualquiera— en los cuerpos de los actores".

A medida que estas armas de distorsión masiva se expandan, se podría realizar, por ejemplo, una campaña para manipular la legislación que pasa el Congreso. "Los robots con inteligencia artificial, cada vez más verosímiles, podrían competir con los humanos reales para obtener la atención de los legisladores, ya que sería muy difícil diferenciarlos". Las bandejas de entrada del correo de los senadores se podrían inundar de mensajes falsos de votantes reales, cuyos datos se armarían a partir de texto, audio y otros materiales de sus cuentas en las redes sociales.


Los robots con inteligencia artificial podrían influir sobre la legislación mucho más que los votantes: otro aspecto el info-apocalipsis. (iStock)
Y las bandejas de entrada del correo de esos votantes reales se podrían inundar también de una clase de spam de nueva generación, tan sofisticado e indistinguible de un mensaje real, que la única solución sería dejar de mirar el correo.

La técnica se llama phishing automatizado, y consiste en suplantar la identidad de otra persona para crear mensajes falsos pero verosímiles. "Básicamente, se trata de usar la inteligencia artificial para revisar nuestra presencia en redes sociales, por ejemplo", y a partir de ahí crear no un e-mail de una anciana que necesita compartir su herencia millonaria sino uno de un amigo de quien lo recibe, un amigo con el que tiene correspondencia constante, mensajería constante, etcétera.

El efecto, definió Ovadya, sería tan abrumador que causaría "apatía por la realidad": "Sitiada por un torrente de desinformación constante, la gente simplemente comenzaría a renunciar". Y cuando la gente deja de informarse "una democracia funcional se vuelve inestable".


Las noticias falsas, que afectaron la capacidad de decisión política de los individuos, se multiplicaron en la caja de resonancia de redes sociales como Facebook.
Lo peor es que, según este y otros expertos, el phishing automatizado es inevitable. "No creo que haya una solución por ahora. Hay que crear cosas en el nivel de la infraestructura de internet para detenerlo, si comienza".

Un extra de perjuicio que traen todas estas herramientas es que no sólo permiten crear información falsa, sino que sirven para poner en duda la verdadera: basta con señalar que un video que perjudica a un político podría haber sido manipulado para hacer añicos el hecho de que sea real.

"Ian Goodfellow, un científico investigador de Google Brain que ayudó a escribir el código de la primera red generativa antagónica (GAN), que es una red neuronal capaz de aprender sin supervisión humana, advirtió que la inteligencia artificial podría retrasar el consumo de noticias en unos 100 años", advirtió Warzel en su artículo. La paradoja consiste en que las posibilidades de desarrollo no tienen límites, pero en este plano "probablemente cierren algunas delas puertas que nuestra generación se ha acostumbrado a tener abiertas".


El objetivo de Aviv Ovadya y otros expertos es crear, como en los sistemas democráticos, una red de controles y equilibrios que permitan el desarrollo tecnológico en beneficio de las personas. (iStock)

Ovadya no está contra el desarrollo, desde luego, ni contra la cultura del software de fuente abierta. "El objetivo no es detener la tecnología sino asegurarnos de que tengamos un equilibrio positivo para la gente", dijo a BuzzFeed. "No estoy gritando 'Esto es lo que va a pasar' sino diciendo 'pensémoslo seriamente, analicemos las implicaciones'".

Algo así sucederá en la primera reunión que el NYC Media Lab —que facilita la colaboración entre empresas y académicos de la ciudad de Nueva York— sobre los peores escenarios del futuro de las noticias y la tecnología. El encuentro, llamado Fake News Horror Show, sucederá en junio y se describe como "una feria de ciencias sobre las herramientas de propaganda más aterradoras, algunas reales y algunas imaginarias, pero todas plausibles".

A pesar de todo, Ovadya no ha perdido el optimismo. Los años inmediatos, teme, dejan poco margen para la mejora; en particular, distinguió, porque las plataformas todavía están dominadas por los incentivos sensacionalistas, ya que el click es lo que importa y en consecuencia el contenido de baja calidad es el que abunda. "Eso es algo difícil de cambiar en general", dijo, "y cuando se lo combina con un sistema como Facebook, que es un acelerador de contenidos, se vuelve muy peligroso".

sábado, 11 de febrero de 2017

Somos secretamente guiados por algoritmos a lo largo de todo el día

Cómo los algoritmos (secretamente) dirigen el mundo
Phys.org



Cuando usted navega en línea para un nuevo par de zapatos, escoger una película para transmitir en Netflix o solicitar un préstamo de coche, un algoritmo probablemente tiene su palabra para decir sobre el resultado.
Las complejas fórmulas matemáticas están desempeñando un papel cada vez más importante en todos los ámbitos de la vida: desde la detección de cánceres de piel hasta la sugerencia de nuevos amigos en Facebook, decidir quién obtiene un empleo, cómo se despliegan los recursos policiales, quién obtiene un seguro a qué costo, o quien está en la lista de "No permitido a volar".

Algoritmos se están utilizando-experimentalmente-para escribir artículos de noticias de datos en bruto, mientras que la campaña presidencial de Donald Trump fue ayudado por los vendedores de comportamiento que utilizaron un algoritmo para localizar las concentraciones más altas de "votantes persuasibles".
Pero si bien estas herramientas automatizadas pueden inyectar una medida de objetividad en las decisiones subjetivas anteriores, los temores están aumentando por la falta de transparencia que los algoritmos pueden implicar, con la presión de aplicar estándares de ética o "rendición de cuentas".
La científica de datos Cathy O'Neil advierte sobre las fórmulas de "confiar ciegamente" para determinar un resultado justo.
"Los algoritmos no son inherentemente justos, porque la persona que construye el modelo define el éxito", dijo.

Ampliar desventajas

O'Neil argumenta que aunque algunos algoritmos pueden ser útiles, otros pueden ser nefastos. En su libro de 2016, "Weapons of Math Destruction", cita algunos ejemplos preocupantes en los Estados Unidos:
- Las escuelas públicas en Washington DC en 2010 despidieron a más de 200 maestros -incluyendo a varios instructores muy respetados- basados ​​en puntuaciones en una fórmula algorítmica que evaluó el rendimiento.
- Un hombre diagnosticado con desorden bipolar fue rechazado para el empleo en siete minoristas importantes después de que un tercero "prueba de la personalidad" lo considerara un riesgo alto basado en su clasificación algorítmica.
- Muchas jurisdicciones están utilizando "políticas preventivas" para trasladar los recursos a posibles "puntos calientes". O'Neill dice que dependiendo de cómo los datos son alimentados al sistema, esto podría conducir al descubrimiento de más delitos menores y un "bucle de retroalimentación" que estigmatiza a las comunidades pobres.
- Algunos tribunales se basan en fórmulas ordenadas por computadora para determinar las penas de cárcel y la libertad condicional, lo que puede discriminar a las minorías teniendo en cuenta factores de "riesgo" tales como sus vecindarios y los vínculos de amigos o familiares con el crimen.
- En el mundo de las finanzas, los corredores "raspan" los datos de fuentes en línea y otras en nuevas formas de tomar decisiones sobre el crédito o los seguros. Esto a menudo amplifica los prejuicios contra los más desfavorecidos, argumenta O'Neil.
Sus hallazgos se hicieron eco en un informe de la Casa Blanca el año pasado advirtiendo que los sistemas algorítmicos "no son infalibles-se basan en los insumos imperfectos, la lógica, la probabilidad y las personas que los diseñan".
El informe señaló que los sistemas de datos pueden idealmente ayudar a eliminar el sesgo humano, pero advirtió contra los algoritmos "sistemáticamente en desventaja ciertos grupos".

Migas digitales

Zeynep Tufekci, profesor de la Universidad de Carolina del Norte que estudia tecnología y sociedad, dijo que las decisiones automatizadas a menudo se basan en datos recopilados sobre personas, a veces sin su conocimiento.
"Estos sistemas computacionales pueden inferir todo tipo de cosas sobre usted desde sus migajas digitales", dijo Tufekci en una reciente conferencia de TED.
"Pueden inferir su orientación sexual, sus rasgos de personalidad, sus tendencias políticas, tienen poder predictivo con altos niveles de precisión".
Dichas ideas pueden ser útiles en ciertos contextos -como ayudar a los profesionales médicos a diagnosticar la depresión posparto- pero injustas en otros, dijo.
Parte del problema, dijo, proviene de pedir a las computadoras que respondan a preguntas que no tienen una sola respuesta correcta.
"Son preguntas subjetivas, abiertas y llenas de valor, preguntando a quién debe contratar la compañía, qué actualización de qué amigo se le debe mostrar, que convicto es más probable que reincidir".

¿El modelo de la UE?

Frank Pasquale, profesor de derecho de la Universidad de Maryland y autor de "The Black Box Society: Los algoritmos secretos que controlan el dinero y la información", comparte las mismas preocupaciones.
Sugiere que una manera de remediar los efectos injustos puede ser la aplicación de las leyes existentes sobre protección del consumidor o prácticas engañosas.
Pasquale apunta a la ley de protección de datos de la Unión Europea, establecida a partir del próximo año para crear un "derecho de explicación" cuando los consumidores se ven afectados por una decisión algorítmica, como un modelo que podría ampliarse.
Esto "obligaría a la transparencia o impedirá que los algoritmos se utilicen en ciertos contextos", dijo.
Alethea Lange, analista de política del Centro para la Democracia y la Tecnología, dijo que el plan de la UE "suena bien", pero "es realmente oneroso" y arriesgó demostrar que es impracticable en la práctica.
Ella cree que la educación y la discusión pueden ser más importantes que la aplicación en el desarrollo de algoritmos más justos.
Lange dijo que su organización trabajó con Facebook, por ejemplo, para modificar una fórmula muy criticada que permitía a los publicistas usar "afinidad étnica" en su orientación.

Chivo expiatorio

Otros, mientras tanto, advierten que los algoritmos no deberían ser un chivo expiatorio para los males de la sociedad.
"La gente se enoja y está buscando algo que culpar", dijo Daniel Castro, vicepresidente de la Fundación de Tecnología de la Información e Innovación.
"Estamos preocupados por el prejuicio, la responsabilidad y las decisiones éticas, pero estos existen si está utilizando algoritmos o no".






lunes, 21 de noviembre de 2016

Silicon Valley: Empresas de IA cosechan personal de las univesridades

Inteligencia artificial
Bebés de millones de dólares

Mientras Silicon Valley lucha por el talento, las universidades luchan por aferrarse a sus estrellas
The Economist



Que un programa de computadora puede golpear repetidamente al campeón del mundo en Go, un juego de mesa complejo, es un golpe de estado para el campo de rápido movimiento de la inteligencia artificial (AI). Otro juego de alto riesgo, sin embargo, se está llevando a cabo entre bastidores, ya que las empresas compiten para contratar a los expertos más inteligentes de la IA. Gigantes de la tecnología, incluyendo Google, Facebook, Microsoft y Baidu, están compitiendo para expandir sus actividades de IA. El año pasado gastaron unos 8.500 millones de dólares en ofertas, dice Quid, una firma de datos. Eso fue cuatro veces más que en 2010.

 En el pasado, las universidades empleaban a los mejores expertos en AI del mundo. Ahora las empresas de tecnología están saqueando los departamentos de robótica y aprendizaje automático (donde las computadoras aprenden de los propios datos) para los profesores y estudiantes de mayor vuelo, atrayéndolos con grandes salarios similares a los que obtienen los atletas profesionales.

El año pasado, Uber, una firma de taxis, reclutó a 40 de los 140 empleados del Centro Nacional de Ingeniería de Robótica de la Universidad Carnegie Mellon y creó una unidad para trabajar en automóviles autodirigidos. Eso atrajo los titulares porque Uber había prometido anteriormente financiar la investigación en el centro antes de decidir en lugar de pelar su personal. Otras firmas buscan talento más silenciosamente, pero con la misma obstinación. La migración al sector privado sorprende a muchos académicos. "Ni siquiera puedo mantener a mis estudiantes de posgrado", dice Pedro Domingos, un profesor de la Universidad de Washington que se especializa en aprendizaje de máquinas y ha tenido ofertas de trabajo de empresas de tecnología. "Las empresas están tratando de contratarlos antes de que se gradúen".

Los expertos en aprendizaje automático son los más demandados. Las grandes empresas de tecnología lo utilizan en muchas actividades, desde tareas básicas como el filtrado de spam y una mejor orientación de los anuncios en línea, hasta emprendimientos futuristas como automóviles autodirigidos o escaneo de imágenes para identificar enfermedades. A medida que los gigantes tecnológicos trabajan en características como la tecnología de asistente personal virtual, para ayudar a los usuarios a organizar sus vidas, o herramientas para facilitar la búsqueda a través de fotografías, dependen de los avances en el aprendizaje automático.

Las inversiones de las firmas tecnológicas en esta área ayudan a explicar cómo una reunión arcano, una vez en el mundo, la Conferencia sobre Sistemas de Procesamiento de Información Neural, celebrada cada diciembre en Canadá, se ha convertido en la Davos de la IA. Los participantes van a aprender, ser vistos y ser cortejados por los jefes que buscan talento. La asistencia se ha triplicado desde 2010, alcanzando los 3.800 el año pasado.

No existen estadísticas confiables para mostrar cuántos académicos se están uniendo a compañías de tecnología. Pero existen indicaciones. En el campo del "aprendizaje profundo", donde las computadoras extraen información de grandes conjuntos de datos utilizando métodos similares a las redes neuronales de un cerebro humano, la proporción de trabajos escritos por autores con alguna afiliación corporativa ha aumentado considerablemente.


Las empresas de tecnología no siempre han dedicado tanta atención y recursos a los expertos en IA. El campo fue ignorado y subfinanciado durante el "invierno de IA" de los años 80 y 90, cuando los acercamientos de moda a la IA no pudieron emparejar su promesa temprana. El auge de la máquina de aprendizaje comenzó en serio cuando Google comenzó a hacer ofertas centradas en la IA. En 2014, por ejemplo, compró DeepMind, el inicio de la victoria de la computadora en Go, de investigadores en Londres. Se rumoreaba que el precio sería de unos 600 millones de dólares. Alrededor de entonces, Facebook, que también esperaba comprar DeepMind, inició un laboratorio centrado en la inteligencia artificial y contrató a un académico de la Universidad de Nueva York, Yann LeCun, para dirigirla.

Las firmas ofrecen a los académicos la oportunidad de ver sus ideas llegar rápidamente a los mercados, lo que a muchos les gusta. Los empleos del sector privado también pueden liberar a los académicos de la incertidumbre de obtener subvenciones para la investigación. Andrew Ng, que dirige la investigación de AI para el gigante chino de Internet Baidu y solía enseñar a tiempo completo en Stanford, dice que las empresas de tecnología ofrecen dos cosas especialmente atractivas: mucha potencia informática y grandes conjuntos de datos. Ambos son esenciales para el aprendizaje moderno de la máquina.

Todo lo que está en el bien, pero la juerga de contratación también podría imponer costos. Una es que las universidades, incapaces de ofrecer salarios competitivos, serán dañadas si demasiadas mentes brillantes son atraídas permanentemente o distraídas de la sala de conferencias por los compromisos con empresas de tecnología. Países enteros también podrían sufrir. La mayoría de las grandes firmas tecnológicas tienen su sede en América; Lugares como Canadá, cuyas universidades han estado a la vanguardia del desarrollo de AI, podrían ver poco beneficio si su personal más brillante desaparece a las empresas más allá de la frontera, dice Ajay Agrawal, profesor de la Universidad de Toronto.

Otro riesgo es si la experiencia en AI se concentra desproporcionadamente en unas pocas empresas. Las empresas de tecnología hacen públicas algunas de sus investigaciones a través del código abierto. También prometen a los empleados que pueden escribir artículos. En la práctica, sin embargo, muchos hallazgos rentables no son compartidos. Algunos se preocupan de que Google, la empresa líder en el campo, podría establecer algo cercano a un monopolio intelectual. Anthony Goldbloom de Kaggle comparte la preeminencia de Google en IA con la concentración de científicos talentosos que trabajaron en el Proyecto Manhattan, que produjo la bomba atómica de Estados Unidos.

¿Listo para la cosecha?


La amenaza de una sola empresa que tiene demasiada influencia sobre el futuro de la IA llevó a varios jefes de tecnología, incluyendo a Elon Musk de Tesla, a comprometerse en diciembre a gastar más de mil millones de dólares en una iniciativa sin fines de lucro, OpenAI, Público de investigación. Se supone que combinar el enfoque de la investigación de una universidad con las aspiraciones de una empresa real del mundo. Se espera atraer a los investigadores para producir hallazgos y documentos originales.

Si las empresas tecnológicas, en lugar de las universidades, están mejor situadas para realizar progresos generales en la IA, es motivo de debate. Andrew Moore, decano del departamento de informática de la Universidad Carnegie Mellon, se preocupa por el potencial de un problema de "semilla de maíz": que las universidades podrían un día carecer de personal suficiente para producir futuros cultivos de investigadores. Como malo, con menos gente haciendo pura investigación académica, compartiendo ideas abiertamente o trabajando en proyectos con horizontes de tiempo de décadas, los futuros avances también podrían ser atrofiados.

Pero tales riesgos no se materializarán necesariamente. El dinero extra que se ofrece en AI ha excitado a nuevos estudiantes a entrar en el campo. Y las empresas de tecnología podrían ayudar a hacer aún más para desarrollar y reemplazar el talento, por ejemplo, dotando más profesores y ofreciendo más becas a los investigadores. Las empresas de tecnología tienen el dinero para hacerlo, y la motivación. En Silicon Valley es el talento, no el dinero, el recurso más escaso.

Corrección: Este artículo ha sido enmendado para dejar claro que los $ 8,5 mil millones gastados por las empresas de tecnología estaban en acuerdos y no incluían el dinero gastado en investigación y contratación.

jueves, 25 de agosto de 2016

El software se sigue comiendo al Mundo

'El software se está comiendo el mundo': Cómo robots, aviones no tripulados y la inteligencia artificial va a cambiar todo


Diane Francis - Financial Post


La súper estrella de la IA, Watson es un grupo de procesadores del tamaño de tres cajas de pizza que devora y calcula los datos a toda velocidad.


Silicon Valley, o la Greater Bay Area, es la 18º economía más grande en el mundo, más de la mitad del tamaño de la economía de Canadá y más grande que Suiza, Arabia Saudí o Turquía. Esto se debe a que la región se ha convertido en el líder mundial en la investigación y desarrollo de tecnologías emergentes, tales como la inteligencia artificial, la robótica, el software y la realidad virtual.

"El software está comiendo el mundo," dijo el inversor de Silicon Valley Marc Andreessen famoso en 2011. Fue controvertido, pero clarividente.

Cinco años más tarde, las máquinas y los drones guiado por software para realizar la cirugía, escribir historias de noticias, componer música, traducir, analizar, hacer la guerra, hacer guardia, escuchar, hablar y entretener. La mayor taquilla del mundo golpea - películas animadas como  “Frozen” o de efectos especiales en películas de Hollywood como "Star Wars" - se realizan mediante software.

La inteligencia artificial (AI) es una frase para describir las máquinas o programas inteligentes dirigidos por software. Y, hasta la fecha, la estrella es Watson, lleva el nombre del fundador de IBM. Es un conjunto de procesadores, el tamaño de tres cajas de pizza que devora y calcula los datos a toda velocidad. Para demostrar sus capacidades sobrehumanas, equipo de ingenieros de Watson hace cinco años ganó los más antiguos y más cerebral, juego de preguntas en la televisión llamado Jeopardy!

El juego requiere concursantes de comprender el lenguaje natural y responder a preguntas en prácticamente todos los campos de la actividad humana, a menudo con matices y juegos de palabras, en cuestión de segundos. Para preparar, todas las entradas de Wikipedia, junto con publicaciones periódicas y otros datos, se alimenta a Watson.

Watson borró los concursantes humanos con su memoria impecable, el reconocimiento de patrones instantánea y sus algoritmos de probabilidad que produjeron respuestas correctas en fracciones de segundo. Esto no era sólo cuestión de velocidad, sino de una máquina que piensa. Por ejemplo, se inserta la cuestión fue lo que podría llevar ropa de una joven en un barco de ópera? Watson respondió de inmediato: "What is H.M.S. Pinafore "el título de la ópera de Gilbert & Sullivan.

Desde entonces, Watson ha entrenado para ser un médico en varios hospitales. En Sloan Kettering Hospital, Watson ayuda a los oncólogos diagnosticar y prescribir mediante la revisión de los informes médicos 600.000 pruebas, 1,5 millones de registros de pacientes y los ensayos clínicos, y dos millones de páginas de texto de revistas médicas, hacer el seguimiento y reconocer patrones. los síntomas del paciente, los antecedentes familiares, la genética y la historia de la medicación son arrojados a la mezcla con el fin de desarrollar un plan de tratamiento personalizado.

En 2014, Watson también demostró una vena analítica sobrehumana. A la máquina se le pidió que resumiera los 10 argumentos más comunes, pros y contras, con respecto a la propuesta y polémico oleoducto Keystone XL desde Canadá a Texas. Se escaneó y se conservó todas las fuentes de noticias, revistas y periódicos de todo el mundo y en pocos minutos fue capaz de clasificar los diez principales argumentos a favor y diez mejores en contra en una frase cada uno.

Dentro de cinco a diez años, los consejos de administración, empresas, gobiernos, investigadores y trabajadores del conocimiento tendrán inhibidores de la aromatasa en sus escritorios o móviles como su principio de la síntesis y la herramienta de análisis. La próxima generación de inhibidores de la aromatasa, que ya están en desarrollo, será capaz de anticiparse a las necesidades y deseos, lo que sugiere soluciones, la predicción de resultados e identificar nuestras emociones.

Algunas partes del mundo y las economías están adoptando a estos avances con mayor rapidez que otros. Robots o aviones no tripulados se despliegan en las fábricas de Estados Unidos, habitaciones, las operaciones de venta, puntos de venta, sistemas de seguridad, almacenes operativo y, en Japón, como conserjes y cuidadores de hoteles. También se emplean como armas militares y bombarderos.

¿Con qué rapidez se adoptarán todos estos cambios se avecina va a variar de un país a otro y de un sector a otro? Pero el consenso en Silicon Valley es que, para el año 2030, los combustibles fósiles serán reemplazados por las energías renovables (en combinación con almacenamiento barato) y vehículos sin conductor, o robots sobre ruedas, será la sustitución de los vehículos tradicionales. Los sensores, computadoras y rayos láser que guían a los coches sin conductor son elementos que ya están siendo parcialmente incorporados por los fabricantes de automóviles. Para entonces, Alemania y otros países estarán totalmente dependiente de las energías renovables.

Las jurisdicciones más innovadoras hasta ahora son los Estados Unidos, Singapur, Alemania y Dinamarca, en particular en la adopción de las energías renovables, vehículos eléctricos y vehículos sin conductor para mejorar los flujos de tráfico y eliminar de estacionamiento, caminos expansiones y las emisiones.

"En una carretera normal funcionando, los coches ocupan una pequeña fracción del espacio", explicó el cofundador de Google Sergey Brin cuando su equipo dio a conocer el coche sin conductor en 2010. "Sobre todo, es que todo el aire entre usted y el coche delante de usted , a los lados de usted. coches de auto-conducción puede encadenar juntos y utilizar las carreteras mucho más eficiente ".

Hay pocas dudas de que el genio ha salido de la botella y el mundo debe adaptar y adoptar tecnologías incluso si destruyen lo viejo para crear nuevos productos, puestos de trabajo y modelos de negocio. Claramente, las consecuencias son, a la vez, lo que potencialmente aterradora, pero también muy beneficioso.

Por eso la advertencia de 2011 de Andreessen de que "el software está comiendo el mundo" debe ser atemperada con lo que escribió tres años más tarde: "Todavía existe una enorme brecha entre lo que hace mucha gente en puestos de trabajo hoy y lo que los robots y la IA pueden reemplazar, y hay será por décadas".

Twitter Delicious Facebook Digg Stumbleupon Favorites More

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Hostgator Coupon Code