Mostrando entradas con la etiqueta algoritmo. Mostrar todas las entradas
Mostrando entradas con la etiqueta algoritmo. Mostrar todas las entradas

jueves, 1 de marzo de 2018

De las Fake-News al Info-Apocalipsis

El experto que predijo la crisis de las noticias falsas de 2016 ahora anuncia el info-apocalipsis

Aviv Ovady, un experto en tecnología, periodismo y redes sociales, advirtió que la manipulación de contenidos era una bomba antes de que estallara. Ahora señala que algunas tecnologías mucho más sofisticadas, como la falsificación realista de videos y la suplantación de mensajes de los votantes a los legisladores, podrían causar problemas mucho más graves
Infobae



A mediados de 2016, Aviv Ovadya, tecnólogo principal del Centro sobre Responsabilidad en las Redes Sociales (CSMR) de la Universidad de Michigan, escuchó alarmas internas. La economía de la atención que habían creado esas plataformas no tenía, a diferencia de la real, un sistema de controles y equilibrios. En plena campaña por la presidencia de los Estados Unidos, un momento redituable como pocos, si las plataformas como Facebook o Twitter priorizaban los clicks, los share y, en definitiva, la publicidad —es decir, el dinero— nada protegía la veracidad de la información.

La crisis de las noticias falsas, que Ovadya anticipó —pues presentó un informe a las grandes empresas tecnológicas, aunque resultó un esfuerzo vano—, se convirtió en realidad.

"Me di cuenta que si estos sistemas se desbocaban, no habría nada que los controlase, y la cosa iba a ser seria, y velozmente", dijo a BuzzFeed en una nota que advierte algo mucho peor: la crisis de las noticias falsas fue apenas una muestra de lo que depara el futuro inmediato. Que, cree, luce como el info-apocalipsis.


El experto en tecnología e información Aviv Ovadya anticipó la crisis de las noticias falsas, pero las plataformas no prestaron atención. Ahora prevé un escenario de manipulación mucho peor.

Lo que sucedió se basó en recursos poco sofisticados —algoritmos que hacía prevalecer la información engañosa o polarizadora, porque generaba más interacciones y por ende, más dinero para la plataforma— en comparación con los que son capaces de crear una realidad completamente falsa: "herramientas que se desarrollan a toda velocidad basadas en la inteligencia artificial, el aprendizaje automático y la realidad aumentada", como describió el autor del artículo, Charlie Warzel.

El futuro que ve este experto en tecnología trae un montón de herramientas tecnológicas hábiles, fáciles de usar y sobre todo casi imposibles de detectar "para manipular la percepción y falsificar la realidad".

En una escena virtual vulnerable —"a la propaganda, a la desinformación, a la publicidad oscura de gobiernos extranjeros"— la capacidad de desarrollar, por ejemplo, audios y videos tan realistas que no se pueden distinguir de los reales, dañaría, al punto de cuestionar su relevancia, "una piedra angular del discurso humano: la credibilidad de los hechos", según BuzzFeed.


La inteligencia artificial es un factor clave del info-apocalipsis en el vulnerable escenario virtual.
Cualquiera —al menos cualquier individuo u organización política con los recursos y la malicia— podría desatar el info-apocalipsis, hacer que "parezca que algo ha sucedido, más allá de que haya pasado o no", según Ovadya, un graduado del MIT que también es investigador de innovación en el Centro Tow de Periodismo Digital en la Universidad de Columbia, con una beca Knight.

Ofreció un ejemplo que resuena en el escenario global del presente: uno que involucra a Donald Trump y a Kim Jong-un.

Lo llamó "manipulación diplomática".

Supone que a un algoritmo de aprendizaje automático se lo nutre de cientos de horas de videos del presidente de los Estados Unidos o del dictador norcoreano, con el objetivo de que luego produzca un clip "casi perfecto, virtualmente imposible de distinguir de la realidad", de alguno de ellos declarando la guerra. Ovadya enfatizó que la perfección no es requisito: "Basta con que sea lo suficientemente bueno como para que el enemigo crea que sucedió algo que provoque una respuesta impulsiva y temeraria de represalia".


Una crisis de la envergadura de las noticias falsas fue posible con herramientas tecnológicas mucho menos sofisticadas que las que amenazan hoy la credibilidad de los hechos. (iStock)
¿No será alarmista? "El alarmismo puede ser bueno, habría que ser alarmista sobre estas cosas", dijo a Warzel mientras le mostraba escenarios posibles de noticias falsas, campañas de desinformación asistidas por inteligencia artificial y propaganda, todos posibles en el futuro cercano.

El info-apocalipsis "es mucho peor de lo que la mayoría de nosotros se puede imaginar", dijo. "Y cuanto más lejos en el futuro se mira, peor es".

Universidades como Stanford y Washington estudian programas que crean videos y audios manipulados; "en rincones turbios de la internet hay gente que comenzó a usar algoritmos de aprendizaje automático para crear con facilidad videos pornográficos que imponen de manera realista las cabezas de celebridades —o de cualquiera— en los cuerpos de los actores".

A medida que estas armas de distorsión masiva se expandan, se podría realizar, por ejemplo, una campaña para manipular la legislación que pasa el Congreso. "Los robots con inteligencia artificial, cada vez más verosímiles, podrían competir con los humanos reales para obtener la atención de los legisladores, ya que sería muy difícil diferenciarlos". Las bandejas de entrada del correo de los senadores se podrían inundar de mensajes falsos de votantes reales, cuyos datos se armarían a partir de texto, audio y otros materiales de sus cuentas en las redes sociales.


Los robots con inteligencia artificial podrían influir sobre la legislación mucho más que los votantes: otro aspecto el info-apocalipsis. (iStock)
Y las bandejas de entrada del correo de esos votantes reales se podrían inundar también de una clase de spam de nueva generación, tan sofisticado e indistinguible de un mensaje real, que la única solución sería dejar de mirar el correo.

La técnica se llama phishing automatizado, y consiste en suplantar la identidad de otra persona para crear mensajes falsos pero verosímiles. "Básicamente, se trata de usar la inteligencia artificial para revisar nuestra presencia en redes sociales, por ejemplo", y a partir de ahí crear no un e-mail de una anciana que necesita compartir su herencia millonaria sino uno de un amigo de quien lo recibe, un amigo con el que tiene correspondencia constante, mensajería constante, etcétera.

El efecto, definió Ovadya, sería tan abrumador que causaría "apatía por la realidad": "Sitiada por un torrente de desinformación constante, la gente simplemente comenzaría a renunciar". Y cuando la gente deja de informarse "una democracia funcional se vuelve inestable".


Las noticias falsas, que afectaron la capacidad de decisión política de los individuos, se multiplicaron en la caja de resonancia de redes sociales como Facebook.
Lo peor es que, según este y otros expertos, el phishing automatizado es inevitable. "No creo que haya una solución por ahora. Hay que crear cosas en el nivel de la infraestructura de internet para detenerlo, si comienza".

Un extra de perjuicio que traen todas estas herramientas es que no sólo permiten crear información falsa, sino que sirven para poner en duda la verdadera: basta con señalar que un video que perjudica a un político podría haber sido manipulado para hacer añicos el hecho de que sea real.

"Ian Goodfellow, un científico investigador de Google Brain que ayudó a escribir el código de la primera red generativa antagónica (GAN), que es una red neuronal capaz de aprender sin supervisión humana, advirtió que la inteligencia artificial podría retrasar el consumo de noticias en unos 100 años", advirtió Warzel en su artículo. La paradoja consiste en que las posibilidades de desarrollo no tienen límites, pero en este plano "probablemente cierren algunas delas puertas que nuestra generación se ha acostumbrado a tener abiertas".


El objetivo de Aviv Ovadya y otros expertos es crear, como en los sistemas democráticos, una red de controles y equilibrios que permitan el desarrollo tecnológico en beneficio de las personas. (iStock)

Ovadya no está contra el desarrollo, desde luego, ni contra la cultura del software de fuente abierta. "El objetivo no es detener la tecnología sino asegurarnos de que tengamos un equilibrio positivo para la gente", dijo a BuzzFeed. "No estoy gritando 'Esto es lo que va a pasar' sino diciendo 'pensémoslo seriamente, analicemos las implicaciones'".

Algo así sucederá en la primera reunión que el NYC Media Lab —que facilita la colaboración entre empresas y académicos de la ciudad de Nueva York— sobre los peores escenarios del futuro de las noticias y la tecnología. El encuentro, llamado Fake News Horror Show, sucederá en junio y se describe como "una feria de ciencias sobre las herramientas de propaganda más aterradoras, algunas reales y algunas imaginarias, pero todas plausibles".

A pesar de todo, Ovadya no ha perdido el optimismo. Los años inmediatos, teme, dejan poco margen para la mejora; en particular, distinguió, porque las plataformas todavía están dominadas por los incentivos sensacionalistas, ya que el click es lo que importa y en consecuencia el contenido de baja calidad es el que abunda. "Eso es algo difícil de cambiar en general", dijo, "y cuando se lo combina con un sistema como Facebook, que es un acelerador de contenidos, se vuelve muy peligroso".

domingo, 21 de enero de 2018

Facebook nos quita la posibilidad de elegir y existir a lo Kierkegaard


Lo que Facebook puede aprender de Kierkegaard sobre cómo tomar decisiones auténticas




Dave Edwards
Helen Edwards
Quartz

Søren Kierkegaard, uno de los padres del existencialismo, argumentó que es el acto de tomar decisiones lo que da sentido a nuestras vidas; que al tomar decisiones, vivimos auténticamente, formando nuestras propias opiniones, en lugar de guiarnos por las opiniones de los demás o de la sociedad en general. Para Kierkegaard, entender el significado de nuestra existencia proviene de experiencias verdaderas cuando tomamos decisiones propias, no siguiendo las de los demás.

¿Qué haría Kierkegaard, quien murió en Copenhague en 1855, del monolito que es Facebook?

La compañía de medios sociales anunció que cambiará su algoritmo de alimentación de noticias para quitar importancia al contenido que se consume pasivamente y priorizar el contenido que Facebook predice que será significativo. Kierkegaard podría estar de acuerdo en que la reducción de las experiencias pasivas podría aumentar el significado. Pero eso solo sería cierto si las experiencias restantes fueran activas y auténticas.

La escultura "Le Penseur" (The Thinker, 1903) del escultor francés Auguste Rodin (1840-1917) se ve en el jardín del Museo Rodin en París, Francia, el 5 de noviembre de 2015. Después de una restauración completa en los últimos tres años , el Hotel Biron, sede del Museo Rodin desde 1919, volverá a abrir sus puertas al público el 12 de noviembre de 2015, el cumpleaños número 175 del famoso escultor francés. REUTERS / Philippe Wojazer - PM1EBB5198R01
Reflexionando sobre el significado. (Reuters / Philippe Wojazer)

Se podría argumentar que este filtrado en nuestro nombre es esencial en una existencia moderna. Incluso en 1846, Kierkegaard argumentó que la búsqueda del conocimiento estaba distrayendo a la gente de encontrar significado, escribiendo "personas en nuestro tiempo, debido a tanto conocimiento, han olvidado lo que significa existir". Sostuvo que cuando se le presentaban opciones ilimitadas, nosotros enfrenta una ansiedad vertiginosa La oportunidad aparentemente infinita de buscar conocimiento a través de Internet puede parecer tan abrumadora que requiere filtrado.

De hecho, al filtrar nuestras experiencias y limitar nuestras elecciones, Facebook puede salvarnos de una crisis o angustia existencial. Como Kierkegaard escribió:

Parado en un acantilado, una sensación de desorientación y confusión te nublan. No solo te da miedo caer, también temes sucumbir al impulso de tirarse. Nada te detiene. El temor, la ansiedad y la angustia suben a la superficie.

Quizás el filtrado de experiencias de Facebook nos salve de esta ansiedad y angustia ya que un padre salva a un niño. Eso sería cierto si fuera posible que un algoritmo nos entendiera lo suficientemente bien como para ayudarnos a tomar decisiones que hubiéramos tomado por nuestra cuenta, para predecir nuestras elecciones lo suficientemente bien como para poder presentar una selección de opciones que descarta aquellas no lo haríamos Quizás entonces. Pero no todavía.

A pesar de la gran cantidad de información que Facebook tiene sobre nosotros, se limita principalmente a nuestra actividad en Facebook y, en segundo lugar, al resto de nuestra actividad en línea que rastrea. Facebook puede tratar de cuantificar el significado de nuestras acciones, comentarios y emojis, así como la forma en que recorremos su plataforma e Internet. Pero ese es el límite de sus datos.

Facebook no sabe si tenemos una conversación significativa fuera de línea sobre algo que leemos en línea. No sabe si meditamos para disminuir nuestra ansiedad sobre una noticia en particular. O si consideramos una pregunta de un amigo en una caminata larga. Lo único que Facebook puede intentar predecir es si vamos a interactuar con el contenido en su plataforma. Sin entender el resto de nuestras vidas, Facebook no puede saber qué será significativo.

El problema filosófico central con el cambio algorítmico de Facebook es el acertijo de que el solo hecho de elegir contenido significativo para nosotros significa que el consumo de ese contenido no puede ser significativo. Al filtrar nuestras experiencias, Facebook elimina nuestra agencia para elegir. Y al eliminar nuestra elección, elimina nuestra capacidad de vivir auténticamente. Una vida inauténtica no tiene ningún significado.

sábado, 13 de enero de 2018

Cómo Putin a través de Facebook puso a Trump de presidente

Cómo arreglar Facebook antes de que nos arregle a nosotros

Un inversor inicial explica por qué el modelo comercial de la plataforma de medios sociales es una amenaza y qué hacer al respecto.

por Roger McNamee | Washington Monthly




A principios de 2006, recibí una llamada de Chris Kelly, entonces director de privacidad de Facebook, y me pregunté si estaría dispuesto a reunirme con su jefe, Mark Zuckerberg. He sido un inversionista en tecnología por más de dos décadas, pero la reunión fue diferente a todas las que tuve. Mark solo tenía veintidós. Estaba enfrentando una decisión difícil, dijo Chris, y quería el consejo de una persona con experiencia y sin intereses en el resultado.

Cuando nos conocimos, comencé por dejar que Mark supiera la perspectiva desde la que venía. Pronto, predije, obtendría una oferta de mil millones de dólares para comprar Facebook de Microsoft o Yahoo, y todos, desde la junta de la compañía hasta el personal ejecutivo y los padres de Mark, le aconsejarían que lo tome. Le dije a Mark que debería rechazar cualquier oferta de adquisición. Tuvo la oportunidad de crear una gran compañía única si se mantuvo fiel a su visión. A los dos años, Facebook todavía estaba a años de su primer dólar de ganancias. Todavía se limitaba principalmente a los estudiantes y carecía de la mayoría de las características que damos por sentado hoy. Pero estaba convencido de que Mark había creado una plataforma de cambio de juego que eventualmente sería más grande de lo que era Google en ese momento. Facebook no fue la primera red social, pero fue la primera en combinar la verdadera identidad con la tecnología escalable. Le dije a Mark que el mercado era mucho más grande que solo los jóvenes; el valor real vendría cuando adultos, padres y abuelos ocupados se unieran a la red y la utilizaran para mantenerse en contacto con personas que no podían ver con frecuencia.

Mi pequeño discurso solo tomó unos minutos. Lo que siguió fue el silencio más doloroso de mi carrera profesional. Se sintió como una hora. Finalmente, Mark reveló por qué había pedido reunirse conmigo: Yahoo había hecho esa oferta de mil millones de dólares, y todos le decían que la aceptara.

Solo le tomó unos minutos ayudarlo a descubrir cómo salir del trato. Entonces comenzó una relación de mentoría de tres años. En 2007, Mark me ofreció una opción entre invertir o unirse al tablero de Facebook. Como inversor profesional, elegí el primero. Hablamos a menudo sobre una serie de cuestiones, que culminaron en mi sugerencia de que contratara a Sheryl Sandberg como directora de operaciones, y luego mi ayuda para reclutarla. (Sheryl me presentó a Bono en 2000, unos años más tarde, él y yo formamos Elevation Partners, una firma de capital privado.) Mi función como mentor terminó antes de la OPI de Facebook, cuando los miembros de la junta como Marc Andreessen y Peter Thiel tomaron en ese papel.

 En mi carrera de treinta y cinco años en inversiones en tecnología, nunca he hecho una mayor contribución al éxito de una empresa que la que hice en Facebook. Fue mi mayor logro. Admiré enormemente a Mark Zuckerberg y Sheryl Sandberg, a quien ayudé a reclutar a Mark.
En mi carrera de treinta y cinco años en inversiones en tecnología, nunca he hecho una mayor contribución al éxito de una empresa que la que hice en Facebook. Fue mi mayor logro. Admiré a Mark y Sheryl enormemente. No es sorprendente que Facebook se convirtiera en mi aplicación favorita. Lo revisé constantemente, y me convertí en un experto en el uso de la plataforma al comercializar mi banda de rock, Moonalice, a través de una página de Facebook. Como administrador de esa página, aprendí a maximizar el alcance orgánico de mis publicaciones y usar pequeñas cantidades de dólares publicitarios para extender y orientar ese alcance. Requería una capacidad de adaptación porque Facebook seguía cambiando las reglas. Al adaptarnos con éxito a cada cambio, convertimos nuestra página en una de las páginas de fans de mayor participación en la plataforma.

Mi familiaridad con la construcción del compromiso orgánico me puso en posición de notar que algo extraño estaba pasando en febrero de 2016. Las primarias demócratas se estaban iniciando en New Hampshire, y comencé a notar una avalancha de memes anti-Clinton brutalmente misóginos que se originaban en Grupos de Facebook que apoyan a Bernie Sanders. Sabía cómo construir un compromiso orgánico en Facebook. Esto no fue orgánico. Parecía estar bien organizado, con un presupuesto publicitario. Pero seguramente la campaña de Sanders no fue tan estúpida como para empujar a los memes. No sabía lo que estaba pasando, pero me preocupaba que Facebook estuviera siendo usado de una manera que los fundadores no tenían la intención.

Un mes después noté una noticia no relacionada pero igualmente inquietante. Se reveló que una firma de consultoría estaba recogiendo información sobre personas interesadas en el movimiento de protesta Black Lives Matter y vendiéndola a los departamentos de policía. Solo después de que salieron las noticias, Facebook anunció que cortaría el acceso de la compañía a la información. Eso llamó mi atención. Aquí hubo un mal actor que violó los términos de servicio de Facebook, causó mucho daño y luego recibió una bofetada en la muñeca. Facebook no estaba prestando atención hasta después de que el daño estuvo hecho. Me hice una nota para aprender más.

Mientras tanto, la ola de memes anti-Clinton continuó durante la primavera. Todavía no entendía qué lo estaba impulsando, excepto que los memes eran virales en un grado que no parecía ser orgánico. Y, como resultó, algo igualmente extraño estaba sucediendo en el Atlántico.

Cuando los ciudadanos del Reino Unido votaron por abandonar la Unión Europea en junio de 2016, la mayoría de los observadores quedaron atónitos. Las encuestas habían predicho una victoria para la campaña "Permanecer". Y el sentido común hizo difícil creer que los británicos hicieran algo tan obviamente contrario a su propio interés. Pero ni el sentido común ni los datos electorales explicaron por completo un factor crucial: el nuevo poder de las plataformas sociales para amplificar los mensajes negativos.

Facebook, Google y otras plataformas de medios sociales ganan dinero con la publicidad. Al igual que con todas las empresas con publicidad, eso significa que los anunciantes son los verdaderos clientes, mientras que los miembros de la audiencia son el producto. Hasta la década pasada, las plataformas de medios estaban encerradas en un modelo de transmisión para todos los gustos. El éxito con los anunciantes depende de la producción de contenido que atraiga a la mayor audiencia posible. El contenido convincente era esencial, porque las audiencias podían elegir entre una variedad de medios de distribución, ninguno de los cuales podía esperar atraer la atención de ningún consumidor individual por más de unas pocas horas. Los televisores no eran móviles. Las computadoras eran móviles, pero incómodas. Los periódicos y libros eran móviles y no incómodos, sino relativamente cerebrales. Los cines fueron divertidos, pero inconvenientes.

Cuando su negocio se limitaba a computadoras personales, las plataformas de Internet estaban en desventaja. Su contenido patentado no podía competir con los medios tradicionales, y su medio de entrega, la PC, generalmente solo se podía usar en un escritorio. Su única ventaja, una gran cantidad de datos personales, no fue suficiente para superar la desventaja en el contenido. Como resultado, las plataformas web tuvieron que subestimar su publicidad.

Los teléfonos inteligentes cambiaron completamente el juego publicitario. Tomó solo unos pocos años para que miles de millones de personas tuvieran un sistema de entrega de contenido multiusos de fácil acceso, dieciséis horas o más por día. Esto convirtió a los medios en una batalla para mantener la atención de los usuarios el mayor tiempo posible. Y dejó a Facebook y Google con una ventaja prohibitiva sobre los medios tradicionales: con sus enormes depósitos de datos en tiempo real sobre dos mil millones de personas, podían personalizar el contenido visto por cada usuario. Eso hizo que fuera mucho más fácil monopolizar la atención del usuario en los teléfonos inteligentes e hizo que las plataformas fueran atractivas para los anunciantes. ¿Por qué pagar un periódico con la esperanza de captar la atención de una parte determinada de su audiencia, cuando se puede pagar a Facebook para llegar exactamente a esas personas y a nadie más?

Cada vez que ingresa a Facebook, hay millones de publicaciones que la plataforma podría mostrarle. La clave de su modelo de negocio es el uso de algoritmos, impulsados ​​por datos de usuarios individuales, para mostrarle cosas con las que es más probable que reaccione. Wikipedia define un algoritmo como "un conjunto de reglas que define con precisión una secuencia de operaciones". Los algoritmos tienen un valor neutral, pero los algoritmos de las plataformas en realidad están diseñados con un valor específico en mente: la máxima atención, lo que optimiza las ganancias. Hacen esto absorbiendo y analizando sus datos, utilizándolos para predecir qué hará que reaccionen con mayor fuerza, y luego dándoles más de eso.

Los algoritmos que maximizan la atención dan una ventaja a los mensajes negativos. Las personas tienden a reaccionar más a los insumos que aterrizan en el tallo cerebral. El miedo y la ira producen mucho más participación y participación que alegría. El resultado es que los algoritmos favorecen el contenido sensacional sobre la sustancia. Por supuesto, esto siempre ha sido cierto para los medios; de ahí el adagio de las viejas noticias "si sangra, conduce". Pero para los medios de comunicación masivos, esto se vio limitado por el contenido único y por las limitaciones de las plataformas de distribución. No es así para plataformas de internet en teléfonos inteligentes. Han creado miles de millones de canales individuales, cada uno de los cuales puede ser empujado más hacia la negatividad y el extremismo sin el riesgo de alienar a otros miembros de la audiencia. Por el contrario, las plataformas ayudan a las personas a auto segregarse en burbujas de filtros de ideas afines, reduciendo el riesgo de exposición a ideas desafiantes.

Tomó Brexit para mí comenzar a ver el peligro de esta dinámica. No soy un experto en política británica, pero parecía probable que Facebook hubiera tenido un gran impacto en la votación porque el mensaje de una parte era perfecto para los algoritmos y el otro no. La campaña "Deje" hizo una promesa absurda -habría ahorros al dejar la Unión Europea que financiaría una gran mejora en el Sistema Nacional de Salud- al mismo tiempo que explotaba la xenofobia al utilizar Brexit como la mejor manera de proteger la cultura inglesa y el trabajo de los inmigrantes . Era una tontería demasiado buena para ser verdadera mezclada con el miedo a la violencia.

Mientras tanto, la campaña Remain estaba haciendo un llamado a la razón. El mensaje crudo y emocional de Leave habría sido turboalimentado al compartir mucho más que el de Remain. No lo vi en ese momento, pero los usuarios que probablemente respondieran a los mensajes de Leave eran probablemente menos ricos y, por lo tanto, más baratos para el anunciante: el precio de los anuncios de Facebook (y Google) está determinado por subasta, y el costo de Dirigirse a consumidores más sofisticados aumenta la puja por empresas reales que intentan venderles cosas. Como consecuencia, Facebook era una plataforma mucho más barata y efectiva para Leave en términos de costo por usuario alcanzado. Y las burbujas del filtro aseguran que las personas en el lado de la licencia rara vez tienen sus cuestionables creencias cuestionadas. El modelo de Facebook puede haber tenido el poder de remodelar todo un continente.

Pero había un elemento importante en la historia que aún me faltaba.

Poco después de la votación Brexit, contacté a periodistas para validar mis preocupaciones sobre Facebook. En este punto, todo lo que tenía era una sospecha de dos cosas: los malos actores estaban explotando una plataforma desprotegida; y los algoritmos de Facebook pueden haber tenido un impacto decisivo en Brexit al favorecer los mensajes negativos. Mi Rolodex estaba un poco polvoriento, así que envié un correo electrónico a mis amigos Kara Swisher y Walt Mossberg en Recode, el blog de noticias líder de la industria tecnológica. Lamentablemente, no respondieron. Lo intenté de nuevo en agosto, y no pasó nada.

Mientras tanto, la prensa reveló que los rusos estaban detrás del servidor pirateado en el Comité Nacional Demócrata y que el director de campaña de Trump tenía vínculos con oligarcas rusos cercanos a Vladimir Putin. Esta sería la pieza que falta de mi historia. A medida que avanzaba el verano, comencé a notar más y más ejemplos de cosas preocupantes que sucedían en Facebook que podrían haberse evitado si la empresa aceptara la responsabilidad de las acciones de terceros, como las instituciones financieras que usan herramientas de Facebook para discriminar por motivos de raza y religión . A fines de septiembre, Walt Mossberg finalmente respondió mi correo electrónico y me sugirió que escribiera un artículo de opinión describiendo mis preocupaciones. Me concentré completamente en ejemplos no políticos de daños, como la discriminación en anuncios de vivienda, lo que sugiere que Facebook tenía la obligación de garantizar que no se abuse de su plataforma. Como la mayoría de la gente, asumí que Clinton ganaría las elecciones, y no quería que mis preocupaciones fueran descartadas por ser irrelevantes si lo hiciera.

Mi esposa me recomendó que envíe lo que escribí a Mark Zuckerberg y Sheryl Sandberg antes de publicar en Recode. Mark y Sheryl eran mis amigos, y mi objetivo era hacerlos conscientes de los problemas para que pudieran solucionarlos. Ciertamente no estaba tratando de derribar una compañía en la que todavía tengo acciones. Les envié el artículo de opinión el 30 de octubre. Respondieron al día siguiente. La esencia de sus mensajes era la misma: apreciamos que te acerques; creemos que estás malinterpretando las noticias; estamos haciendo grandes cosas que no puedes ver Luego me conectaron con Dan Rose, un veterano ejecutivo de Facebook con quien tuve una excelente relación. Dan es un gran oyente y paciente, pero no estaba dispuesto a aceptar que podría haber un problema sistémico. En cambio, afirmó que Facebook no era una compañía de medios, y por lo tanto no era responsable de las acciones de terceros.

Con la esperanza de que Facebook respondiera a mi buena voluntad con un esfuerzo serio para resolver los problemas, le dije a Dan que no publicaría el artículo de opinión. Luego vino la elección de los EE. UU. Al día siguiente, lo perdí. Le dije a Dan que había un error en el modelo comercial de Facebook. La plataforma estaba siendo explotada por una serie de malos actores, incluidos los partidarios del extremismo, sin embargo, la administración afirmó que la empresa no era responsable. Los usuarios de Facebook, advertí, quizás no siempre estén de acuerdo. La marca corría el riesgo de volverse tóxica. En el transcurso de muchas conversaciones, insté a Dan a proteger la plataforma y sus usuarios.

La última conversación que tuvimos fue a principios de febrero de 2017. Para entonces había una evidencia creciente de que los rusos habían utilizado una variedad de métodos para interferir en nuestra elección. Formé una hipótesis simple: los rusos probablemente orquestaron parte de la manipulación en Facebook que había observado en 2016. Fue entonces cuando comencé a buscar aliados.

El 11 de abril, co-patrociné un programa orientado a la tecnología en Bloomberg TV. Uno de los invitados fue Tristan Harris, anteriormente el especialista en ética del diseño de Google. Tristan acaba de aparecer en 60 Minutes para hablar sobre la amenaza a la salud pública de las redes sociales como Facebook. Experto en tecnología persuasiva, describió las técnicas que utilizan las plataformas tecnológicas para crear adicciones y las formas en que explotan esa adicción para aumentar las ganancias. Lo llamó "pirateo cerebral".

En febrero de 2016, comencé a notar una avalancha de memes anti-Clinton viciosamente misóginos que provenían de grupos de Facebook que apoyaban a Bernie Sanders. Sabía cómo construir un compromiso orgánico en Facebook. Esto no era orgánico.
La herramienta más importante utilizada por Facebook y Google para mantener la atención del usuario es el filtro de burbujas. El uso de algoritmos para dar a los consumidores "lo que quieren" conduce a un flujo interminable de publicaciones que confirman las creencias existentes de cada usuario. En Facebook, es su fuente de noticias, mientras que en Google son sus resultados de búsqueda personalizados individualmente. El resultado es que todos ven una versión diferente de Internet diseñada para crear la ilusión de que todos los demás están de acuerdo con ellos. El refuerzo continuo de las creencias existentes tiende a afianzar esas creencias más profundamente, al tiempo que las hace más extremas y más resistentes a los hechos contrarios. Facebook lleva el concepto un paso más allá con su función de "grupos", que alienta a los usuarios de ideas afines a congregarse en torno a intereses o creencias compartidas. Si bien esto aparentemente proporciona un beneficio para los usuarios, los mayores beneficios se otorgan a los anunciantes, que pueden llegar a las audiencias con mayor eficacia.

Después de hablar con Tristan, me di cuenta de que los problemas que había estado viendo no podían resolverse simplemente, digamos, contratando personal de Facebook para supervisar el contenido del sitio. Los problemas eran inherentes al modelo de negocio basado en la atención y basado en algoritmos. Y lo que sospechaba era que la intromisión de Rusia en 2016 era solo el preludio de lo que veríamos en 2018 y más allá. El nivel del discurso político, ya en la cuneta, iba a empeorar aún más.

Le pregunté a Tristan si necesitaba un hombre de alas. Acordamos trabajar juntos para tratar de desencadenar una conversación nacional sobre el papel de los monopolios de la plataforma de Internet en nuestra sociedad, economía y política. Reconocimos que nuestro esfuerzo probablemente sería quijotesco, pero el hecho de que Tristan había estado en 60 Minutos nos dio esperanza.

Nuestro viaje comenzó con un viaje a la ciudad de Nueva York en mayo, donde hablamos con periodistas y tuvimos una reunión en la ACLU. Tristan encontró un aliado en Arianna Huffington, quien lo presentó a personas como Bill Maher, quien invitó a Tristan a estar en su programa. Un amigo me presentó por correo electrónico a un miembro del personal del Congreso que ofreció organizar una reunión con su jefe, un miembro clave de uno de los comités de inteligencia. Estábamos empezando, pero ya habíamos encontrado una audiencia para el mensaje de Tristan.

En julio, fuimos a Washington, D.C., donde nos reunimos con dos miembros del Congreso. Estaban interesados ​​en el argumento de la salud pública de Tristán, ya que se aplicaba a dos cuestiones: la intromisión electoral de Rusia y el creciente poder de monopolio de las plataformas gigantes. Eso fue una revelación. Si el Congreso se preocupaba por la manipulación y el monopolio de las elecciones, los ayudaríamos a comprender cómo se relacionaban las plataformas de Internet con esos temas. Mi experiencia pasada como ayudante del Congreso, mi larga carrera en inversiones y mi rol personal en Facebook me dieron credibilidad en esas reuniones, complementando la experiencia de dominio de Tristan.

Con respecto a la intromisión electoral, compartimos algunas hipótesis basadas en nuestro conocimiento de cómo funciona Facebook. Empezamos con una pregunta: ¿por qué el Congreso se centró exclusivamente en la colusión entre Rusia y la campaña Trump en 2016? La interferencia rusa, razonamos, probablemente comenzó mucho antes de la campaña de las elecciones presidenciales. Planteamos la hipótesis de que esos primeros esfuerzos probablemente implicaron la ampliación de cuestiones polarizantes, como la inmigración, la supremacía blanca, los derechos de armas y la secesión. (Ya sabíamos que el sitio de secesión de California había sido alojado en Rusia.) Sugerimos que Trump había sido nominado porque él solo entre los republicanos basó su campaña en los tipos de temas que los rusos eligen por su interferencia.

Teorizamos que los rusos habían identificado a un grupo de usuarios susceptibles a su mensaje, usaron las herramientas de publicidad de Facebook para identificar a los usuarios con perfiles similares y usaron anuncios para persuadir a esas personas para que se unieran a grupos dedicados a temas controvertidos. Los algoritmos de Facebook habrían favorecido el crudo mensaje de Trump y las teorías de conspiración anti-Clinton que entusiasmaron a sus seguidores, con la posible consecuencia de que Trump y sus patrocinadores pagaran menos que Clinton por publicidad en Facebook por persona alcanzada. Sin embargo, los anuncios eran menos importantes que lo que vendría después: una vez que los usuarios estaban en grupos, los rusos podrían haber usado cuentas falsas de trol estadounidenses y "bots" computarizados para compartir mensajes incendiarios y organizar eventos. Los trolls y bots que se hacen pasar por estadounidenses habrían creado la ilusión de un mayor apoyo a las ideas radicales de las que realmente existían. Los usuarios reales "me gusta" las publicaciones compartidas por trolls y bots y las comparten en sus propios feeds de noticias, de modo que pequeñas inversiones en publicidad y memes publicados en grupos de Facebook llegarían a decenas de millones de personas. Una estrategia similar prevaleció en otras plataformas, incluido Twitter. Ambas técnicas, bots y trolls, requieren tiempo y dinero para desarrollarse, pero la recompensa hubiera sido enorme.

Nuestra hipótesis final fue que 2016 fue solo el comienzo. Sin una acción inmediata y agresiva de Washington, los malos actores de todo tipo podrían usar Facebook y otras plataformas para manipular al electorado estadounidense en futuras elecciones.

Estas fueron solo hipótesis, pero las personas que conocimos en Washington nos escucharon. Gracias al arduo trabajo de periodistas e investigadores, prácticamente todas estas hipótesis se confirmarán durante las siguientes seis semanas. Casi todos los días trajeron nuevas revelaciones de cómo Facebook, Twitter, Google y otras plataformas habían sido manipuladas por los rusos.

Ahora sabemos, por ejemplo, que los rusos explotaron temas como Black Lives Matter y el nativismo blanco para promover el miedo y la desconfianza, y que esto tenía el beneficio de sentar las bases para el candidato presidencial más divisivo de la historia, Donald Trump. Los rusos parecen haber invertido fuertemente en debilitar la candidatura de Hillary Clinton durante las primarias demócratas promoviendo contenido emocionalmente cargado a los partidarios de Bernie Sanders y Jill Stein, así como también a los posibles partidarios de Clinton que podrían ser desanimados de votar. Una vez que se establecieron las nominaciones, los rusos continuaron socavando a Clinton con las redes sociales dirigidas a probables votantes demócratas. También tenemos evidencia ahora de que Rusia usó sus tácticas de redes sociales para manipular el voto Brexit. Un equipo de investigadores informó en noviembre, por ejemplo, que más de 150,000 cuentas de Twitter en ruso publicaron mensajes pro-Leave en el período previo al referéndum.

La semana antes de nuestra visita de regreso a Washington a mediados de septiembre, nos despertamos con algunas noticias sorprendentes. El grupo que nos había estado ayudando en Washington, el equipo de Open Markets del think tank New America, había estado abogando por una regulación antimonopolio de las plataformas de internet, incluida Google. Resulta que Eric Schmidt, un ejecutivo de Alphabet, la empresa matriz de Google, es un importante donante de New America. El think tank cortó Open Markets. La historia básicamente dice: "Grupo antimonopolio despedido por un grupo de expertos liberal debido a la presión del monopolio". (Nueva América cuestiona esta interpretación, sosteniendo que el grupo fue despedido por falta de colegialidad por parte de su líder, Barry Lynn, que escribe a menudo para esta revista.) El despido fue la mejor evidencia posible de la necesidad de su trabajo, y los financiadores inmediatamente pusieron al equipo de nuevo en el negocio como el Open Markets Institute. Tristan y yo nos unimos a su consejo asesor.

Nuestro segundo viaje a Capitol Hill fue surrealista. Esta vez, tuvimos tres días repletos de reuniones. Todos los que conocimos ya se centraban en nuestros problemas y buscaban orientación sobre cómo proceder. Trajimos con nosotros un nuevo miembro del equipo, Renee DiResta, una experta en cómo las teorías de la conspiración se difunden en Internet. Renee describió cómo los malos actores plantan un rumor en sitios como 4chan y Reddit, apalancan a las personas desencantadas en esos sitios para crear rumores, crean sitios de noticias falsos con versiones de "prensa" del rumor, envían la historia a Twitter para atraer a los medios reales, luego explota la historia para las masas en Facebook. Era una técnica de hacker sofisticada, pero no costosa. Nuestra hipótesis era que los rusos podían manipular a decenas de millones de votantes estadounidenses por una suma inferior a la que se necesitaría para comprar un caza F-35.

En Washington, aprendimos que podíamos ayudar a los legisladores y a los miembros de su personal a comprender el funcionamiento interno de Facebook, Google y Twitter. Necesitaban ponerse al día rápidamente, y nuestro equipo estaba feliz de ayudar.

Tristan y yo habíamos empezado en abril con muy pocas expectativas. A fines de septiembre, una conversación sobre los peligros de los monopolios de la plataforma de Internet estaba en pleno apogeo. Fuimos solo una pequeña parte de lo que hizo que la conversación sucediera, pero se sintió bien.

Facebook y Google son las compañías más poderosas en la economía global. Parte de su atractivo para los accionistas es que sus gigantes negocios publicitarios operan casi sin intervención humana. Los algoritmos pueden ser hermosos en términos matemáticos, pero solo son tan buenos como las personas que los crean. En el caso de Facebook y Google, los algoritmos tienen fallas que son cada vez más obvias y peligrosas.

Gracias al enfoque de laissez faire del gobierno de EE. UU. Sobre la regulación, las plataformas de Internet pudieron aplicar estrategias comerciales que no se habrían permitido en décadas anteriores. Nadie les impidió usar productos gratuitos para centralizar Internet y luego reemplazar sus funciones principales. Nadie les impidió desviar las ganancias de los creadores de contenido. Nadie les impidió recopilar datos sobre cada aspecto de la vida en Internet de cada usuario. Nadie les impidió acumular una cuota de mercado que no se veía desde los días de Standard Oil. Nadie les impidió realizar experimentos sociales y psicológicos masivos en sus usuarios. Nadie exigió que controlen sus plataformas. Ha sido un trato agradable.

Una semana antes de las elecciones de 2016, envié un correo electrónico a Zuckerberg y Sandberg, sugiriendo que Facebook tenía la obligación de garantizar que su plataforma no fuera explotada por los malos actores. Respondieron al día siguiente y dijeron: Te agradecemos por comunicarte, pero piensas que estás malinterpretando las noticias.
Facebook y Google ahora son tan grandes que las herramientas tradicionales de regulación pueden dejar de ser efectivas. La Unión Europea desafió el motor de comparación de precios de compra de Google en terrenos antimonopolio, citando el uso injusto de la búsqueda de Google y los datos de AdWords. El daño fue claro: la mayoría de los competidores europeos de Google en la categoría sufrieron pérdidas paralizantes. El sobreviviente más exitoso perdió el 80 por ciento de su participación en el mercado en un año. La UE ganó un juicio récord de $ 2.7 mil millones, que es atractivo para Google. Los inversores de Google se encogieron de hombros ante la sentencia, y, por lo que puedo ver, la compañía no ha alterado su comportamiento. La multa antimonopolio más grande en la historia de la UE rebotó en Google como un spitball de un acorazado.

Se lee como la trama de una novela de ciencia ficción: una tecnología que se celebra para unir a las personas se explota con un poder hostil para separar a las personas, socavar la democracia y crear miseria. Esto es precisamente lo que sucedió en los Estados Unidos durante las elecciones de 2016. Construimos una moderna línea Maginot, la mitad de los gastos de defensa del mundo y centros financieros cibernéticos, todos construidos para evitar ataques desde el extranjero, sin imaginar que un enemigo pudiera infectar las mentes de nuestros ciudadanos mediante inventos de nuestra propia creación, a un mínimo costo. El ataque no solo fue un éxito abrumador, sino que también fue persistente, ya que el partido político que se benefició se niega a reconocer la realidad. Los ataques continúan todos los días, planteando una amenaza existencial para nuestros procesos democráticos y nuestra independencia.

Todavía no sabemos el grado exacto de colusión entre los rusos y la campaña de Trump. Pero el debate sobre la colusión, aunque importante, corre el riesgo de perderse lo que debería ser un punto obvio: Facebook, Google, Twitter y otras plataformas fueron manipuladas por los rusos para cambiar los resultados en Brexit y las elecciones presidenciales de EE. UU. Ya menos que se realicen cambios importantes, serán manipulados de nuevo. La próxima vez, no se sabe quiénes serán los manipuladores.

La conciencia del papel de Facebook, Google y otros en la interferencia de Rusia en las elecciones de 2016 ha aumentado dramáticamente en los últimos meses, gracias en gran parte a las audiencias del Congreso el 31 de octubre y el 1 de noviembre. Esto ha llevado a pedidos de regulación, comenzando con el introducción de la Ley de Anuncios Honestos, patrocinada por los senadores Mark Warner, Amy Klobuchar y John McCain, que intenta extender la regulación actual de anuncios políticos en redes a plataformas en línea. Facebook y Google respondieron reiterando su oposición a la regulación gubernamental, insistiendo en que mataría a la innovación y perjudicaría la competitividad global del país, y que la autorregulación produciría mejores resultados.

Pero hemos visto a dónde conduce la autorregulación, y no es bonita. Lamentablemente, no hay una bala de plata reglamentaria. El alcance del problema requiere un enfoque múltiple.

Primero, debemos abordar la resistencia a los hechos creados por las burbujas del filtro. Las encuestas sugieren que alrededor de un tercio de los estadounidenses cree que la interferencia rusa es una noticia falsa, a pesar del acuerdo unánime en contrario entre las agencias de inteligencia del país. Ayudar a esas personas a aceptar la verdad es una prioridad. Recomiendo que se pida a Facebook, Google, Twitter y a otros que se pongan en contacto con cada persona afectada por el contenido ruso con un mensaje personal que diga: "Usted y nosotros fuimos manipulados por los rusos". Esto realmente sucedió, y aquí está la evidencia ". El mensaje incluiría todos los mensajes rusos que el usuario recibió.

Esta idea, que se originó con mi colega Tristan Harris, se basa en la experiencia con los cultos. Cuando desee desprogramar a un miembro de culto, es realmente importante que el llamado a la acción provenga de otro miembro del culto, idealmente el líder. Las plataformas afirmarán que esto es demasiado oneroso. Facebook ha indicado que hasta 126 millones de estadounidenses fueron afectados por la manipulación rusa en su plataforma central y otros veinte millones en Instagram, que posee. En conjunto, esos números superan los 137 millones de estadounidenses que votaron en 2016. Lo que Facebook ha ofrecido es un portal enterrado dentro de su Centro de Ayuda donde los usuarios curiosos podrán descubrir si fueron tocados por la manipulación rusa a través de un puñado de grupos de Facebook creados por un granja de trolls única. Esto queda muy lejos de lo necesario para evitar la manipulación en 2018 y más allá. No hay duda de que las plataformas tienen la capacidad tecnológica para llegar a cada persona afectada. Sin importar el costo, las compañías de plataforma deben absorberlo como el precio por su descuido al permitir la manipulación.

En segundo lugar, los directores ejecutivos de Facebook, Google, Twitter y otros (no solo sus abogados) deben declarar ante los comités del Congreso en sesión abierta. Como lo demostró el senador John Kennedy, un republicano de Luisiana, en la audiencia judicial del Senado del 31 de octubre, el abogado general de Facebook en particular no dio respuestas satisfactorias. Esto es importante no solo para el público, sino también para otro sector crucial: los empleados que mantienen funcionando a los gigantes tecnológicos. Si bien muchas de las personas que manejan Silicon Valley son extremadamente libertarias, las personas que trabajan allí tienden a ser idealistas. Quieren creer que lo que están haciendo es bueno. Obligar a los CEOs tecnológicos como Mark Zuckerberg a justificar lo injustificable, en público, sin el escudo de portavoces o RR.PP., sería un gran avance para perforar sus cultos cuidadosamente preservados de personalidad a los ojos de sus empleados.

Estos dos remedios solo serían un primer paso, por supuesto. También necesitamos soluciones regulatorias. Aqui hay algunas ideas.

En primer lugar, es esencial prohibir bots digitales que se hagan pasar por humanos. Distorsionan la "plaza pública" de una manera que nunca fue posible en la historia, sin importar cuántos folletos anónimos haya impreso. Como mínimo, la ley podría requerir el etiquetado explícito de todos los bots, la capacidad de los usuarios para bloquearlos y la responsabilidad de los proveedores de la plataforma por los daños causados ​​por los bots.

En segundo lugar, no se debe permitir que las plataformas hagan adquisiciones hasta que hayan abordado el daño causado hasta la fecha, hayan tomado medidas para evitar daños en el futuro, y hayan demostrado que tales adquisiciones no darán como resultado una competencia disminuida. Un aspecto poco apreciado del crecimiento de las plataformas es su patrón de engullir empresas más pequeñas, en el caso de Facebook, que incluye Instagram y WhatsApp; en Google, incluye YouTube, Google Maps, AdSense y muchos otros, y los usa para extender su poder de monopolio.

Esto es importante, porque Internet ha perdido algo muy valioso. El inicio de Internet fue diseñado para ser descentralizado. Trataba a todos los contenidos y a todos los propietarios de contenido por igual. Esa igualdad tiene valor en la sociedad, ya que mantiene el campo de juego nivelado y anima a los nuevos participantes. Pero la descentralización tuvo un costo: nadie tenía un incentivo para hacer que las herramientas de Internet fueran fáciles de usar. Frustrados por esas herramientas, los usuarios adoptaron alternativas fáciles de usar de Facebook y Google. Esto permitió a las plataformas centralizar Internet, insertándose entre los usuarios y el contenido, imponiendo efectivamente un impuesto a ambas partes. Este es un gran modelo de negocios para Facebook y Google, y conveniente para los clientes a corto plazo, pero nos estamos ahogando en evidencia de que hay costos que la sociedad no puede pagar.

En tercer lugar, las plataformas deben ser transparentes sobre quién está detrás de la comunicación política y basada en problemas. La Ley de anuncios honestos es un buen comienzo, pero no va lo suficientemente lejos por dos razones: la publicidad era una parte relativamente pequeña de la manipulación rusa; y la publicidad basada en problemas jugó un papel mucho más importante que los anuncios orientados a los candidatos. La transparencia con respecto a quienes patrocinan publicidad política de todo tipo es un paso hacia la reconstrucción de la confianza en nuestras instituciones políticas.

En cuarto lugar, las plataformas deben ser más transparentes con respecto a sus algoritmos. Los usuarios merecen saber por qué ven lo que ven en sus feeds de noticias y resultados de búsqueda. Si Facebook y Google tuvieran que ser directos acerca de la razón por la que estás viendo teorías de conspiración, es decir, que es bueno para los negocios, sería mucho menos probable que se apeguen a esa táctica. Permitir que terceros auditen los algoritmos iría aún más lejos para mantener la transparencia. Facebook y Google toman millones de decisiones editoriales cada hora y deben aceptar la responsabilidad de las consecuencias de esas elecciones. Los consumidores también deberían poder ver qué atributos están causando que los anunciantes los orienten.

Facebook, Google y otras plataformas de medios sociales ganan dinero con la publicidad. Al igual que con todas las empresas con publicidad, eso significa que los anunciantes son los verdaderos clientes, mientras que los miembros de la audiencia son el producto.
En quinto lugar, se debería exigir a las plataformas que tengan una relación contractual más equitativa con los usuarios. Facebook, Google y otros han afirmado derechos sin precedentes con respecto a los acuerdos de licencia de usuario final (EULA), los contratos que especifican la relación entre la plataforma y el usuario. Cuando carga un nuevo sistema operativo o una aplicación de PC, se enfrenta a un contrato, el EULA, y al requisito de que acepte sus términos antes de completar la instalación. Si no desea actualizar, puede continuar utilizando la versión anterior durante un tiempo, a menudo años. No ocurre lo mismo con plataformas de Internet como Facebook o Google. Allí, su uso del producto viene con la aceptación implícita del último EULA, que puede cambiar en cualquier momento. Si hay términos que elige no aceptar, su única alternativa es abandonar el uso del producto. Para Facebook, donde los usuarios han contribuido con el 100 por ciento del contenido, esta opción es particularmente problemática.

Se debe exigir a todas las plataformas de software que ofrezcan una opción de exclusión voluntaria, una que permita a los usuarios seguir con la versión anterior si no les gusta el nuevo CLUF. Las plataformas "bifurcaciones" entre versiones antiguas y nuevas tendrían varios beneficios: mayor elección del consumidor, mayor transparencia en el CLUF y más cuidado en la implementación de nuevas funcionalidades, entre otras. Limitaría el riesgo de que las plataformas realicen experimentos sociales masivos en millones o miles de millones de usuarios sin notificación previa adecuada. El mantenimiento de más de una versión de sus servicios sería costoso para Facebook, Google y el resto, pero en software que siempre ha sido uno de los costos del éxito. ¿Por qué debería esta generación obtener un pase?

Los clientes entienden que su uso "gratuito" de plataformas como Facebook y Google da a las plataformas licencia para explotar datos personales. El problema es que las plataformas están usando esa información de maneras que los consumidores no entienden, y podrían no aceptar si lo hicieran.
En sexto lugar, necesitamos un límite en la explotación comercial de los datos de los consumidores por las plataformas de Internet. Los clientes entienden que su uso "gratuito" de plataformas como Facebook y Google da a las plataformas licencia para explotar datos personales. El problema es que las plataformas están usando esa información de maneras que los consumidores no entienden, y podrían no aceptar si lo hicieran. Por ejemplo, Google compró un gran tesoro de datos de tarjetas de crédito a principios de este año. Facebook usa software de reconocimiento de imágenes y etiquetas de terceros para identificar a los usuarios en contextos sin su participación y en donde podrían preferir ser anónimos. Las plataformas no solo usan sus datos en sus propios sitios, sino que también los alquilan a terceros para su uso en Internet. Y usarán esa información para siempre, a menos que alguien les diga que se detengan.

Debe existir una ley de prescripción sobre el uso de los datos de los consumidores por parte de una plataforma y sus clientes. Tal vez ese límite debería ser de noventa días, tal vez un año. Pero en algún momento, los usuarios deben tener el derecho de renegociar los términos de cómo se utilizan sus datos.

Séptimo, los consumidores, no las plataformas, deben poseer sus propios datos. En el caso de Facebook, esto incluye publicaciones, amigos y eventos; en resumen, todo el gráfico social. Los usuarios crearon esta información, por lo que deberían tener derecho a exportarla a otras redes sociales. Dada la inercia y la conveniencia de Facebook, no esperaría que esta reforma desencadenara un vuelo masivo de usuarios. En cambio, el resultado probable sería una explosión de innovación y emprendimiento. Facebook es tan poderoso que la mayoría de los nuevos participantes evitarían la competencia directa a favor de crear una diferenciación sostenible. Las empresas nuevas y los jugadores establecidos crearían nuevos productos que incorporarían los gráficos sociales existentes de las personas, forzando a Facebook a competir nuevamente. Sería análogo a la regulación del negocio de larga distancia del monopolio de AT & T, que condujo a precios más bajos y un mejor servicio para los consumidores.

En octavo lugar, y finalmente, debemos considerar que ha llegado el momento de revivir el enfoque tradicional del país sobre el monopolio. Desde la era Reagan, la ley antimonopolio ha operado bajo el principio de que el monopolio no es un problema, siempre que no genere precios más altos para los consumidores. Bajo ese marco, Facebook y Google han podido dominar varias industrias, no solo las redes sociales y de búsqueda, sino también el correo electrónico, videos, fotos y ventas de anuncios digitales, entre otras, aumentando sus monopolios comprando rivales potenciales como YouTube e Instagram. Si bien es superficialmente atractivo, este enfoque ignora los costos que no aparecen en una etiqueta de precio. La adicción a Facebook, YouTube y otras plataformas tiene un costo. La manipulación electoral tiene un costo. La reducción de la innovación y la contracción de la economía empresarial tiene un costo. Todos estos costos son evidentes hoy. Podemos cuantificarlos lo suficientemente bien como para apreciar que los costos para los consumidores de concentración en Internet son inaceptablemente altos.

El aumento de la conciencia de la amenaza planteada por los monopolios de plataforma crea una oportunidad para replantear la discusión sobre la concentración del poder de mercado. Limitar el poder de Facebook y Google no solo no dañará a los Estados Unidos, sino que casi seguramente dará rienda suelta a los niveles de creatividad e innovación que no se han visto en la industria de la tecnología desde los primeros días de, bueno, Facebook y Google.

Antes de descartar la regulación como imposible en el entorno económico actual, considere esto. Hace ocho meses, cuando Tristan Harris y yo unimos fuerzas, casi nadie hablaba de los problemas que describí anteriormente. Ahora muchas personas están hablando, incluidos los políticos. Teniendo en cuenta todos los demás problemas que enfrenta el país, es difícil ser optimista de que vamos a resolver los problemas en Internet, pero eso no es excusa para la inacción. Hay demasiado en juego.

miércoles, 1 de marzo de 2017

Software de JP Morgan reemplaza a 360 mil horas de trabajo de abogados



Software de JPMorgan hace en segundos lo que llevó a los abogados 360.000 horas
De Hugh Son - Bloomberg


  • Nuevo software hace en segundos lo que llevó al personal 360.000 horas
  • Banco busca racionalizar sistemas, evitar despidos


En JPMorgan Chase & Co., una máquina de aprendizaje está analizando acuerdos financieros que una vez mantuvieron a los equipos legales ocupados durante miles de horas.

El programa, llamado COIN, para la inteligencia de contrato, hace el trabajo de interpretar los acuerdos de préstamos comerciales que, hasta que el proyecto entró en línea en junio, consumió 360.000 horas de trabajo cada año por abogados y oficiales de préstamos. El software revisa los documentos en segundos, es menos propenso a errores y nunca pide vacaciones.

x

Los asistentes discuten el software el 27 de febrero, la víspera del Día del Inversor de JPMorgan. Foto: Kholood Eid / Bloomberg

Mientras que la industria financiera ha promocionado sus innovaciones tecnológicas, una nueva era de automatización está ahora en sobremarcha ya que el poder de computación barato converge con los temores de perder clientes ante las startups. Hecho posible por las inversiones en aprendizaje de máquina y una nueva red de nube privada, COIN es sólo el comienzo para el mayor banco de los Estados Unidos. La empresa recientemente creó centros de tecnología para equipos especializados en grandes infraestructuras de datos, robótica y nube para encontrar nuevas fuentes de ingresos, a la vez que reduce los gastos y los riesgos.

El impulso para automatizar tareas mundanas y crear nuevas herramientas para banqueros y clientes -una parte creciente del presupuesto tecnológico de $ 9.600 millones de la firma- es un tema central ya que la compañía celebra su día anual de inversores el martes.

Detrás de la estrategia, supervisado por el Director Operativo de Operaciones Matt Zames y el Director de Información Dana Deasy, es una corriente de ansiedad: Aunque JPMorgan surgió de la crisis financiera como uno de los pocos grandes ganadores, su dominio está en riesgo a menos que persiga agresivamente nuevas tecnologías , Según entrevistas con media docena de ejecutivos bancarios.

Software redundante

Ese era el mensaje que Zames tenía para Deasy cuando se unió a la firma de BP Plc a finales de 2013. Los sistemas internos del banco con sede en Nueva York, una amalgama de décadas de fusiones, tenían demasiados programas de software redundantes que no funcionaban juntos sin problemas.

"Matt dijo:" Recuerde una cosa por encima de todo: absolutamente necesitamos ser los líderes en tecnología a través de los servicios financieros ", dijo Deasy la semana pasada en una entrevista. "Todo lo que hemos hecho desde ese día es el resultado de esa reunión".

Después de visitar a compañías como Apple Inc. y Facebook Inc. hace tres años para entender cómo funcionaban sus desarrolladores, el banco se propuso crear su propia nube de computación llamada Gaia que entró en línea el año pasado. El aprendizaje automático y los grandes esfuerzos de datos ahora residen en la plataforma privada, que efectivamente tiene una capacidad ilimitada para apoyar su sed de poder de procesamiento. El sistema ya está ayudando al banco a automatizar algunas actividades de codificación y hacer que sus 20.000 desarrolladores sean más productivos, ahorrando dinero, dijo Zames. Cuando es necesario, la firma también puede aprovechar los servicios de nube externos de Amazon.com Inc., Microsoft Corp. e International Business Machines Corp.

Gasto tecnológico

JPMorgan pondrá a disposición de los clientes institucionales algunas de sus tecnologías respaldadas por la nube a finales de este año, lo que permitirá a empresas como BlackRock Inc. acceder a saldos, investigación y herramientas de negociación. La medida, que permite a los clientes evitar a los vendedores y al personal de apoyo para obtener información rutinaria, es similar a la que Goldman Sachs Group Inc. anunció en 2015.

El presupuesto total de tecnología de JPMorgan para este año asciende al 9 por ciento de sus ingresos proyectados, el doble del promedio de la industria, según el analista de Morgan Stanley, Betsy Graseck. La cifra del dólar ha subido más a medida que JPMorgan refuerza las defensas cibernéticas tras una violación de datos en 2014, que puso de manifiesto la información de 83 millones de clientes.

"Hemos invertido fuertemente en tecnología y mercadotecnia -y estamos viendo fuertes beneficios", dijo JPMorgan en una presentación el martes antes de su jornada de inversores, señalando que el gasto en tecnología en su banco de consumo ascendió a alrededor de mil millones de dólares en los últimos dos años.


Los asistentes inspeccionan el quiosco de software JPMorgan Markets para Investors Day.Foto: Kholood Eid / Bloomberg

Un tercio del presupuesto de la compañía es para nuevas iniciativas, una cifra que Zames quiere llevar al 40 por ciento en pocos años. Él espera que los ahorros de la automatización y el retiro de la vieja tecnología le permita arar aún más dinero en nuevas innovaciones.

No todas las apuestas, que incluyen varios proyectos basados ​​en un libro distribuido, como blockchain, pagarán, lo que JPMorgan dice que está bien. Un ejemplo de los ejecutivos son aficionados a mencionar: La firma construyó una plataforma electrónica para ayudar a intercambiar swaps por incumplimiento de crédito que no se utilizan.

'No puedo esperar'

"Estamos dispuestos a invertir para mantenerse por delante de la curva, aunque en el análisis final parte de ese dinero se destinará a un producto o un servicio que no era necesario", dijo Marianne Lake, jefe de finanzas del prestamista, a una audiencia de la conferencia en junio. Eso es "porque no podemos esperar a saber cuál es el resultado, el final, realmente se ve, porque el medio ambiente se está moviendo tan rápido".

En cuanto a COIN, el programa ha ayudado a JPMorgan a reducir los errores en el servicio de préstamos, la mayoría de los cuales provienen del error humano al interpretar 12.000 nuevos contratos al por mayor al año, según sus diseñadores.

JPMorgan está investigando más formas de implementar la tecnología, que aprende mediante la ingesta de datos para identificar patrones y relaciones. El banco planea usarlo para otros tipos de presentaciones legales complejas, como swaps de crédito y contratos de custodia. Algún día, la empresa puede usarlo para ayudar a interpretar las regulaciones y analizar las comunicaciones corporativas.

Otro programa llamado X-Connect, que entró en uso en enero, examina los correos electrónicos para ayudar a los empleados a encontrar colegas que tienen las relaciones más cercanas con potenciales clientes potenciales y pueden organizar presentaciones.

Creación de Bots

Para tareas más sencillas, el banco ha creado bots para realizar funciones como otorgar acceso a sistemas de software y responder a solicitudes de TI, como restablecer la contraseña de un empleado, dijo Zames. Se espera que los Bots manejen 1,7 millones de solicitudes de acceso este año, haciendo el trabajo de 140 personas.


Matt Zames - Photographer: Kholood Eid / Bloomberg

Mientras que un número cada vez mayor de personas en la industria se preocupan de tales avances podrían algún día tomar sus puestos de trabajo, muchos Wall Street personal están más centrados en los beneficios. Una encuesta realizada a más de 3.200 profesionales de la industria financiera por parte de la empresa de reclutamiento Grupo de Opciones el año pasado encontró que la mayoría esperaba que la nueva tecnología mejorara sus carreras, por ejemplo mejorando el desempeño en el lugar de trabajo.

"Cualquier cosa en la que tenga operaciones de back-office y seres humanos moviendo la información del punto A al punto B que no esté automatizada está madura para eso", dijo Deasy. "La gente siempre habla de esto como un desplazamiento. Hablo de esto como liberar a la gente para que trabaje en cosas de mayor valor, por lo que es una gran oportunidad para la firma ".

Para ayudar a estimular la interrupción interna, la compañía mantiene las pestañas de 2.000 empresas de tecnología, utilizando alrededor de 100 en programas piloto que eventualmente se unirán al creciente ecosistema de socios de la firma. Por ejemplo, el software de aprendizaje automático del banco fue construido con Cloudera Inc., una empresa de software que JPMorgan encontró por primera vez en 2009.

"Estamos empezando a ver los verdaderos frutos de nuestro trabajo", dijo Zames. "Esto no es cosa de pastel en el cielo."

sábado, 25 de febrero de 2017

Algoritmo busca asesinos en serie




El algoritmo capaz de identificar asesinos seriales
Cruzando datos públicos como nadie lo había hecho antes, un ex periodista enseñó a las computadoras a encontrar patrones comunes en los homicidios no resueltos
Infobae



Cuando en octubre de 2014 Darren Deon Vann, un hombre de 43 años, fue detenido por el homicidio de la joven Afrikka Hardy en Indiana, Thomas Hargrove siguió el caso como si se tratara de algo personal. Cuatro años antes, el periodista retirado, experto en análisis de datos, había escrito varias veces a la policía de la ciudad donde sucedió el hecho, con la misma pregunta: "¿Es posible que haya un asesino serial activo en la zona de Gary?".

Nunca le respondieron.

Thomas Hargrove desarrolló un algoritmo que detecta patrones entre homicidios no resueltos en la misma zona.

Vann llevó a los investigadores hasta seis edificios donde había dejado otros seis cuerpos de mujeres asesinadas. Antes de pedir un abogado y callar para dejar de autoincriminarse, Vann se jactó de haberse dedicado a matar desde la década de 1990.

En sus correos electrónicos y en sus cartas certificadas al Departamento de Policía de Gary, Hargrove había enviado una serie de hojas de cálculos que él había creado sobre la base de información que la Agencia Federal de Informaciones (FBI) tenía sobre los homicidios en esa ciudad de Indiana: 14 casos sin resolver, mujeres entre 20 y 50 años, todas estranguladas.
"En comparación con las estadísticas del país, el número de asesinatos similares era en Gary mucho más elevado que la norma", escribió Robert Kolker en su perfil del investigador espontáneo para Bloomberg Businessweek. "Tanta gente, muerta de la misma manera en la misma ciudad, ¿no sugeriría eso que al menos unas pocas de ellas, o acaso más, podrían ser casos conectados? ¿Y que el homicida estaría suelto todavía?".

Hargrove ofreció otros datos, ignorados como los anteriores por la policía de Gary: varias de las mujeres habían sido estranguladas en sus domicilios; al menos en dos casos, un incendio había tratado de ocultar lo sucedido; varias de las víctimas habían sido halladas en edificios abandonados.

Ese dato hizo que el ex periodista prestara atención al caso de Vann.
El asesino de Hardy había guiado a la policía a edificios abandonados, donde hallaron otras víctimas estranguladas.

Su método de análisis estadístico servía, comprobó.
Pero si tenía razón, no había logrado evitar la muerte de siete mujeres desde que se intentó contactar con la policía hasta la detención del homicida confeso.


La fundación MAP se dedicó a recopilar información sobre homicidios no resueltos, entre los cuales se destacan patrones de similitud cuando ha actuado un asesino serial.

Junto con un ex investigador de homicidios del FBI, Eric Witzig, autor del trabajo académico Observations on the Serial Killer Phenomenon (Observaciones sobre el fenómeno del asesino serial), Hargrove fundó The Murder Accountability Project (MAP, Proyecto de Contraloría de Asesinatos).

En su página, en la sección "Por qué existimos", explicaron el sentido del MAP: "Cada año al menos 5.000 asesinos quedan impunes. La tasa de esclarecimiento de homicidios mediante un arresto policial ha disminuido durante los años, hasta que hoy un tercio queda sin solución".

En comparación de tasas anteriores de más del 80% (en la década de 1960, llegó al 90%), en 2014 el porcentaje era del 64,5% y en 2015, del 61,5%, con grandes variaciones entre ciudades: Los Angeles, Nueva York y Houston están por encima del 70%, mientras que Nueva Orleans, Detroit y Saint Louis oscilan en el 40%, sin contar casos especiales como el de Chicago, que tuvo un aumento de 485 homicidios en 2015 a 762 en 2016.
"Como resultado —siguieron Hargrove y Witzig en su web— más de 222.000 estdounidenses han muerto en homicidios no resueltos desde 1980: más que el total de muertes de todas las acciones militares del país desde la Segunda Guerra Mundial".

Como no existe una oficina gubernamental que estudie los homicidios no resueltos, el MAP se dedicó a obtener información de nivel federal, estatal y local sobre ellos, y lo puso en línea. La innovación de Hargrove, según Bloomberg, "fue enseñarle a una computadora a detectar tendencias en homicidios no resueltos, utilizando información disponible públicamente que nadie, incluidas las autoridades de aplicación de la ley, habían usado antes".

Luego de pasar meses en el desarrollo del algoritmo que identificaría casos sin solución similares al punto de sugerir el mismo asesino (geografía, sexo, edad, método de homicidio, por ejemplo) lo puso a prueba al someterlo a ingeniería inversa: tomó un caso muy conocido, el del asesino de Green River, quien confesó haber matado a 48 mujeres en Seattle, Washington, a lo largo de dos décadas. Y funcionó.


La tasa de esclarecimiento policial de los homicidios ha bajado sin pausa desde la década de 1960, ilustra un cuadro de MAP.

MAP se basó en el Informe Complementario de Homicidios que el FBI publica cada año desde 1976: cada caso que fue denunciado a la institución aparece con el detalle de la edad de la víctima, la raza, el género, la forma en que fue asesinada, las circunstancias que se conocen. Como 18 estados no pasan sus estadísticas al FBI, Hargrove y Witzig apelaron a la Ley de Libertad de Información (FOIA) para pedir datos de esos lugares. También recurrieron a la justicia en el caso de Illinois, que no les respondió.
"Ya han reunido detalles de casos de 638.454 homicidios desde 1980 a 2014, incluidos 23.219 que no habían sido denunciados al FBI", escribió Kolker.

"Es la lista más completa de casos detallados de homicidios en los Estados Unidos de que se dispone, y el sitio del grupo lo ha publicado de manera abierta". Es decir que cualquiera puede consultarla: "Uno puede buscar su lugar natal y ver si hay algo sospechoso", dijo Hargrove. "Si es el padre de una asesinada, puede buscar su caso, y ver si hay otros registros que se le parezcan. Quisimos hacerlo una colaboración abierta sobre homicidio".

Entre las revelaciones laterales que brindó el algoritmo se halla una de importancia: Hargrove notó que allí donde se redujeron los presupuestos de las policías aumentaron los casos sin solución. En Flint, Michigan, por ejemplo, se ajustó la planta de oficiales de 330 a 185, y la tasa de resolución de casos se desmoronó más de 30% desde 1990.

Y entre los planes futuros de MAP se incluyen aumentar las colaboraciones con las fuerzas policiales. Ya han asesorado a las jefaturas de Atlanta, Georgia, y Austin, Texas. También han ofrecido seminarios a detectives en la Asociación Internacional de Investigadores de Homicidios y en la División de Capacitación del FBI en Quantico, Virginia.

jueves, 5 de marzo de 2015

Los robots toman por asalto la Bolsa de Tokio




Los humanos perdiendo a medida que los robots toman la Bolsa de Tokio

por Yuji Hasegawa NakamuraToshiro

 
El autor Michael Lewis
Michael Lewis, autor de "flash Boys", habla durante una entrevista con Bloomberg Television en Nueva York. Lewis, cuyo libro más vendido, "Flash de Niños," pintó la multitud HFT como villanos, sostienen la práctica da a las personas con las computadoras más rápidas una ventaja injusta. Fotógrafo: Chris Goodney / Bloomberg

(Bloomberg) - Yuji Honkawa sabían que los seres humanos estaban perdiendo en abril de 2010, cuando no importa lo rápido que envió órdenes para ser llenados en la Bolsa de Valores de Tokio, una máquina se le adelantó.
Desempleado ahora después de 20 años ocupan la renta variable a siete agentes de valores diferentes, la de 47 años de edad Honkawa observó cómo el mercado se aceleró y comerciantes automatizados pasó de generar 10 por ciento de los pedidos en el inicio de 2010 a un 72 por ciento el año pasado. Entre los hombres y mujeres que batallaron para obtener los precios para los clientes, el 80 por ciento ha dejado la industria, estima.
"Es algo así como el Terminator", dijo Honkawa en una entrevista. "La historia trata de seres humanos y máquinas batallando, y al final las máquinas de exterminar a todos los seres humanos."
El aumento de la negociación de alta frecuencia ha llamado la atención generalizada en los Estados Unidos. Críticos como Michael Lewis, cuyo libro más vendido, "flash Boys" pintado la multitud HFT como villanos, argumentan que la práctica da a las personas con las computadoras más rápidas una ventaja injusta.
Pero para una variedad de razones, la mayoría de ellos lo que refleja el predominio de la Bolsa de Tokio, el cambio en Japón fue ampliamente ignorado fuera de la comunidad financiera. En una encuesta de Bloomberg tomada en julio, el 28 por ciento de los encuestados de Asia expresó una visión negativa de la negociación de alta frecuencia, en comparación con el 57 por ciento en los EE.UU.
El frenesí diario se lleva a cabo en silencio, en dos centros de datos con vistas a la bahía de Tokio. Originalmente desarrollado por Tokyo Electric Power Co., los edificios se sientan encima de una de las mayores subestaciones eléctricas en Japón y están diseñados para soportar terremotos, tsunamis y tifones.

Jaulas de ordenador

En el interior, miles de servidores que pertenecen a operadores de alta frecuencia, los intermediarios y la Bolsa de Tokio se guardan en jaulas nevera de tamaño. Vinculado por kilómetros de cable de fibra óptica que se ejecutan a lo largo de las paredes y los techos, las máquinas están involucradas en casi todas las acciones, futuros y opciones de comercio, según datos del TSE. Desde 2010, el valor de las acciones de compra y se vende cada año a través de computadoras HFT alojados junto a los sistemas propios del cambio se ha más que triplicado a casi 270 billones de yenes ($ 2,300,000,000,000), según datos del TSE sobre la actividad de facturación y co-ubicación.
Las máquinas están armados y supervisadas por los mismos especialistas de alta frecuencia que los Estados Unidos dominan los intercambios, incluyendo Virtu Financial Inc., Torre Capital Research LLC y el río Hudson Trading LLC. En total, varias docenas de empresas emplean software para que coincida con las órdenes de cinco años de edad, la plataforma de comercio Arrowhead del TSE a velocidades de más de 1.000 veces más rápido de lo que era posible hace cinco años.
El uso de todo, desde arbitraje estadístico a la inteligencia artificial, y operando con la bendición de los intercambios y los reguladores, las computadoras hacen dinero capturando los diferenciales y otras discrepancias de precios.

Ganar dinero

Pero hacer dinero con alta frecuencia en Japón es más difícil de lo que es en los Estados Unidos. Eso es debido a que más del 90 por ciento del comercio de acciones ocurre en un solo lugar: la Bolsa de Tokio. El mercado de valores de Estados Unidos, por el contrario, se ha convertido en muy fragmentado, lo que permite a los equipos de arrastre con fines de lucro entre 50 lugares separados.
"'Flash Niños' definitivamente creado mucho ruido en los EE.UU., pero en Asia sería menos eficaz para ejecutar esas estrategias porque la mayoría tienen lugares individuales", dijo Dickson Mok, el jefe de las operaciones con el centro en activo-manager Pinebridge Inversiones Asia Ltd. en Hong Kong. "No es tan fragmentado aquí como Estados Unidos, y que pone un freno a ese tipo de comercio HFT."

Amordazar al HFT

En ciertos aspectos, la Bolsa de Tokio se asemeja a un modelo que a veces se recomienda como una forma de amordazar a los operadores de alta frecuencia en los EE.UU. Ausente es el protocolo de pago y descuentos utilizado en lugares de América para fomentar el flujo de órdenes, conocido como fabricante de tomador . Jeffrey Sprecher, el director ejecutivo de propietario NYSE Intercontinental Exchange Inc., ha dicho que la práctica puede desalinear incentivos corredor y hacer que trabajan en contra de los intereses de los clientes.
Nada de esto se ha ralentizado la multitud de alta frecuencia en Japón. En promedio, los comerciantes de velocidad compran y se venden más de $ 9 millones de dólares de acciones de un día el año pasado, disparando cerca de 1.000 pedidos al mostrar los datos en segundo lugar, el intercambio.
Al igual que en los Estados Unidos, el ascenso de la negociación de alta frecuencia ha deletreado catástrofe para los agentes de valores humanos. A pesar de un aumento del 72 por ciento en el comercio de todos los días de 2009 hasta el año pasado y las ganancias más altas en casi una década, corredurías japoneses arrojan 8.262 puestos de trabajo durante los últimos cinco años, según datos de Japan Securities Dealers Association.
No todos los inversores están felices, tampoco. Algunos dicen que la revolución HFT de Japón ha estimulado la volatilidad y, como consecuencia, el aumento de los costes de negociación.

Aumento de ruido

"HFTS tienen la capacidad de magnificar el ruido", dijo Goya Nakao, un gestor de inversiones senior en Sompo Japón Nipponkoa Asset Management Co., que supervisa US $ 11 mil millones. "La alta volatilidad intradía es un verdadero dolor de cabeza."
Para limitar la publicación de tiro rápido y cancelación de compra y venta de instrucciones, una estrategia de críticos estadounidenses afirman desestabiliza los mercados, la Bolsa de Tokio cobra una pequeña cuota en cada orden común, ya sea ejecutado o no.
"Hemos implementado esta práctica en 2005 para hacer frente a una avalancha de órdenes de corretajes en línea, pero ahora está teniendo un efecto similar en HFT," dijo Tsuyoshi Otsuka, un gerente en el grupo de planificación estratégica en el TSE. "A veces escucho las quejas que les impide el envío de una tonelada de órdenes, por lo que parece estar teniendo un efecto disuasorio".
Para hacer frente a la velocidad, grandes corredurías han sustituido a los operadores humanos con paquetes de software diseñados para ir de cabeza a cabeza con las máquinas, la misma respuesta algorítmica desplegado en otro lugar para frustrar HFTS. Mok de Pinebridge dice que su solución es tomar sus mayores pedidos en otros lugares.

Minimización de Impacto

"Preferimos hacer cuadras de la central para minimizar el impacto del mercado y evitar que los operadores HFT", de la recolección de la información, dijo Mok.
El jefe de estrategias de activos de $ 870 mil millones administrador de riqueza soberana de Noruega dijo en noviembre el fondo estaba haciendo más operaciones en bloque para evitar patrón de lectura, mientras que confían menos en algoritmos broker-desarrollado.
Honkawa, una víctima HFT, dice que los jugadores pueden haber cambiado, pero el mecanismo del mercado en general no tiene. Los ordenadores están simplemente haciendo lo que él y otros distribuidores siempre trataba de hacer: mover más rápido que el otro tipo.
"Los ganadores son los que pueden comprar y vender más rápido que todos los demás", dijo. "Ese principio básico sigue siendo cierto en el mercado actual. Lo único que ha cambiado es la forma en que hacemos la compra y venta. "

Twitter Delicious Facebook Digg Stumbleupon Favorites More

 
Design by Free WordPress Themes | Bloggerized by Lasantha - Premium Blogger Themes | Best Hostgator Coupon Code