20140324044035-quakebot-el-robot-periodis.jpg

 

11:26:52 p.m. 

El rotativo californiano se convirtió en el primero en informar sobre el temblor matutino. Lo hizo Quakebot, que no es propiamente un robot, sino un algorismo programado para extraer información del Servicio Geológico de EE.UU. (USGS) e incluirla en una plantilla diseñada previamente.  Permiten a una máquina realizar actividades como las búsquedas en el navegador de Google. 

Wall Street lo usa para tomar decisiones multimillonarias en cuestión de nanosegundos, la NASA para identificar meteoritos, la medicina para buscar curas a grandes enfermedades y ahora el periodismo para informar mejor y más rápido, en esta competencia loca por dar el «palo» periodístico a la velocidad de internet.

Sucedió hace poco con el diario estadounidense Los Angeles Times,  primero en dar la noticia del sismo de 4,4 grados en la escala de Richter, que hizo temblar el pasado lunes a la ciudad californiana.

«Creo que la tuvimos en la web en tres minutos», afirmó Ken Schwencke,  autor de un algoritmo que genera un artículo breve cuando se produce un temblor y, tal y como ocurrió. 

Schwencke, periodista y programador del famoso periódico estadounidense, contó a la revista digital Slate que el sismo lo sacó de la cama a las 06.25 de la mañana, pero enseguida  corrió el a su PC, y vio que la noticia ya estaba escrita y esperando en el sistema de gestión de contenido del periódico, donde espera a ser revisada por un editor. 

Leyó rápidamente el texto y pulsó el botón de «publicar». Aquí está, en en su idioma original, y en español: 

A shallow magnitude 4.7 earthquake was reported Monday morning five miles from Westwood, California, according to the U.S. Geological Survey. The temblor occurred at 6:25 a.m. Pacific time at a depth of 5.0 miles. 

Según el Servicio Geológico de EE.UU., un temblor de escasa magnitud de 4,4 grados tuvo lugar el lunes por la mañana a ocho kilómetros de Westwood, California. El temblor se produjo a las 06.25 de la mañana, hora del Pacífico, a una profundidad de 8 kilómetros».

Los otros dos párrafos escritos por el «robot periodista» incluyen información sobre el epicentro del temblor y la fuente de la información.

According to the USGS, the epicenter was six miles from Beverly Hills, California, seven miles from Universal City, California, seven miles from Santa Monica, California and 348 miles from Sacramento, California. In the past ten days, there have been no earthquakes magnitude 3.0 and greater centered nearby.

This information comes from the USGS Earthquake Notification Service and this post was created by an algorithm written by the author».
 

El algoritmo también genera historias sobre homicidios  en la ciudad de Los Ángeles y es tarea de los editores decidir cuáles son más importantes.

Schwencke dice no creer que algoritmos como el que él ha creado representen una amenaza para los periodistas.

«Es complementario», pues ayuda a ahorrar tiempo y en algunas historias, como las de terremotos, «produce información tan correcta como cualquier humano. No elimina el trabajo de nadie sino que hace sus trabajos más interesantes», afirmó Schwencke a Slate.

El Times usa los algoritmos en muchos de los gráficos interactivos y los procesos de análisis de datos. También utiliza uno que escanea cientos de fotografías cada semana y genera un gráfico con los colores y patrones de la temporada.

Los algorismos en los periódicos

A la vanguardia en el uso de algoritmos en los Estados Unidos, está ProPublica, una organización sin ánimo de lucro de periodismo de investigación que encabeza el ex director del diario The Wall Street Journal, Paul Steiger.

Entre los proyectos que más han dado que hablar figura uno de «ingeniería inversa», usado para investigar el sistema de email directo utilizado por el presidente Barack Obama durante su campaña a la reelección, y que envía unos correos electrónicos u otros en función de la edad, la raza o el nivel adquisitivo del destinatario.

La agencia Associated Press ha desarrollado también durante los últimos años Overview, una plataforma de código abierto financiada por la Fundación Knight, que permite navegar por grandes cantidades de documentos, como las filtraciones de WikiLeaks sobre la guerra en Irak o los cables diplomáticos estadounidenses.

La plataforma, alimentada por un algoritmo inteligente, permite organizar los documentos por temas y subtemas y visualizarlos, de forma que el periodista puede encontrar exactamente lo que buscaba, contar el número de documentos en cada área o etiquetar categorías enteras para su posterior análisis.

Chase Davis, editor adjunto del equipo interactivo del diario The New York Times resta importancia al temor a que la automatización destruya más puestos de trabajo en una industria en crisis y lo ve como un paso en la buena dirección, que permitirá hacer coberturas periodísticas más sofisticadas y mecanizar las tareas más rutinarias y aburridas.

 (Fuentes: TAE /EFE)