#ISOJ12 – Panel Periodismo de Base de Datos

La presentación del panel en el Programa del International Symposium on Online Journalism curado por nuestros queridos Rosental Alves y Amy Schmitz Weiss:

The New Narrative: How data is changing the way we tell stories online
Chair and presenter: Aron Pilhofer, interactive news editor, The New York Times

  • Brian Boyer, news applications editor, Chicago Tribune Media Group
  • Alberto Cairo, lecturer in visual journalism, University of Miami
  • Alastair Dant, lead interactive technologist at Guardian News & Media, London, UK
  • Angelica Peralta Ramos, multimedia development manager, La Nación, Buenos Aires, Argentina
  • Ben Welsh, database producer, Los Angeles Times

 

Y por si todavía no lo vieron, el PDF y los links de Momi Peralta Ramos.

Por último, el Storify de Cindy RoyalSeguir leyendo

Panel #DoingDataJ en el Tow Center de Columbia University

 

Watch live streaming video from columbiajournalism at livestream.com

 

En el Tow Center de Columbia University se llevó a cabo un panel auspiciado por ONA “Doing Data Journalism”. Los congregados fueron Julia Angwin (WSJ), Scott Klein (ProPublica), Jo Craven McGinty (NYT), Aron Pilhofer (NYT), Ashkan SoltaniMo Tamman (Reuters). Susan E. McGregor (CU) resultó una excelente anfitriona y moderadora.

¡Ví el video 3 veces! Realmente muy enriquecedor el debate. Todos ofrecieron agudas reflexiones y mucha información. Si pueden entenderlo en inglés no duden en verlo entero. Me resultó apasionante y diré que, en muchos momentos, ¡sin censura!

 

Jo Craven McGinty del New York Times, todo un hallazgo.

Descubrí varios personajes nuevos pero voy a concentrarme en ella.

En 1995, realizó una Maestría de Periodismo con Base de Datos en la Universidad de Missouri, cuna de varios data ninjas.

Revisando un dataset con registros de homicios del FBI, encontró que faltaba información sobre varios homicidios causados por policías, pero ahí quedó la cosa. Al terminar sus estudios, ingresó al Washington Post donde sugirió retomar la investigación e integró el team que ganó un Pulitzer Prize for Public Service en 1999 con esta historia de corrupción policial.

Jo mencionó otro caso donde la historia surgió a partir de la imposibilidad de armar un data set coherente. Fue en relación a facturas de agua impagas en la ciudad de Nueva York. Supusieron que muchos podían pagar y no lo hacían, aprovechándose de la inoperancia del gobierno. En efecto, las sumas adeudadas resultaron un agujero negro ante la desprolijidad en la gestión.

 

Con respecto a herramientas de visualización, las utiliza para “consumo personal”. Es decir, para analizar información. Destacó el uso de software de mapeo, charts de Excel, etc. que le facilitan detectar puntas de investigación.

Por último, concluye de su experiencia personal que, entre estar sentada en una sección específica (estuvo en Metro) o junto al Data Team, le resulta profesionalmente más enriquecedora esta última opción. Le permite continuar aprendiendo de las conversaciones diarias entre el equipo. Eso sí, su desafío es que las distintas secciones de la Redacción no se olviden de involucrarla en historias que podrían incluir bases de datos.

 

En la Redacción:  Números versus testimonios.

Lo que más me impresionó de todo el video fueron dos testimonios de Tamman y Pilhofer.

Ambos fueron consultados por sendos compañeros de redacción por una historia en desarrollo. Los dos hicieron una devolución negativa con fundamento en base de datos y al poco tiempo, la historia salió  publicada con los errores oportunamente advertidos por ellos.

La conclusión de ambos es que todavía en las redacciones suelen ser más valorados los testimonios, anécdotas o percepciones empíricas frente a la contundencia de las bases de datos.

Pilhofer lo comenta muy enojado a partir del minuto 42:00. ¡Creo que después se arrepintió de haberlo compartido! Seguir leyendo

NY TIMES: Aron Pilhofer y el estado del periodismo de datos.

Aron Pilhofer, editor de Interactive News en The New York Times

Periodismo de datos, por qué no se hace tanto como sería necesario según editor del New York Times

Por Teresa Bouza

NOTA DEL EDITOR: Teresa Bouza, Knight Fellow en la Universidad de Stanford, quien asistió a la Conferencia de Periodistas y Editores de Investigación 2012, en St. Louis, Missouri, entrevistó a Aron Pilhofer, editor de “Interactive News” (Noticias Interactivas) en The New York Times, antes de su charla del viernes (24 de febrero). Pilhofer, que está en la junta directiva del IRE (Organización de Periodistas y Editores de Investigación, en idioma español), lidera un equipo de reporteros y desarrolladores que diseña aplicaciones de bases de datos con el fin de mejorar la información online de The Times.

La expresión “periodismo de base de datos” se ha convertido de repente en popular. Pero Pilhofer destaca que hay un elevado “analfabetismo” en temas de datos entre los periodistas. El editor del Times subrayó, de todos modos, que para hacer periodismo de datos no hace falta ser un científico espacial e insistió en que es “vital” para los periodistas el adquirir al menos ciertos conocimientos básicos. Según Pilhofer, todavía es difícil lograr que los periodistas piensen en utilizar datos como una fuente y que consideren diferentes formas y ángulos a la hora de contar una historia. Pero la verdadera barrera para las historias que se basan en datos es que, “en los niveles más altos”, la importancia del periodismo de base de datos no ha llegado lo suficientemente lejos. En los niveles más altos, es un conocimiento que se ha “infravalorado”, aseguró el editor del New York Times. De modo que no es simplemente un tema de “cuán importante son estas habilidades para uno como periodista” sino de “cuán importante cree que son tu jefe y el jefe de tu jefe”.

– Dadas las herramientas que tenemos ahora, ¿cuál piensa que es el principal desafío al que se enfrentan los periodistas cuando manejan datos? – Para mí, no es un problema de herramientas. Quiero decir, tenemos computadoras más potentes, contamos con más capacidad que nunca para hacer cosas. Con Amazon EC2, se puede básicamente acelerar una supercomputadora durante una tarde, si se quiere, y pagar 100 dólares o una cifra similar, si es necesario analizar grandes cantidades de datos. No es un problema de tecnología, es un problema de personas.

Seguir leyendo