Entrevistas a los grupos de trabajo del #Datafest14

Entrevistamos a los equipos de trabajo que pusieron manos a la obra durante las dos jornadas del Datafest 2014. Esto fue lo que nos contaron sobre los proyectos en los que estuvieron trabajando. No se pierdan sus testimonios:

 

Sin comentarios

Los proyectos que el #Datafest14 nos dejó (2)

DATA RATA – Mapa de plagas en la Ciudad de Buenos Aires

 

 Bases: Base 147 sistema de atención ciudadana

Integrantes:

Valeria Vera, periodista

Maximiliano Dias, diseñador

Pablo Pesciallo, fotógrafo, cineasta, blogger

Raúl Verde Paz, periodista

Irina Moldavsky, matemática

Gabriela Miño

Resumen: Se utilizaron datasets del número 147 de atención ciudadana de los años 2012 y 2013. Se realizó una comparativa anual de la base de datos de los llamados, quejas y reclamos y se extrajeron los datos de la base de datos llamada “Plaga de ratas”. Se visualizaron mes a mes los porcentajes de variación en el rubro especifico, barrio por barrio.

 

Herramientas: Excels y datasets del Gobierno de la Ciudad de Buenos

 

Análisis de los indicadores del desarrollo de los países de América del Sur

Bases: Banco Mundial

Integrante: Gary Suma, Ingeniero de sistemas

 Resumen: Se trató de un proyecto que buscó promover la mejora de los indicadores de desarrollo en función de un mejor conocimiento de los mismos.

Gastos del senado 2014

Bases: VozData

Integrantes:

Pablo Gianferro

Angel Vallejos

Nicolas Caridad

Gissella Peralta

Resumen: Se revisaron los PDFs de Gastos del Senado liquidados durante el año 2014 para construir una base de datos estructurada en tiempo real. Este 3er proyecto de Vozdata se suma a los gastos ya abiertos de 2010-2012 y 2013. Al terminar el chequeo se obtendrán 4 años y medio de información para analizar y visualizar.

Subsidios al transporte

Bases: Secretaría de transporte

Integrantes:

Diego Cabot

Adrian Quevedo

Resumen: Se buscó analizar los gastos del gobierno en materia de subsidios al transporte: Se realizó un gráfico con el consumo por provincia y se calculó la “mediana”, en base a la cual descubrieron muchas empresas que se encuentran fuera de rango, lo que constituye un escenario posible de corrupción, digno de ser investigado.

Registro de audiencias de gestión de Intereses

Bases: Poder legislativo. Más de 65.000 registros que cubren el período 2004-2014.

Integrantes:

Andy Tow – Politólogo

Ivan Ruíz – Periodista

Resumen:  De acuerdo al Decreto 1172/2003 se deben difundir las Audiencias de Gestión de Intereses. ¿Quienes son los funcionarios que mejor cumplen en registrar sus audiencias? ¿como se evolucionó en estos 10 años? De acuerdo a esto se propuso explorar las audiencias presidenciales. De la base  de datos se seleccionaron las audiencias de la presidenta Cristina Fernández de Kirchner, las cuales se clasificaron por temas según el perfil de los solicitantes. También se clasificaron según el sitio donde se realizaron (despacho presidencial, salones de Casa de Gobierno o residencia de Olivos) y se contaron los asistentes a cada audiencia.

Se calculó el promedio de personas por reunión, por año.

Link a los gráficos resultantes del proyecto

Mortalidad en las cárceles argentinas

Bases: Procuración penitenciaria de la Nación

Integrantes:

Marthe Rubio

Elena Brizuela

Matias Drudi

Resumen: Mueren 300 presos cada año en las cárceles de la Argentina según la Procuraduría de Violencia Institucional. Sin embargo, estas muertes tienen poca o ninguna repercusión a nivel nacional. Usando programación, escrapeo de noticias publicadas en la prensa regional y Open Source Intelligence, se intentó descubrir quiénes son las víctimas del Sistema Penitenciario Argentino.

 Prezi con la presentación del proyecto 


Eficiencia Judicial

Bases: CIJ

Integrantes:

 Ricardo Brom

 Sergio Carriquiri Borde

 Susy Bello Knoll

Resumen: se buscó identificar diferentes delitos con números de leyes mencionados en los fallos (de tenencia de estupefacientes, de trata, homicidio, etc.) y con ellas tipificar los diferentes fallos, intentando rescatar alguna fecha de inicio de la causa, ya que el expediente a veces la indica (ej. 34.532/2002) pero otras no. El proyecto consistió en bajar los fallos del CIJ, categorizarlos por materia y en base a las fechas de inicio y de finalización identificar la cantidad de tiempo que insumió llegar al pronunciamiento.

Herramientas: Excel


Sin comentarios

Los proyectos que el #Datafest14 nos dejó (1)

Alianzas en las elecciones 2013

Bases: Agrupaciones políticas habilitadas para las PASO 2013 - Dirección Nacional Electoral

 Integrantes: “The Viz Machine”

Tomás Crom -Periodista

Martín Alalú – Politólogo y Periodista

Mariano Estevez -Dataminer

Antonio Milanese -Politólogo

El proyecto consiste en una visualización de las alianzas entre los partidos que participaron en las elecciones a diputados nacionales en el 2013. El grafico muestra las distintas alianzas a nivel nacional (kirchnerismo, peronismo opositor, UCR-Socialismo, PRO y el Frente de Izquierda) y el modo y frecuencia en que sus partidos integrantes interactuaron.

El primer paso consistió en ordenar la base en pdf que publica la Dirección Nacional Electoral, y luego contar la cantidad de veces que dos partidos compartían una alianza en cualquier distrito, de modo que pudiese relacionarse a ambos partidos y establecer el peso (densidad) de dicha relación. Utilizaron Gephi para hacer la visualización y un algoritmo de clusterización para identificar las comunidades. Por último se utilizó Sigma JS para poder hacer las imágenes interactivas.

 Post en Medium

Visualización interactiva

Twitter: @thevizmachine

Herrarientas: Excel, Gephi, Sigma JS

 TVM – Mapeando alianzas

 

El foursquare de la educación

 

Bases: establecimientos educativos / estadísticas educación

Integrantes:

Pablo Seibelt – Desarrollador de Software

Gissela Peralta – Programadora- comunicadora

Jorge Drot de Gourville – Analista Data Mining

Cristian D’agata – Analista Data Mining

Resumen: Se trata de una herramienta de crowdsourcing nutrida por la gente y hecha para la gente. La idea es que la herramienta funcione como una fuente de datos actualizada por los mismo interesados, de la misma manera en que funcionan aplicaciones y sistemas como Foursquare, Yelp, Guia Oleo, etc. El concepto, por ende, sería similar pero adaptado a escuelas públicas y privadas, permitiendo al usuario común evaluar las escuelas cercanas para elegir a cual enviar a sus hijos. Los datos anónimos y sumarizados estarían disponibles para cualquiera que quisiera utilizarlos para realizar análisis más detallados, de manera que sería una fuente de información para analistas de periodismo de datos. Un análisis que podría realizarse a priori, suponiendo un uso continuado de la herramienta, sería relacionar las inversiones realizadas en educación con un cambio en las puntuaciones de infraestructura a lo largo del tiempo.

Durante el Datafest se realizó un prototipo que puede verse en http://datafest.sicarul.com. En principio sólo funciona para capital federal. El resto de las funcionalidades quedan para una segunda etapa.

Análisis de datos de censos de estudiantes

Bases: Censos de la UBA, Censo Indec 2010. Complementarios: Cippec, ONU, BM.

Integrantes:

Natalia López – Periodista

Miguel Pol – Programador, consultor

Federico Belvedere – Ingeniero

Alejandro Gerardi – UBA, censo

Gabriel Latorre – investigador

Agustín Leoli – periodista digital, comunicador

Silvia pizano – investigadora

Inés Selvood – comunicadora / periodista digital

César PLanes – Director Censo UBA

Tamara Terciana – analista, programador

Luis Acosta – investigador

Aigul Safiullina – Periodista

Canasta inflacionaria

Bases: Indice barrial de precios

Integrantes:

Alejandro Baranek – Programador

Cristian Bertelegni – Programador

Maximiliano Mozetic – Economista

El Índice de la Canasta Básica releva 25 mil precios por mes en 7 ciudades del país. El proyecto buscó realizar una herramienta interactiva para mostrar la dinámica inflacionaria de la Canasta Básica y más específicamente qué productos de la canasta básica son los que más influyen en la inflación de un determinado mes, pudiendo filtrar por ciudad o por producto.

Se utilizó el lenguaje R para los procesamientos de datos y protipos y JavaScript d3, c3.. Tambien DataHub: http://datahub.io/dataset/ibp-ar

Link a la aplicación

#AutovíaRuta14

El proyecto #AutovíaRuta14 aspira a mejorar la visualización de información referida a los accidentes ocurridos en el corredor vial de la Ruta Nacional 14 que une a la Argentina con sus socios del Mercosur.

La aplicación en desarrollo pretende generar un sistema de visualizaciones interactivas que aporten un mejor insumo para la toma de decisiones. Para ello se pretende visualizar:

 ·         Cantidad de accidentes ocurridos en la Autovía (por año y por mes)

·         Comparación con cantidad de accidentes anteriores a la construcción de la Autovia (2006)

· Flujo dinámico del tránsito

· “Temperatura” de los sectores de la ruta (en base a cantidad de accidentes ocurridos en cada uno de los 40 tramos de la Autovía).

· Cantidad de heridos y muertos por mes / año / tramo de la ruta

· Tipos de accidentes (Frontales, laterales, de atrás, otros) x mes y por año.

· Tipo de vehículo involucrado en accidente (Auto, camión)

Se generará a su vez aplicación mobile para geolocalizar accidentes en tiempo real. Este sistema de alertas estará disponible para dependencias de Policía y Gendarmería que controlan el corredor vial, Bomberos y Hospitales a la vera de la Autovía.

El modelo general que se aplique para la Autovía Ruta 14 será un modelo que replique en los 18 corredores viales del país.

El equipo realizó un hackatón para seguir trabajando en el proyecto.

Modelando sobre datos de la estadística educativa

Bases: Educación + CABA – Escuelas públicas vs privadas –  Resultados de evaluación calidad educativa

Integrantes:

Nahuel Dikenstein

Augusto Gesualdi

Gastón Gadea

Matias Canovas

 Resumen: Un análisis de datos estadísticos de educación para distinguir diferencias entre escuelas públicas y privadas. Una visualización estática de resultados para distinguir un tipo de escuela de otra. Se buscó identificar si existe una diferencia en la calidad educativa según el tipo de institución.

 Herramientas: SAS, SPSS

Datafishing

Bases (click para descargar):

Argentina – Siia, Minagri

Malvinas – Falkland Islands Gvt

Chile – Servicio Nacional de Pesca y Acuicultura:

Peru – Ministerio de la producción

Uruguay – Dirección Nacional de Recursos Acuáticos (DINARA)

Integrantes:

Tomas Cantinello

Miguel Angel Silva

Anais Dubois

Pablo Armas

Helge Holler

Franco Hechenveitner

Resumen: Por segundo año consecutivo se reunió un equipo en el Datafest para tratar los datos de las capturas pesqueras por país desde 1992 hasta 2013. El equipo realizó una visualización mostrando una comparativa entre el mercado de pesca que queda en el país y la exportación que se realiza. La pregunta que catapultó la investigación fue: ¿Por qué es tan caro el pescado en Argentina? ¿Cómo son las capturas en otros países?

Herramientas: Excels, CartoDB, Tabula, Google charts, Tableau Public, OpenRefine

Sin comentarios

Los Keynotes del Datafest

“DESDE LA PREHISTORIA DE LOS DATOS HASTA EL NACIMIENTO DEL BIG DATA” STEVE DOIG (KNIGHT CHAIR)

Link a la presentación de Steve

Steve Doig (@sdoig), quien hizo su primer análisis de datos usando BASIC en 1967, habló de la evolución del periodismo de datos desde cuando se ordenaban pequeñas bases de datos a mano para encontrar patrones hasta los monstruos de hoy en día, con cientos de millones de registros.

 

“UN PERIODISTA DE DATOS EN TWITTER” SIMON ROGERS

Link a la presentación de Simon.

¿Qué es el periodismo de datos y cómo puede viajar de Londres a Silicon Valley? Durante este keynote, Simon  (@smfrogers) habló de su carrera en periodismo de datos, de como esta área del periodismo está cambiando muy rápidamente y de cómo cuenta historias con billones de tweets.

HACIA UN MUNDO MÁS ABIERTO ALEX HOWARD (TECHREPUBLIC)

¿Qué surge de la intersección entre tecnología, medios y movimientos? Durante este Keynote Alex (@digiphile) explicó, entre muchas otras cosas, cómo la tecnología puede ayudar a los cuidadanos y a los gobiernos a resolver las grandes problemáticas del futuro.

Sin comentarios

Las charlas y talleres del datafest – Segundo día

Les dejamos las presentaciones y una mini introducción a las charlas y talleres de la segunda jornada del Datafest.

“HCD ONLINE – DESAFÍOS DE LA GESTIÓN LESGISLATIVA 2.0” – MANUEL ABELLA NAZAR

Se presentó la primer herramienta de seguimiento legislativo íntegramente pensada y desarrollada para los Concejos Deliberante de la provincia de Buenos Aires.

“CSVKit, TRABAJANDO CON ARCHIVOS CSV EN LA TERMINAL”  - GABRIELA RODRIGUEZ

Durante el taller Gabriela  (@gaba) dió un pantallazo sobre el manejo de archivos CSV en la terminal sin tener que abrirlos o exportarlos a otros formatos. CSVKit es una suite de herramientas para hacer limpieza y análisis de datos.

>> Link a la presentación

 

“APPS ANTICORRUPCIÓN” – GABRIEL CECCHINI

En esta charla Gabriel  (@GabrielCecchini) presentó diversos ejemplos globales y regionales de las aplicaciones anticorrupción existentes y de cómo se clasifican de acuerdo a su estructura (“minorista”, “mayorista”, de “autoayuda”, etc.). Además se sugirieron distintos tipos de fuentes y bases de datos de acceso público que potencialmente pueden usarse para extraer datos relativos a integridad empresarial en Argentina y la región.

>> Link a la presentación

 

“TORTURANDO EXCEL PARA HACER ESTADÍSTICAS” – STEVE DOIG

En este workshop Steve (@sdoig) enseñó a los participantes a usar Microsoft Excel para hacer análisis de estadísticas descriptivas univariadas, análisis de correlación multivariados y regresión lineal simple. También se vió como hacer estadísticas con la versión open source del programa SPSS.

>> Link a un .doc con la explicación

 

“COMO CONTAMOS HISTORIAS CON SENSORES” MARTIN RABAGLIA, DAVID GALAVOTTI, LUCAS RUDI E IVAN ROUMEC.

Los sensores están cambiando la forma de contar historias dándonos la posibilidad de obtener información relevante y contar mejores historias. El objetivo de este workshop fue trabajar historias y entender qué tecnologías existen para contarlas. (@sr_humo@pixelbeat, @thepiedrastone, @Gre3nlion)

>> Link al material de la presentación

 

“INTRODUCCIÓN AL DATA SCIENCE Y BIG DATA” ERNESTO MISLEJ

El objetivo de la charla fue brindar una introducción a DataScience y Big Data, mostrando su aplicación a disciplinas humanísticas o sociales y cómo fueron apareciendo técnicas más duras, análisis cuantitativo, hasta incluso experimentos (como A/B testing) en la práctica de tareas sociales.

>> Link a la presentación

 

“LA EXAGERACIÓN DE BIG DATA: TRES HISTORIAS SOBRE EL PROBLEMA DE TENER MÁS HERRAMIENTAS QUE ENTENDIMIENTO” – FERNANDO DAS NEVES

La charla giró sobre tres historias recientes de los últimos 80 años en torno a la diferencia entre entender y procesar grandes volúmenes de datos y saber hacer la pregunta correcta a esos datos.

>> Link a la presentación

 

“CARTOGRAFÍA BÁSICA PARA CONTAR HISTORIAS CON DATOS” – DAVO GALAVOTTI, NICOLÁS LOUND Y PILI MAYORA

En este taller, Davo Galavotti  (@pixelbeat), Nicolás Lound (@pinkcoso) y Pili Mayora  (@pilimayora) compartieron sus experiencias mapeando diversas fuentes de datos. Se trató de un taller práctico dividido en 4 partes. Revisión de herramientas, limpieza de datos, criterios para hacer una visualización y finalmente opciones de publicación.

 >> Link a la presentación

 

“EL FIN DEL SECRETO” – ESTEBAN MIROSFSKY

Bahía Blanca en los últimos dos años se consolidó como referente en la región gracias a su Programa de Gobierno Abierto. En su charla Esteban (@estebanmirofsky) presentó cómo fue el proceso y la implementación de este programa, las dificultades encontradas y los nuevos desafíos de crear una solución open source que para que otros municipios puedan abrir sus datos sin mayores costos y en muy poco tiempo (Open Rafam).

 >> Link a la presentación

 

 

Sin comentarios

Las charlas y talleres del Datafest – Primer día

Compartimos con ustedes las charlas y talleres del viernes 31 de octubre en el Datafest, y sus repectivas presentaciones.

 

“TABLEAU EXPRESS” MARIANA TRIGO VIERA Y JUAN LOPEZ (LNDATA)

En este taller, @MarianTV y @lopezjd  dieron argumentos de porqué usar Tableau para hacer visualizaciones de datos. Los pro y los contra de uno de los programas de visualización más conocidos en el mercado.

 

“#DATOCHQ: CONTRUCCIÓN COLABORATIVA DE UN EDIFICIO DE DATOS CHEQUEADOS” – LAURA ZOMMER

Laura (@lauzommer) dió una presentación de la plataforma #DatoChq que recopila, ordena y abre las bases de datos de Chequeado y las compartidas por distintos usuarios vía Twitter.

“FUTUROS ESCENARIOS DE DESARROLLO EN LA ARGENTINA A PARTIR DE LOS DATOS” – CARLOS JAVIER REGAZZONI

En esta charla, el Subsecretario de Gestión Económico Financiera y de Administración de Recursos del Ministerio de Educación de la Ciudad de Buenos Aires dió un pantallazo de lo que vendrá en materia de datos en Argentina.

“HERRAMIENTAS DE GOOGLE PARA PROYECTOS DE PERIODISMO DE DATOS” -  MATY FUENTES

En esta charla Maty Fuentes (@matyfu) dió una introducción a las herramientas de Google para proyectos de periodismo de datos. Mostró el uso de Drive y Google Docs como plataformas trabajo colaborativo, almacenamiento y digitalización de datos y cómo crear formularios públicos. Además dió trucos búsqueda y tips de seguridad para periodistas.

 >> Link al sitio de recursos para periodistas de Google en el que se basó la presentación de Maty.

“APRENDÉ EL IDIOMA DE TU PROGRAMADOR, EL ÚNICO LENGUAJE QUE VAS A NECESITAR” – SEBASTIÁN SCARANO Y MATÍAS URBANO

¿JSON? ¿REST? ¿ws? ¿API? ¿git? ¿js? ¿github? ¡Un intérprete por favor! En esta charla se aprendieron una serie de conceptos para comunicarse efectivamente con los desarrolladores y se abordaron las etapas más comunes a la hora de desarrollar una visualización geográfica con herramientas libres. (@opensas y @MatiasUrbano)

 >> Link a la presentación

TEXT ANALYTICS PARA “DESCUBRIR EL TESORO”  - CATHERINE CRUZ

La información más valiosa que podemos obtener de los clientes, usuarios, o ciudadanos se encuentra en forma de datos no estructurados, como texto libre, contenido en mails y encuestas, chats, foros y redes sociales. Este taller mostró cómo indagar en esos registros con herramientas de análisis de texto, para interpretar y comprender lo que de verdad opinan y desean.

>> Link a la presentación

“ASPECTOS LEGALES DE LA RECOLECCIÓN Y USO DE DATOS” – PABLO PALAZZI

La charla buscó introducir a personas no legales a las reglas legales que gobiernan el uso y la recolección de datos de fuentes públicas y privadas con fines de su utilización en proyectos que hagan uso de datos. Pablo (@pablopalazzi) expuso los principios generales tanto del derecho argentino como del derecho comparado  y algunos casos locales y extranjeros.

Sin comentarios

Datafest 2014: En la Rural de Palermo

>>> INSCRIPCIONES AGOTADAS <<<

El 31 de octubre y 1 de noviembre, LA NACION y la Universidad Austral (Facultades de Comunicación e Ingeniería) realizarán la tercera edición del Datafest, el primer evento de apertura, minería y visualización de datos públicos  del país, que en 2012 y 2013 reunió a más de 300 participantes.

La agenda incluye exposiciones de referentes internacionales (*) del periodismo de datos, talleres, y seminarios abiertos. En paralelo, se conformarán equipos de trabajo multidisciplinarios que durante ambas jornadas se reunirán para trabajar y analizar bases de datos públicas con el objetivo de desarrollar aplicaciones interactivas y visualizaciones para acercar esta información a la ciudadanía.

En el encuentro, periodistas, data miners, diseñadores, programadores y especialistas, trabajarán en áreas temáticas tales como Gasto Público, Transporte público, Infraestrutura vial, Educación, Elecciones 2013, Inflación, precios y cotización del dólar, Publicidad y medios, Actividad Legislativa, Gastos del Senado, Actividad Judicial, Actividad Política, y Transparencia (Declaraciones Juradas Abiertas), entre otras.

Ya se empezó a actualizar el Hackdash con los proyectos para equipos.

A través de las bases disponibles, podrán realizar análisis y visualizaciones, o bien participar en la construcción y apertura de fuentes de información pública para estructurar sus contenidos en formatos procesables.

Quiénes hacen posible este evento

La tercera edición del Datafest cuenta con el apoyo confirmado de Knight Foundation, OpenNews,  las Embajadas de Estados Unidos y Reino Unido en Argentina, CAF , Microsoft Argentina, Tableau Public y Google. También nos acompañan jugos Citric y alpargatas Páez.

Más Información

Las jornadas son gratuitas y abiertas al público en general, con inscripción previa.

¿Querés proponer nuevas áreas temáticas o sumar otras bases de datos? Escribinos a: datafest@lanacion.com.ar

Más información
>> Inscripción 
>> @DatafestAR
>> facebook.com/Datafestar

¿Quién viene? (*)

- Alex Howard (@digiphile)

Alexander B. Howard es escritor y editor con sede en Washington, DC. Actualmente, es columnista de TechRepublic, fundador de “E Pluribus Unum”, un blog centrado en gobierno abierto y tecnología, y colaborador de TechPresident, entre otras publicaciones. Anteriormente, fue Fellow del Tow Center de Periodismo Digital en la Escuela de Periodismo de la Universidad de Columbia y miembro del Proyecto de Políticas de Transparencia en red en el Centro de Ash para la Gobernabilidad Democrática e Innovación en la Escuela de Gobierno Kennedy de la Universidad de Harvard. De abril 2010 a mayo 2013, fuel corresponsal en Washington para Radar de O’Reilly Media.

Y también participan con keynotes y workshops 2 profesores del Data Journalism Course del European Journalism Course.

- Simon Rogers (@smfrogers)

Simon Rogers es periodista de datos, escritor, orador. Autor de “Facts are Sacred”, publicado por Faber & Faber y una nueva gama de infografía para libros infantiles niños de Candlewick. Data Editor en Twitter, San Francisco.
Simon fundó y fue el editor de guardian.co.uk/data, probablemente, el sitio web de periodismo de datos más popular del mundo.
También ha sido editor de noticias en The Guardian, donde trabajó con el equipo de gráficos para visualizar e interpretar grandes conjuntos de datos.

En mayo de 2013, se unió a Twitter en San Francisco como el primer editor de datos para contar historias de billones de tweets.

Ha participado activamente en el proyecto de crowdsourcing de 450,000 gastos de los Ministros Parlamentarios, y en los de organización de registros de la guerra de Afganistán e Irak  con Wikileaks. También fue parte clave del equipo que investigó las causas de los disturbios de Inglaterra 2011.

Anteriormente, fue el editor de lanzamiento del servicio de noticias en línea de The Guardian y editó la sección de ciencia del diario. Ha editado tres libros de la guarda, incluyendo cómo Slow Can You Waterski y La investigación de Hutton y su impacto.
En 2012, Simon recibió el premio de la Sociedad Real de Estadística de la excelencia estadística en el periodismo (categoría online), después de haber sido elogiado por dicha Sociedad en 2010.

Su serie Ficha informativa de Reino Unido de suplementos ganó una medalla de plata en la infografía Malofiej premio de 2011 y la Datablog ganó el premio a la Mejor Newspaper Awards Uso de Nuevos Medios, 2011.

En 2011, Simon fue nombrado el Mejor Periodista Digital del Reino Unido por el Instituto de Internet de Oxford, de la Universidad de Oxford y ganó el premio Xcity inaugural de la City University.

El Datastore también fue honrado en:
- Media Awards en línea, 2012 (elogio)
Premios Knight Batten para la innovación en el periodismo, 2011
La innovación técnica, Online Media Awards 2011
- Mejor uso de los nuevos medios para Guardián Datablog, Newspaper Awards 2011

 

- Steve Doig (@sdoig)

 

Steve Doig es Knight Chair en Periodismo, especializado en periodismo de datos  en la Escuela Walter Cronkite de la Universidad Estatal de Arizona.

Doig se unió a la facultad de la Universidad Estatal de Arizona en 1996 después de una carrera de 23 años como periodista, incluyendo 19 años en el Miami Herald. Allí, se desempeñó como editor de diversas investigaciones, editor de ciencia, columnista, periodista de tribunales federales, etc.

Proyectos de investigación en los que trabajó desde el Miami Herald o en la Escuela Cronkite han ganado varios premios importantes de periodismo, incluyendo:

- El Premio Pulitzer de Servicio Público (1993) Un estudio de los patrones de daño del huracán Andrew que mostraban cómo los códigos de construcción debilitados y las prácticas de construcción deficientes contribuyeron a la magnitud del desastre.

- El Premio Goldsmith para el Periodismo de Investigación (1994) para “Lost in America”, un análisis de cómo han fracasado las políticas de inmigración de Estados Unidos.

- El Premio IRE Reporteros y Editores de Investigación (1995) para el Crimen y castigo, una investigación sobre por qué el sur de Florida tuvo la tasa de criminalidad más alta y la tasa de encarcelamiento más bajo de cualquier área metropolitana en el país.

- El Polk Award George (2012) para la decodificación Prime, un análisis de las prácticas de facturación del hospital sospechosos de la organización de investigación California Watch.

Doig es consultor activo de medios de todo el mundo sobre temas de periodismo de datos. Junto con el proyecto de facturación del hospital de California, otros ejemplos incluyen un estudio de los perfiles raciales en multas de tránsito de Massachusetts para el Boston Globe, un estudio para el Plain Dealer de las diferencias raciales en el acceso a la atención médica de Cleveland y un análisis de los 185.000 votos no contados en la elección presidencial en Florida de 2000 para el Miami Herald.

Steve es miembro activo de IRE (Reporteros y Editores de Investigación) y fue miembro de la junta directiva de la organización de 4.000 miembros por cuatro años. Recientemente, trabajó con IRE para organizar y juzgar a un nuevo concurso de periodismo, llamado el Premio ¨Phil Meyer de Periodismo de Prescisión.

Además, ha sido ponente en numerosos encuentros nacionales de periodismo y otras organizaciones. También ha viajado a China, Canadá, Inglaterra, España, Portugal, Australia, los Países Bajos, México, Noruega, Ucrania, Bélgica, Francia, Alemania, Austria, Suiza, Brasil e Indonesia para hacer entrenamiento en técnicas de periodismo de datos.

 

Sin comentarios

¡Inscripción!

¡INSCRIPCIONES AGOTADAS!
Sin comentarios

Los proyectos que el #Datafest2013 nos dejó (I)

Compartimos los primeros proyectos que enviaron los equipos que participaron de la segunda edición del Datafest. ¡Esperamos sus comentarios, sugerencias y aportes!

1. Portal de Datos Abiertos sobre Educación en Argentina

Este proyecto es el prototipo en construcción de un Portal de Datos Abiertos sobre Educación en Argentina, que impulsa Fundación Lúminis.

El objetivo del proyecto es analizar la relación entre la inversión nacional en educación y los indicadores de promoción, repitencia y abandono de las instituciones educativas de nivel primario y secundario durante los años 2003 y 2009.

Datasets:

Se utilizaron principalmente datos descargados del Portal de Datos Públicos del Gobierno Nacional, especialmente los siguientes conjuntos:

Link al proyecto: http://datafest.incodex.com/

Autores:

Equipo “Educabiertos”
Gabriel Latorre (Fundación Luminis)
Oscar Piñeiro (Universidad Austral)
Juan Salas (Incodex)
La versión final contó con la colaboración de Juan Orteu (Fundación Luminis).

2. Datafishing

¿Quién se come el pescado argentino? ¿Cómo puede ser que el pescado sea tan caro en un país con tantos recursos marítimos? Estos fueron los disparadores de Datafishing, un proyecto que se propuso analizar datos oficiales sobre pesca por provincia y especies, más información sobre exportaciones para encontrar algunas respuestas a estos interrogantes.

Seguir leyendo

Diálogo mano a mano con Ben Welsh, de Los Angeles Times Data Desk

En esta entrevista exclusiva, Ben Welsh (@palewire) comenta cómo trabaja su equipo de Los Angeles Times Data Desk (@LATDataDesk), y pone especial énfasis en el proyecto Crime L.A, un sitio web en el que los usuarios pueden encontrar no sólo las cifras actualizadas del crimen en la ciudad de Los Angeles, sino también mapas, análisis e información de contexto para lograr acercar a los lectores a esta información.

Ben también se refiere al reciente auge del periodismo de datos y el movimiento open data, al tiempo que rescata el trabajo y la trayectoria en este campo de pioneros como Philip Meyer, padre del “periodismo de precisión”, que en los ‘70 y ‘80 ya trabajaban con datos para encontrar y contar historias geniales.

No te pierdas la entrevista completa (en inglés) :)

Sin comentarios