Datos y educación

Con la participación de funcionarios nacionales, provinciales y representantes de organizaciones no gubernamentales, el Observatorio Argentinos por la Educación realizó durante la mañana del martes 27 de noviembre, la presentación del informe “Los sistemas de información educativa en Argentina”. El propósito del informe fue conocer los sistemas de información existentes tanto a nivel provincial como nacional, y las posibilidades que ofrecen. Entre las conclusiones, se determinó que al menos 10 provincias del país no conocen cuántos días de clase se dictan.

El director ejecutivo del Observatorio Argentinos por la Educación, Ignacio Ibarzabal, brindó la bienvenida: “En el Observatorio creemos profundamente que el dato es un bien público. ¿Por qué? Porque cuántos más argentinos tengamos acceso a la información, cuántos más argentinos colaboremos en analizarla, más oportunidades habrá para utilizarla para mejorar la educación. El potencial es enorme”, comentó Ibarzabal.

La apertura del evento estuvo a cargo del ministro de Alejandro Finocchiaro, ministro de Educación, Cultura, Ciencia y Tecnología de la Nación, quien resaltó que “hay que lograr un cambio institucional que trascienda al funcionario público y hoy estamos sentando las bases para construir la educación que queremos. Estamos yendo hacia un modelo de Gobierno Abierto y tenemos que poner a disposición la información para conocer, debatir, corregir y planificar”.

En el siguiente panel, las ministras de educación Claudia Balagué, de Santa Fe, y Paulina Calderón, de San Luis, presentaron los avances en materia educativa de sus provincias.

Balagué explicó el modelo de integración entre sistemas administrativos y pedagógicos instalado en Santa Fe, que permite aumentar la retención y disminuir la repetición de los alumnos. Por su parte, Calderón resaltó el desarrollo e implementación del nuevo Sistema de gestión educativa 3.0 como plataforma consolidadora de información provincial.

El director técnico del Observatorio, Victor Volman, fue el encargado de exponer las conclusiones del informe. De las 24 jurisdicciones argentinas, 17 respondieron las consultas del Observatorio acerca de qué datos se relevan, procesan y publican en torno a estudiantes, docentes, inversión e infraestructura y, de ellas, “sólo siete declararon que cuentan con sistemas de información que les permiten conocer los días de clase dictados”, detalló Volman.

Por último, se debatió sobre los desafíos en torno al sistema de información educativa del país. Participaron Inés Cruzalegui, directora Nacional de Planeamiento de Políticas Educativas, Juan Llach, miembro de la Academia Nacional de Educación, e Irene Kit, la presidenta de la Asociación Civil Educación para Todos. En este contexto, Cruzalegui manifestó que se espera poder contar con un sistema de información nacional nominal para estudiantes para fines de 2019. Llach, por su parte, destacó la labor del Observatorio al visibilizar datos; y analizó aspectos positivos y desafíos de los sistemas de información en el país. Finalmente Kit hizo referencia a la utilidad práctica de la información estadística y a la importancia de difundir su uso.

Para acceder al informe hacer clic aquí.

Notas relacionadas

Sin comentarios

Tarjetas corporativas de funcionarios públicos: cómo responden los organismos

Para terminar con los pagos en efectivo y generar un mayor control del dinero público, el junio de 2017 la Secretaría de Hacienda elaboró una resolución para implementar el uso paulatino de Tarjetas de Compra Corporativas en Fondos Rotatorios. Actualmente, 118 organismos del Poder Ejecutivo Nacional utilizan este mecanismo de pago.

En mayo de 2018 LA NACION Data realizó 4 pedidos de acceso a la información pública para conocer los resúmenes de las tarjetas corporativas de los principales funcionarios de gobierno nacional. Todas las solicitudes se redactaron de igual manera y se presentaron el mismo día. Acá un resumen sobre cómo respondieron los organismos públicos.

Seguir leyendo

Hambre de futuro: cómo se hizo el proyecto

Por Mariana Trigo Viera y Gabriela Bouret

GRAN VOLUMEN DE DATOS

Cuando comenzamos este trabajo, teníamos 3542 localidades de todo el país y la planilla de datos incluía el índice de muchas variables y categorías para cada una de ellas. El mayor desafío era transformar esta hoja de cálculo en información entendible para nuestro lector. Hacer sencillo aquello que a simple vista, parecía inabordable.

 ELEGIR QUÉ CONTAR

La primera decisión fue seleccionar aquellos datos que íbamos a trabajar y cuáles dejaríamos de lado.
Elegimos las 100 localidades más vulnerables de cada región geográfica de nuestro país teniendo en cuenta el promedio del índice factorial de vulnerabilidad. Las 100 localidades con los índices más altos por región serían las seleccionadas. De este modo redujimos la cantidad de datos a contar, focalizándonos en los lugares más pobres. Respecto a las variables, las resumimos en tres grandes categorías: Población, Vivienda y Calidad de vida.

LA GEOLOCALIZACIÓN COMO PROTAGONISTA

Este tipo de datos no se puede imaginar sin un mapa como protagonista. Para ello se utilizó una herramienta automática para geolocalizar las 539 localidades seleccionadas para nuestro trabajo y después se hizo un chequeo manual para constatar que las coordenadas geográficas fueran las correctas.

MIRADA INTEGRAL

El Observatorio de Deuda Social de la UCA realizó el estudio de estimación de la  vulnerabilidad socioeconómica de la totalidad de hogares de Argentina para medir el riesgo de encontrarse en situación de pobreza. Lo hizo a partir de un diseño de investigación que combina datos de dos fuentes diferentes: la Encuesta de la Deuda Social Argentina (EDSA-UCA) y el Censo Nacional de Personas, Hogares y Viviendas. Este fue nuestro principal indicador y variaba si mirábamos el mapa por región geográfica, por provincia o por localidad. Consideramos entonces necesario mostrar los tres mapas al mismo tiempo para facilitar las mirada integral de la problemática.

NIVEL DE DETALLE

El equipo periodístico viajó por todo el país y visitó entre 4 y 6 localidades por región, siempre priorizando a las más vulnerables. Para cada lugar visitado se creó un mapa de dicha localidad incluyendo también a las localidades vecinas. Este mapa está acompañado por una planilla con el detalle de las variables de la localidad en cuestión, categoría por categoría. De esta manera, destacamos el lugar elegido, sin perder el contexto de las demás localidades de la misma región. Como esta misma lógica se usaría para cada localidad, armamos una pieza visual fácilmente editable para una rápida reutilización.

Mapas de apertura

Ficha con el detalle por localidad

 

 

Sin comentarios

¿Cómo mide el INDEC la pobreza?

Hace unos días nos encontramos con esta explicación que forma parte de una serie de aprendizajes que nos interesa adquirir y compartir con quienes intentan conocer los datos y fuentes en profundidad. Agradecemos a Daniel por permitirnos reutilizar su hilo de Twitter y recomendamos seguirlo @danyscht para aprender sobre este y otros temas con Data.

Daniel Schteingart   - Doctor en Sociología y columnista socioeconómico en Tarde Para Nada (FM 89.9) explicó en un hilo de Twitter cómo mide el INDEC la pobreza

1) El insumo básico es la EPH (Encuesta Permanente de Hogares). Se hace todos los trimestres, encuestando a unos 18.000 hogares en 31 ciudades de Argentina. La EPH tiene más de 100 preguntas sobre características del hogar, el mercado de trabajo, estudios, género, ingresos, etc

2) La pobreza puede medirse de múltiples maneras. Hoy el INDEC la mide bajo la modalidad“pobreza por ingresos”, esto es, se comparan los ingresos de un hogar vs una canasta básica. (Podría medirse también c otros criterios, como la calidad de los materiales de la vivienda, etc)

3) La canasta básica actual no es la única posible ni natural. Implica siempre decisiones (con cierta cuota de arbitrariedad) respecto a qué definimos como “básico”. En Arg, se toma como referencia ciertos patrones de consumo de lo q es nuestra “clase media baja”.

4) Una vez definida la canasta básica, tenemos que seguir su precio a lo largo del tiempo. Lo más habitual es leer titulares de este estilo, pero atenti:

5) Los casi $21.000 que cuesta una canasta básica se refiere a una familia TIPO, con matrimonio treintañero y dos niños. Esto es clave de tener en cuenta, ya que en la práctica hay casi múltiples combinaciones de edad, género y cantidad de miembros de un hogar.

6) ¿La canasta básica también es de $21.000 para una persona de 25 años que vive sola? ¿Es de $21.000 para un hogar con madre soltera con 4 hijos? ¿Es de $21.000 para una jubilada que vive sola? Claramente, no. ¿Entonces, cuál es el valor de referencia para estos hogares?

7) Lógicamente, cuando un hogar es más chico, menos bocas que alimentar, y el precio de la canasta es menor. Pregunta típica: “si en una familia de 4 miembros la canasta es de $21.000, en una de 2 miembros es de $10.500″? La respuesta es “a priori, no”. ¿Por qué “a priori, no”?

8) Porque no solo importa la cantidad de miembros del hogar, sino la edad de tales miembros y el género. La razón es que las necesidades energéticas son diferentes según la edad y el género. Obviamente, un adolescente necesita comer mucho más que un bebé.

9) El INDEC toma como referencia a los varones entre 30-60 años, considerados “adultos equivalentes”. Acá está la tabla. Un adolescente varón equivale a 1,04 adultos equivalentes. Un bebé recién nacido a 0,35 adultos equivalentes. Una mujer de 32 años a 0,77 adultos equivalentes.

10) Entonces, lo que tenemos que hacer es: a) Ver a cuántos adultos equivalentes equivale un hogar. Un hogar de 4 amigos que viven juntos y tienen 31 años equivale a 4 adultos equivalentes. Un hogar con madre de 25 e hijo de 4 a 0,76+0,55=1,31 adultos equivalentes.

10 b) Ver cuál es el valor de la canasta correspondiente a ese tamaño. Es por ello que el INDEC publica el valor de la canasta por adulto equivalente. Para pobreza, ese valor fue de $6.753,70 en agosto. Ergo, el 1er hogar requiere $27.015 para no ser pobre. El 2do, de $8.847.

11) Es justamente por tal razón que, dada esta metodología, una jubilada que vive sola y cobra la mínima no es pobre. La mínima está en $8.637. La canasta básica para una mujer de 70 años viviendo sola (que equivale a 0,67 adultos equivalentes) es de $4.524.

12) Que un salario esté por encima de la canasta tipo de $21.000 no necesariamente significa que ese laburante zafe de la pobreza y viceversa. La clave es ver cómo es la composición del hogar de ese laburante y si hay otros perceptores de ingresos. FIN

Una aclaración. El INDEC calcula dos canastas básicas. Una es solo de alimentos y sirve para medir indigencia. La otra (llamada “canasta básica total”) incorpora además todo lo no alimentario (ropa, transporte, servicios públicos, salud, etc). Esta última define quién es pobre.

Por lo tanto, todo indigente es pobre, pero no a la inversa.

 

Sin comentarios

Nuevas narrativas para un periodismo que se reinventa

Por Gabriela Oliván

Buenas historias que cobran vida en distintos formatos. Historias que se consumen una y otra vez en diversas plataformas que llegan a más lectores y más lejos. Tecnología aplicada a la información, a la educación y al entretenimiento son la base de un periodismo que se reinventa. De esto se trató la charla sobre nuevas narrativas que compartió la líder de El País_Lab para WINN Seguir leyendo

Sin comentarios

Data Science: Marcela Riccillo, inteligencia artificial y robótica

 

Entrevistamos a Marcela Riccillo (@marcelaricci), doctora en Ciencias de la Computación de la UBA; Especialista en Inteligencia Artificial y Robótica.

En nuestra conversación surgió cómo fue su vinculación con la ciencia de datos, su pasión por la inteligencia artificial, el Machine Learning, la enseñanza, los tipos de robots y otras carreras tradicionales no científicas que tienen un punto de contacto con el Data Science

Marcela es una profesional apasionada, que se expresa en forma muy didáctica para el púbico en general y que nos tranquiliza: “Los robots NO vienen por nosotros.”

¡No se la pierdan!

Indice de Datos Abiertos, una herramienta para fortalecer la transparencia

 

Ciudades argentinas  en el Open Data Index

Por Yas García y Roque De Benedictis

Un gobierno municipal puede desarrollar un portal de datos abiertos que contenga  una serie relevante de conjuntos de datos de presupuesto anual, gasto público, contrataciones, obras públicas, transporte, en formato: abierto, reutilizable, accesible y con licencia abierta en dos semanas. Verdadero. Un gobierno que avanza con un portal de datos abiertos, es un gobierno abierto. Falso.

Una herramienta como el Indice de Datos Abiertos de Ciudades (IDAC) permite visualizar la situación de la información pública que brindan los gobiernos locales, incidir desde el ejercicio de sociedad civil para fortalecer la transparencia y los champions integrantes de gobierno que creen en un gobierno transparente, con la obligación de rendir cuentas y que a partir de la generación y análisis de los datos públicos, tomar mejores decisiones en el ámbito público de cara a las necesidades de la ciudadanía.

Seguir leyendo

Sin comentarios

DATA SCIENCE: Franco Bellomo pone la lupa en la Justicia

 

Les presentamos a Franco Bellomo, de Neuquén. Estudia Ciencias Exactas en la UBA y trabaja en la Fundación Conocimiento Abierto.

Lo entrevistamos para conocer más sobre metodologías de Data Science que puedan aprovecharse para investigaciones periodísticas.

En nuestra charla, explicó en forma muy didáctica qué es un algoritmo, cómo nació el proyecto de Quiniela Judicial, qué es el método estadístico Montecarlo y qué son los grafos a diferencia del universo de estadísticas usando ejemplos concretos de justicia y anticorrupción.  Seguir leyendo

Sin comentarios

#HolaCongreso: nueva plataforma para preguntar a los legisladores

¿Cómo puede hacer un ciudadano para participar de los debates del Congreso?, ¿Cuántas horas trabaja un legislador?, ¿Cuántos votos se necesitan para aprobar una ley? Estos temas deberían ser conocidos por todos, pero no lo son. Seguir leyendo

Sin comentarios

Simulando cuántos sobres hacen falta para llenar el álbum del mundial

Por Ernesto Mislej (Socio Fundador de 7Puentes)

Se acerca el mundial de fútbol Rusia 2018 y acompañando a este vital evento para todos los fanáticos del deporte, nos sucede otro de importancia semejante al primero: llenar el álbum de figuritas con las imágenes de nuestros ídolos. Esta edición, el álbum será de 669 figuritas y los sobres serán de 5 figuritas cada uno. Si tuviésemos toda la suerte del mundo, con 134 sobres (lo que equivale a 669 dividido 5) lo llenaríamos, pero sabemos que para eso tenemos que tener mucha suerte.

Album de Figuritas Rusia 2018

Volviendo a nuestro álbum, ¿cuántos sobres son necesarios para llenarlo? Para averiguarlo tenemos 2 maneras, acudir a la teoría estadística -cosa que no nos asusta, pero implica tener bastante conocimiento previo- o hacer una simulación con un programa de computadoras. Vamos por la segunda.

Tomamos el caso de llenar el álbum para ejemplificar cómo encarar una situación problemática desde una perspectiva formal y poder medir eficazmente los insumos y demás recursos necesarios para tomar mejores decisiones. Compartimos esta nota con ejemplos y explicaciones sobre el proceso de diseño de una solución.

Esperamos la disfruten.

Comencemos la simulación

Una simulación -según Wikipedia- es un artificio contextual que referencia la investigación de una hipótesis o un conjunto de hipótesis de trabajo utilizando modelos para la enseñanza y el aprendizaje. En nuestro caso, la simulación tendrá como objetivo medir cuántos sobres (de 5 figuritas cada uno) se necesitan para llenar un álbum de 669. Y para ello necesitaremos construir un modelo computacional que contemplen los sobres, las figuritas y el álbum.

Python

Haremos un pequeño programa en Python, un lenguaje de programación muy popular que tiene una sintaxis muy simple de entender (para quienes necesiten una ayuda extra, pueden leer estos recursos introductorios preparados por la PyAr – Comunidad Python Argentina ).

In [1]:
print "Cuántos sobres se necesitan para llenar el album usando Python"
Cuántos sobres se necesitan para llenar el album usando Python

El azar y la computadora

La simulación consiste en realizar numerosas corridas de un sistema estocástico, es decir, una situación que está regulada por la aleatoriedad o la suerte, como nuestro caso de ir abriendo sobres de figuritas sin saber de ante mano cuales son las que te van a tocar. Necesitaremos entonces alguna forma que simular el contenido de los sobres de manera azarosa utilizando nuestro modelo computacional. Y eso es todo un tema, porque las computadoras no saben de azar: justamente, son aparatos guiados por el determinismo de los ceros y unos.

Pero no desesperemos, este tema ha sido tratado desde hace mucho tiempo y Python implementa un módulo de generación de números pseudo-aleatorios, que a los efectos de nuestra simulación nos alcanza de sobra.

In [2]:
import random

#la funcion randint(a, b) devuelve un numero entero pseudo-aleatorio N talque 
#a <= N <= b. 
dado = random.randint(1, 6)

print dado
2

Para modelar el sobre de figuritas utilizaremos la funcion sample(seq, k), que toma k elementos de la secuencia seq; en nuestro caso 5 números del intervalo [0, 660). La forma de extraer los números es sin reposición, es decir, los sobres estarán compuestos por figuritas no repetidas.

In [3]:
#para modelar el sobre utilizaremos la funcion sample. 
sobre = random.sample(xrange(669), 5)

print sobre
[586, 414, 255, 474, 12]

Otras librerías

Para esta simulación vamos a incluir otras 2 librerías muy utilizadas en análisis de datos:

  • NumPy para el manejo de estructuras de datos eficiente (listas o vectores).
  • Matplotlib para realizar las gráficas.
In [0]:
import numpy as np
import matplotlib.pyplot as plt

Seteamos las constantes de la simulación, en nuestro caso las FIGURITAS_POR_PAQUETE, las FIGURITAS_POR_ALBUM y la CANTIDAD_DE_CORRIDAS que tendrá nuestra simulación.

Cuántas más corridas hagamos, más preciso será nuestro resultado, pero también más costoso computacionalmente será. Unas 10000 corridas está OK, y la simulación tardará unos 5-10 minutos.

In [0]:
#las constantes de la simulacion
FIGURITAS_POR_PAQUETE = 5
FIGURITAS_POR_ALBUM = 669
CANTIDAD_DE_CORRIDAS = 1000

Iremos registrando cuántos sobres serán necesarios en cada corrida.

In [0]:
#inicializo el vector simulacion
#alli voy a ir registrando cuantos sobres necesito en cada corrida
simulacion = np.empty(CANTIDAD_DE_CORRIDAS)

Ciclo principal de la simulación

El siguiente bloque es el ciclo principal de la simulación. Cuántas más corridas hacemos, más preciso será nuestra estimación.

In [0]:
#voy a realizar tantas corridas como dice la constante CANTIDAD_DE_CORRIDAS
for i in xrange(CANTIDAD_DE_CORRIDAS):

	#modelo el album vacio como un vector lleno de ceros
	album = np.zeros(FIGURITAS_POR_ALBUM, dtype=int)

	#en esta variable contabilizare cuantos sobres se necesitan 
	cantidad_de_sobres = 0

	#voy abriendo sobres nuevos hasta llenar el album
	#si el vector contiene algun 0 en alguna posicion significa 
	#que aun no esta completo esa condicion la podemos expresar de muchas 
	#formas la que elegi es min(album) == 0, 
	#tambien podria ser len( album [ album == 0 ] ) > 0 
	while min(album) == 0:

		#un nuevo sobre formado por figuritas tomadas de manera aleatoria
		sobre = random.sample(xrange(FIGURITAS_POR_ALBUM), FIGURITAS_POR_PAQUETE)

		#voy llenando el album
		#sumo 1 en cada posicion correspondiente a cada una de las figuritas 
    #del sobre
    #
    #Nota: para quienes conocen otros lenguajes de programacion, esta 
    #operacion puede llegar a causar confusion. La libreria NumPy permite
    #realizar operaciones sobre multiples indices a la vez. 
    #Aprovechenla, es muy util.
		album[sobre] += 1

		#incremento la cantidad de sobres en 1
		cantidad_de_sobres += 1

	#para llenar este album he necesitado tantos sobres como 
  #lo dice cantidad_de_sobres
	simulacion[i] = cantidad_de_sobres

Presentación visual de los resultados

Luego de finalizar las corridas, tenemos muchos resultados. Presentaremos la información de una manera visual utilizando un histograma.

In [8]:
#cuantos sobres necesitamos en promedio para llenar el album
sobres_promedio = simulacion.mean()

#visualizamos la simulacion con un histograma de las corridas
plt.hist(simulacion, bins=50)
plt.axvline(sobres_promedio, color='r')
plt.legend(["%.2f sobres" % sobres_promedio])
plt.title("Cantidad de sobres en promedio para llenar 1 album")
plt.show()

Llenar el álbum costará…

Por su condición de experimentos aleatorios, las simulaciones darán resultados levemente distintos, pero sí podemos ver que para llenar el álbum se necesitarán aproximadamente 941 sobres. A $15 por sobre, llenar el álbum de esta manera costará… ¡un ojo de la cara!

In [9]:
print "Llenar el album costará... %2.f pesos. Y qué hago con las %d repetidas!" % (sobres_promedio * 15, sobres_promedio * FIGURITAS_POR_PAQUETE - FIGURITAS_POR_ALBUM)
Llenar el album costará... 14085 pesos. Y qué hago con las 4026 repetidas!

…más el costo de álbum en sí, que ya a esta altura parecen monedas.

Con amigos todo es mejor

Como vimos, para llenar un álbum de 669 figuritas necesitaremos aproximadamente 341 sobres y nos sobrarán 4000 figuritas repetidas. Con tantas repetidas estamos muy cerca de llenar un 2º y 3º álbum; y las que nos sobran las podemos cambiar con algún otro amigo que las necesite. Sin duda si nos juntamos con otros amigos, llenar todos los álbumes es mucho más rápido, barato y divertido.

Cuánto costará llenar n álbumes

Démosle una vuelta al problema y pensemos cuántos sobres son necesarios para llenar n álbumes.

Agreguemos la constante CANTIDAD_DE_ALBUMES

In [0]:
#pensemos un grupo de 20 amigos que se juntan para llenar cada uno su album
CANTIDAD_DE_ALBUMES = 20

El vector simulación ahora registrará cuántos sobres se necesitan para llenar 1, 2, 3, … , 20 álbums. Ésto lo haremos con un vector de 2 dimensiones (cuando el vector tiene 2 dimensiones suele llamarse matriz, aunque cuando tiene 3 dimensiones o más, vuelve a llamarse vector, cosas que pasan…).

In [0]:
#inicializo el vector simulacion_grupo con 2 dimensiones 
simulacion_grupo = np.zeros([CANTIDAD_DE_ALBUMES+1, 
                             CANTIDAD_DE_CORRIDAS], dtype=int)

Ciclo principal de la simulación de grupo

Con algunas pocos agregados podemos calcular cuántos sobres se necesitan para llenar n álbums

In [0]:
#voy a realizar muchas corridas, tantas como dice la constante CANTIDAD_DE_CORRIDAS
for i in xrange(CANTIDAD_DE_CORRIDAS):

  #modelo el album vacio como un vector lleno de ceros
  album = np.zeros(FIGURITAS_POR_ALBUM, dtype=int)

  #en esta variable contabilizare cuantos sobres se necesitan para llenar 1..n albumes
  cantidad_de_sobres = 0

  #aqui voy a contabilizar cuando albumes estan llenos
  albumes_llenos = 0

  #a diferencia de la simulacion anterior, la condicion de corte sera cuando se 
  #llenen los n albumes. Eso lo podemos expresar asi:
	#albumes_llenos < CANTIDAD_DE_ALBUMES
  while albumes_llenos < CANTIDAD_DE_ALBUMES:

    #un nuevo sobre formado por figuritas tomadas de manera aleatoria
    sobre = random.sample(xrange(FIGURITAS_POR_ALBUM), FIGURITAS_POR_PAQUETE)

    #voy llenando los albumes
    album[sobre] += 1

    #incremento la cantidad de sobres en 1
    cantidad_de_sobres += 1    

    #si el min(album) se incremento, significa que se ha llenado un nuevo album. 
    if albumes_llenos < min(album):      
      #hemos llenado un album nuevo
      albumes_llenos = min(album)

      #registramos la cantidad de sobres
      simulacion_grupo[albumes_llenos, i] = cantidad_de_sobres

Presentación visual de la simulación de grupos de amigos

Ya recopilamos los resultados de muchas corridas, veamos qué tal nos fue para llenar n álbums.

In [13]:
#cuantos sobres necesitamos en promedio para llenar n-albumes
#usamos una matriz de histogramas

amigos = [2, 5, 10, 20]

fig, axes = plt.subplots(nrows=2, ncols=2, sharey=True, sharex=True)

for ax, q in zip(axes.flat, amigos):
  simulacion = simulacion_grupo[q]/q
  sobres_promedio = simulacion.mean()
  ax.set_title('$albumes=%d $' % (q))
  ax.hist(simulacion, bins=50)
  ax.axvline(sobres_promedio, color='r')
  ax.legend(["%.2f sobres" % sobres_promedio])

fig.suptitle("Cantidad de sobres en promedio para llenar $n$ albumes")
plt.show()

Algo que suponíamos: cuántos más amigos tenemos, la cantidad de sobres por integrante del grupo para llenar su álbum disminuye. Y se acerca a la cantidad óptima de (FIGURITAS_POR_ALBUM / FIGURITAS_POR_PAQUETE). No hace falta tener mucha suerte, sino muchos amigos. (Aunque tener muchos amigos es ser muy afortunado).

In [14]:
#Otra forma de visualizar la cantidad promedio de sobres para llenar n-albumes

plt.boxplot([simulacion_grupo[i]/i for i in xrange(1,CANTIDAD_DE_ALBUMES+1)])
plt.title("Cantidad de sobres para llenar $n$ albumes")
plt.show()

Conclusiones

Como pudimos ver, para llenar un álbum necesitaremos aproximadamente 941 sobres; pero para llenar 20 álbumes, se necesitan un poco más de 4940 sobres, lo que nos da 247 sobres por integrante. Muchísimo menos.

In [16]:
print "Llenar %d albumes costara... %2.f pesos por integrante. Que bueno es tener amigos!" % (CANTIDAD_DE_ALBUMES, (simulacion_grupo[CANTIDAD_DE_ALBUMES]/CANTIDAD_DE_ALBUMES).mean() * 15)
Llenar 20 albumes costara... 3704 pesos por integrante. Que bueno es tener amigos!

Gracias por la atención y ¡vamos Argentina!