Como quedó un poco cortada la cosa y ya nadie se acuerda por dónde iba, puedo empezar por donde quiera, que va a ser saltándome algún capítulo para contar de qué va mi trabajo. Cuando esté algo menos liado, ya rellenaré los huecos que han quedado.
El título es "Sobre la convergencia en necesidad y sus leyes de los grandes números". Para entender el título -que es como ponerse a ver un culebrón en el capítulo 188- necesitaremos un par de entradas.
Habíamos hablado de "repeticiones" de la misma experiencia que dan resultados distintos (ejemplo de todos los libros: lanzar un dado). Nosotros estamos interesados en algún valor asociado con el experimento, pongamos que el número que sale. Si lanzamos el dado muchas veces, nos irá saliendo una sucesión: 2, 5, 3, 1, 1,... Para tratar de sacar conclusiones sobre este fenómeno, lo que haremos será elaborar un modelo matemático: esto es, se trata de encontrar unos objetos matemáticos y relaciones entre ellos que reproduzcan algunos aspectos del problema.
En este caso, el aspecto principal del problema es que nos salen valores distintos (como vamos a ver, no se trata de contestar por qué ni cómo) pero el mecanismo del experimento es siempre el mismo. ¿Qué tipo de objeto matemático puede conjugar estas dos caras aparentemente contradictorias? Tenemos el concepto de función, ya que la función es una pero puede tomar diferentes valores.
Una función (aquello de los círculos y las flechas) tiene los siguientes ingredientes:
-dos conjuntos
-una relación entre ellos, según la cual a cada elemento del primer conjunto le corresponde otro elemento del segundo.
En este caso, la "traducción" entre la realidad y el modelo es como sigue:
-La función es el experimento.
-El conjunto final es el conjunto de posibles valores del lanzamiento del dado.
Muchos aspectos de la realidad no aparecen por ninguna parte en el modelo (por ejemplo, el dado: ninguno de los objetos que han aparecido representan al dado, ni al mecanismo para lanzarlo, etc.)
Desgraciadamente, algo que se entiende menos a menudo es que el modelo también tiene aspectos que no aparecen por ninguna parte en la realidad: en este caso, el conjunto inicial. Según la traducción, el experimento toma un elemento del conjunto inicial y lo "convierte" en el valor 1...6 que nosotros observamos al lanzar el dado. Valores observados distintos corresponden a elementos distintos (valores iguales también pueden corresponder a elementos distintos).
Esto no es una explicación de la realidad ni postula la existencia de unas entidades inobservables cuyo estado determina el resultado del experimento. Simplemente, el modelo es así: una función relaciona dos conjuntos.
¿Qué significado tiene el conjunto inicial?, oigo preguntar a algún físico. Aquí me gustaría distinguir entre representación e interpretación (y pensar que yo había empezado hablando de otra cosa...) en el modelo.
[Estamos diciendo que X representa el experimento, X(r) representa el valor obtenido en el lanzamiento... y r (normalmente llamado "resultado") no representa nada, aunque puede dársele una interpretación si uno lo desea. Esta interpretación puede ser cualquiera, siempre y cuando sea coherente con el papel de r en el modelo: es decir, que r determina completamente el valor X(r). Normalmente, se suele pensar que un resultado es: (a) un individuo concreto de una población bien definida que se está estudiando (en este caso, los lanzamientos de dado no son individuos de una población como sí lo son los alumnos de un colegio), (b) el estado de todos los factores y variables sin controlar que afectan al resultado del experimento (esta interpretación sí que tiene una cierta ideología determinista detrás), (c) una en un conjunto hipotético de posibles repeticiones del experimento, (d) uno en un conjunto de "mundos posibles" (en cada mundo el resultado del lanzamiento podría ser distinto y nosotros no sabemos en cuál estamos), etc.
Estas interpretaciones añaden poder explicativo al modelo pero le restan poder prescriptivo ya que sí hacen afirmaciones sobre cómo funciona la realidad; esas "explicaciones mejoradas" sólo tendrán fundamento si la realidad cumple los presupuestos en los que se basan.]
Dicho todo esto, en el modelo los X(r) (o sea: los 2, 5, 3, 1, 1,...) pueden ser distintos porque corresponden a r distintos. Tendríamos:
X(r1) = 2
X(r2) = 5
X(r3) = 3
X(r4) = 1
X(r5) = 1
...
La función X se llama variable aleatoria. Hay que notar que, debido a lo que hemos explicado, el conjunto de resultados tiene muy poca importancia en la Probabilidad, mientras que el conjunto de valores es lo esencial. Para casi todas las cuestiones relevantes para la Teoría de la Probabilidad, cuál sea ese espacio es irrelevante (yo mismo he escrito artículos enteros en los que no se menciona ese conjunto o sus elementos, ni una sola vez). Me cuesta imaginar un artículo de Análisis Matemático que estudie unas funciones sin decir (y sin que importe) de qué espacio salen. Esto lo digo acordándome de mi profesor de Análisis I, según el que la Probabilidad es "un caso particular de la Teoría de la Medida" (una rama del Análisis).
Hemos escrito arriba X(r1),X(r2),X(r3),... para modelar una sucesión de repeticiones del experimento y los valores obtenidos. Esto, claro, no se parece a lo que contamos a los alumnos: las variables aleatorias independientes y con la misma distribución X1, X2, X3,.... Aquí es donde "engañamos" a los alumnos, ya que les decimos que unas variables aleatorias X1, X2, etc., representan el valor obtenido en las sucesivas repeticiones del experimento. Lo cual, dicho así, sin más, no sé si es una media verdad, una mentira, una estadística o qué.
Si las X1, X2, X3,... son funciones diferentes, los valores obtenidos serán X1(r), X2(r), X3(r),... Las preguntas se multiplican: (1) ¿Para qué necesitamos varios r si las X ya son distintas? (2) Si r es algo que determina completamente el valor obtenido, ¿por qué al repetir el experimento aparece el mismo r?
Aquí dejo la cuestión, por si alguno se ha quedado sorprendido y quiere pensar al respecto.
El camello del visir
Hace 8 horas
8 comentarios:
5/20, vas muy bien! Sobre las funciones y el análisis, se me ocurre que la gran diferencia es que uno busca los puntos singulares (ya sea para f: R -> R y nos importa dónde no es continua, o no es diferenciable, o dónde tiene extremos; o en ecuaciones diferenciales en un espacio de Sobolev, donde la solución de la ecuación es un punto excepcional del W 1 p), y no las propiedades que valen 'en general' (por no decir 'en promedio').
Me quedo pensando en el resto. A mi las variables aleatorias siempre me cayeron mal (ojo: cocientar también me molesta bastante, y tengo la sensación de que ese es el papel principal de las v.a.: el espacio muestral desaparece porque lo reemplaza su cociente, la imagen de la v.a.)
En realidad "5" es una nueva notación que estoy probando para para 3+1. Ya, ni contar sé...
Lo del cociente es cierto formalmente, aunque el flujo de información no va en esa dirección. Por ejemplo, la topología cociente la hereda el espacio cociente de la topología del espacio inicial, mientras que la sigma-algebra del espacio final de una v.a. ya está fijada. Por así decirlo, se busca un espacio del que los valores de la v.a. sean un cociente, pero no importa cuál sea ese espacio. Está "socialmente aceptado" incluso cambiar ese espacio in medias res si nos conviene.
El tipo de argumento que se utiliza en Probabilidad tiene a menudo muy poca elegancia. Al final, lo que los probabilistas reconocen como propio es un conjunto de trucos para hacer cálculos de probabilidad de sucesos cada vez más exóticos. Hay gente muy buena que da gusto leer, pero pocos. Así que no me sorprende que a los demás no les guste.
(A lo mejor la gente muy buena a la que da gusto leer es muy poca en todos los sitios, no digo que no.)
Cambiando radicalmente de tema. ¿Por qué no has avisado de que Camacho es el nuevo rector de tu universidad?
Estoy aprendiendo mucho con esta serie de entradas. Lo que muchas veces se echa en falta en estas cuestiones es hacer énfasis en los matices y las cuestiones más sutiles. Que no todos es aplicar fórmulas en ciencia, como piensa erróneamente mucha gente.
Topo: ¿Eso es por mí o por Juan Pablo? Nosotros tenemos rector nuevo pero no se llama Camacho (creo).
Instan: Y yo que creía que decir que en un modelo hay algo que no tiene interpretación física sería anatema... ;)
Bueno, en cualquier caso todo esto es mi (provisional) opinión basada en mis (escasas) reflexiones, así que harías bien tomándotelo con escepticismo.
¿Rector? ¿Universidad? En la Argentina no tenemos esos problemas... miren esto, si no me creen (es de ayer, capaz que hoy nos 'superamos'...)
Volviendo a las v.a., creo que empiezo a entender tu punto. Ej: Grandes números, escribimos \lim P(| \sum X_n)/n - \mu |) \ge \varepsilon) = 0, pero si deasarrollamos P(...), es P( w \in \Omega : \sum X_n(w)... y ahí están, todas evaluadas en un mismo w.
¿Qué es el CBC? Y: ¿en qué consisten los problemas?
---
Efectivamente, esa es la cuestión. En principio, parece que sería más lógico que el teorema dijese que la probabilidad del conjunto de las sucesiones (w_1, w_2, w_3,...) cuyas medias \sum X(w_i) no convergen es 0 (donde "la probabilidad" sería la medida producto en el espacio de sucesiones de elementos de \Omega).
Eso para la ley fuerte; en el caso de la ley débil que tú mencionas, si llamamos P^n a la medida producto en \Omega^n, que \lim P^n(|\sum X(w_i)/n-\mu|)\ge\varepsilon)=0.
El CBC es el ciclo básico común, un 1er año pensado para cubrir las falencias de la escuela secundaria. El problema es que no pertenece a ninguna facultad, y tiene más alumnos que cualquiera de las facultades, con lo cual necesita mucho espacio. Para descentralizar, se armaron sedes en distintos lugares (que no estaban pensados para dar clases, yo estudié en una ex-fábrica de galletitas, por ejemplo...). Sumale a estas cosas un presupuesto bajo, y ahí tenés los problemas.
Volviendo a las v.a.... ¡ahora entiendo por qué me gusta (y por qué entendía) el teorema de que casi todo número es normal, y no me gustaban las leyes estas!
Publicar un comentario