ANEXO I – Historia del Muestreo (a) 1. Introducción De todas las técnicas y procedimientos comprendidos dentro de la metodología Estadística, sin ninguna duda, los Métodos de Muestreo constituyen unos de los aspectos más atribuibles a la profesión del Estadístico. Dicho de otra forma, de todas las incumbencias de los Estadísticos profesionales, los Métodos Muestrales son los que más los identifican y reconocimiento le generan desde las otras profesiones. Esto se debe a que las carreras de Estadística y afines de grado y posgrado, son generalmente las únicas que integran en su currícula asignaturas específicas de Muestreo, fundamentadas en cursos previos de Estadística Descriptiva, Probabilidades y Estadística Inferencial. Pueden exceptuarse de esta particularidad algunas carreras relativas a Investigación Operativa, Sistemas de Información, Estudios de Mercado, etc., que incluyen materias de Muestreo usualmente vinculadas a sus orientaciones. Por otro lado, es usual que la formación académica de gran parte de la s disciplinas, se base en la adquisición de conocimientos desligados de su proceso histórico. Los avances científicos son asimilados de manera lineal y objetiva, desatendiendo usualmente el marco social y humano en que se desarrollan. Contrariando ese comportamiento, el presente capítulo intenta destacar algunos de los principales hechos históricos vinculados a la Teoría y Práctica del Muestreo. Podrá observarse en el transcurso del texto, que el trayecto recorrido hasta la actualidad por esta técnica de la Estadística, lejos de haber sido lineal, consistió en un camino sinuoso que no careció de obstáculos. Estas dificultades significaron un desafío que propició el impulso de una serie de mejoras persistentemente progresivas.
2. Los inicios Si bien el desarrollo de las Técnicas de Muestreo aplicadas a poblaciones finitas se inicia a fines del siglo XIX, existen precedentes aislados. Un buen ejemplo de la antigua idea de que es posible inferir a toda una población finita a partir del estudio de algunos elementos de la misma, está dado por la ley universal de gravitación. Cuenta la historia, que Isaac Newton inicia su mencionado estudio basándose en la observación de la caída de una manzana. De esta forma, él infiere una población muy grande, infinita quizás, fundamentándose únicamente en la caída de un fruto, el comportamiento de algunos astros y unas pocas (aunque por supuesto complicadas), mediciones realizadas por Kepler. Por otro lado, la formulación de muchas de las teorías sociológicas durante los siglos XVIII y XIX (como las desarrolladas por Marx y Weber), se basan en datos cuantitativos correspondientes a precios, población y producción industrial, entre otros. Naturalmente que esta información no procedía de relevamientos exhaustivos (censos), sino de la observación de parte de los datos vinculados a esos aspectos, no obstante lo cual, resulta oportuno hacer hincapié en el hecho de que estos datos no fueron producto de muestreos probabilísticos (cuyas bases aún no habían sido sentadas). Sin embargo las teorías que de ellos se desprenden, no carecen del rigor científico suficiente como para ser descalificadas. Reforzando el punto anterior, Francisco Azorín Poch, en su libro “Curso de Muestreo y Aplicaciones” (Aguilar, 1969), expresa que en realidad “en sentido amplio, cualquier recolección de datos puede considerarse como una muestra”, por lo cual, hasta tanto se precise una población
(a)
Gran parte de este capítulo se basa en la Comunicación “Breve Historia del Muestreo”, presentada por Estigarribia, N.; Vargas, M. K. y Hoszowski, A. en el CLATSE VIII, 2008, Montevideo, Uruguay, cuyo texto ha sido corregido y ampliado para el desarrollo de este “Curso de Muestreo para No Estadísticos”.
en el espacio y en el tiempo, toda la información con la que usualmente se toman decisiones, pueden ser consideradas parciales y conformando un todo impreciso y/o infinito. A partir de esta introducción, los antecedentes correspondientes a los actuales métodos muestrales pueden ser de orígenes diferentes, cada uno de los cuales se analizan en los puntos siguientes.
3. Antecedentes Demográficos Una de las primeras aplicaciones relevantes del Muestreo como tal, la constituye el trabajo “Natural and Political Observations made upon the Bills of Mortality”, escrito en 1662 por el demógrafo inglés John Graunt. Se trata de una investigación llevada a cabo sobre los registros de una cierta cantidad de parroquias correspondientes a los años 1629-1661. En ese trabajo, realizado sobre la base de los datos obtenidos en las observaciones parciales de ese conjunto de parroquias, Graunt realiza inferencias aventuradas sobre ciertas características de la población de una región completa, tales como el número de personas que morirían a causa de diferentes enfermedades y la proporción de nacimientos de ambos sexos que podría esperarse. Durante el siglo XVIII, comienzan a utilizarse los registros parroquiales en Francia, destacándose nombres como Saint-Pierre, Messence y D’Expilly. Estos dos últimos proponen, en 1766 y 1768 respectivamente, “estimar” la población de Francia. D’Expilly (b) , aplica en su estudio un factor diferencial entre los registros correspondientes a las zonas urbanas y los correspondientes a las zonas rurales (hecho que lo convierte en el precursor de la “estratificación”). Formula además una especie de estimador de razón estratificado para aproximarse a la Población Total de una región (mucho tiempo antes que Jerzy Neyman), dado que relaciona el total de defunciones con el total de la población de la siguiente manera: el total de defunciones conocido se multiplica por la relación habitantes por defunción. La utilización de los registros parroquiales para cálculos y estimaciones demográficas, cuyos principios se originan en Inglaterra y Francia, se expande posteriormente a otros países.
4. Antecedentes Probabilísticos Es preciso observar que esos trabajos demográficos son posteriores al establecimiento de los pilares del Cálculo de Probabilidades (llevados a cabo por Blaise Pascal y Pierre Fermat en la década de 1650), y también son posteriores a lo que hoy se conoce como la primera Ley de los Grandes Números o ley débil de los grandes números, introducida por el matemático suizo Jakob Bernoulli y publicada en 1713, que establece informalmente que : “si el tamaño de la muestra es grande, entonces el promedio muestral se aproxima al promedio de la población de la cual se obtuvo la muestra”. Pese a ello, y aunque en ese momento ya estaban sentadas las bases necesarias de la Teoría de las Probabilidades, no se utilizaron desarrollos teóricos de gran envergadura para las estimaciones y proyecciones demográficas de entonces. Esto se debe, quizás, a que no existía aún una necesidad por parte de los Gobiernos y Estados de efectuar estudios como los que se realizaron posteriormente durante el siglo XX.
5. Antecedentes Censales Es difícil determinar con exactitud la fecha o el lugar en el que se lleva a cabo el primer censo “moderno”. Sin embargo, es considerado como tal, el censo realizado en 1666 en la actual ciudad de Québec, Canadá. Los censos modernos se diferencian de sus predecesores, los censos antiguos, en que sus fines no se limitan únicamente a cuestiones fiscales y militares, sino que consideran a la población como una fuente de información que permite el despliegue de acciones económicas, políticas y sociales por (b)
Según Droesbeke y Tassi (1990).
parte de los gobiernos. Este cambio, genera la necesidad de incluir entre los datos a relevar algo más que la información básica de las personas (género, edad, hijos, etc.). En Estados Unidos, en 1790, se realiza la primera enumeración exhaustiva moderna dentro de lo que eran sus límites geográficos. Por su parte, Bélgica efectúa en 1796 el primer censo moderno con el apoyo de Adolphe Quetelet, quien destina sus esfuerzos a homogeneizar la tecnología y los métodos utilizados en la recolección, procesamiento y presentación de los datos. A partir de 1801, Inglaterra y Francia tienen la oportunidad de contar con cifras más rigurosas obtenidas de lo que algunos expertos dan en llamar el “primer censo aceptable ”. Los avances en materia censal ocurridos entre los siglos XVII y XIX dan origen a los censos tal como se los conoce en la actualidad.
6. Orígenes del Muestreo El primer intento de establecer una metodología formal para estimar características de una población observando solo a una muestra de la misma, se planteó en la reunión del International Statistics Institute (ISI) realizada en Berna, Suiza en 1895. Una de las conferencias, dictada por un Estadístico noruego Anders Nicolai Kiaer (c), trataba sobre un método que él llamó “representativo”, mediante el cual Kiaer trataba de lograr una muestra que reprodujera similares características a la de la población de la que había sido extraída. En dicho informe, Kiaer expuso su opinión respecto al debate sobre la legitimidad o no de las enumeraciones parciales, detallando el modo en que se seleccionaron las unidades de una subpoblación, cuya temática apuntaba a la distribución de ingresos, desarrollando el concepto de “representatividad”. El mismo consiste en la creación de una muestra que resulte un duplicado en miniatura de la población, considerando la participación proporcional de la misma de acuerdo a sus principales características (género, edad, etc.). Este método “representativo” no utilizaba la selección aleatoria. Las unidades eran elegidas en forma dirigida de tal manera, que el promedio muestral de ciertas clasificaciones de los datos se acercara al promedio poblacional de las mismas. La propuesta de Kiaer tiene semejanzas a lo que actualmente se denomina “Muestreo por Cuotas”, una de las técnicas de Muestreo No Probabilístico más difundidas. También se lo puede considerar el precursor de lo que actualmente se denominan “Muestras Calibradas”, en las que los resultados de una Muestra Probabilística se ajustan a la Población a partir de datos censales. Con respecto al método “representativo”, Sharon Lohr (2000), plantea que tales muestras tienen la facultad de reproducir aproximadamente las principales características poblacionales, esto significa que cada unidad muestreada ha de representar los atributos de una cantidad conocida de unidades en la población. A pesar de que los términos estadísticos y matemáticos utilizados por Kiaer resultaban relativamente sencillos, la propuesta de inferir a una población a partir de una muestra “representativa” fue en ese momento rechazada por los concurrentes al congreso del ISI, ya que se consideró que el método propuesto por Kiaer solo suministraba conjeturas sin validez estadística, y fue severamente cuestionado por ser dependiente de cada sujeto que elegía las unidades, es decir que era subjetivo. Dos años después, en 1897, Kiaer propone obtener estadísticas oficiales a través de la utilización de una muestra “representativa”. Nuevamente su propuesta es criticada, dado que se consideraba impensado que una investigación parcial sea capaz de sustituir el papel desempeñado por un censo. No obstante los rechazos recibidos, Kiaer avanza sobre otros temas, como muestreo por cuotas y métodos de re- muestreo, los que presenta en 1901.
(c)
Kiaer fue el 1º Director de la Oficina de Estadística de Noruega, y su trabajo se denominó “Observations et Expériences concernants les dénombrements representatifs”.
Otros precursores en temas afines fueron: Carroll N. Wright (Massachussets, EEUU); Arthur Bowley (Londres, Inglaterra); Fredolm y Edin (Suecia); A Kaufmann y Chuprow (Rusia); cuyos trabajos basados en muestras también chocaron con la incomprensión de la mayoría de sus contemporáneos. Más allá de la negativa recibida por Kiaer, la idea quedó latente y el concepto de representatividad constituyó un tema de debate en los sucesivos congresos posteriores del ISI (d) . Finalmente, en 1924 se constituyó una Comisión del ISI en La Haya (e), cuyo informe fue tratado en 1925 en Roma, donde la idea de obtener una muestra para inferir a toda una población finita es reconocida y considerada válida. Años más tarde se incorporó la aleatoriedad en la selección de las unidades iniciándose el verdadero desarrollo de la Teoría del Muestreo. Una vez acordada la autenticidad de enumerar una porción de la totalidad para realizar inferencias de ese total, como afirman Droesbeke y Tassi (1990), la polémica ya no radicaba en “si se debe muestrear o no”, sino que la cuestión recaía entonces en “cómo muestrear”, particularmente por la controversia entre los métodos denominados “representativos” y los métodos “aleatorios”. Como se mencionó anteriormente, el muestreo representativo consistía en un muestreo por cuotas que propone adoptar “pautas razonadas” para garantizar la representatividad. El muestreo aleatorio sienta naturalmente sus inicios en los trabajos relativos a probabilidad de Carl Friederick Gauss y Pierre-Simon Laplace. Entre 1920 y 1925, Ronald Fisher presenta una serie de adelantos que constituyen los pilares de la estadística moderna. Desarrolla el Análisis de la Variancia, la Teoría de la Estimación (que consiste básicamente en introducir la diferencia entre el Parámetro Poblacional y el Estadístico Muestral). Por otro lado, introduce también el Método de Máxima Verosimilitud y las Propiedades de los Estimadores que de él resultan. Estos desarrollos redundan en una considerable influencia ejercida por Fisher en el enriquecimiento de la Teoría del Muestreo. Por otra parte, Tschuprow y Kowalsky en la Unión Soviética (1924), y Neyman en Inglaterra (1934), fueron los pioneros en los métodos aleatorios de Muestreo. Ellos trabajaron en Muestreo Simple al Azar (MAS) y Muestreo Estratificado (ME) (f). El MAS fue realmente la base de toda la Inferencia Estadística, y el único requisito que tenía para su aplicación, era que todas las unidades de la población a muestrear debían estar perfectamente identificadas y numeradas. Para el ME se necesitaba un mayor conocimiento de la Población, y tenerla clasificada en partes bien diferenciables en cuanto a las variables básicas del estudio, debiendo extraerse de cada parte una muestra aleatoria. Como sucedía con otros sectores productivos de bienes y servicios, los avances científicos registraban saltos cualitativos relevantes a partir de los conflictos bélicos. Muchos aspectos de la Estadística y disciplinas afines (Investigación Operativa, Teoría de la Decisión, etc.), tuvieron avances importantes en los años previos, durante y poco después de la 2ª Guerra Mundial. En Inglaterra: Yates, Zacopancy y Cochran, entre 1935 y 1940, desarrollaron los Estimadores por Razón y por Regresión. Mahalanobis en 1945, en la India, trabajó en Muestreo Multietápico; introdujo el Muestreo por Conglomerados con probabilidades proporcionales al tamaño del conglomerado, y desarrolló métodos para controlar los Errores no Debidos al Muestreo. En los Estados Unidos, Hansen y Hurwitz en el año l943, introdujeron la teoría general de selección con probabilidad proporcional al tamaño (de uso en el ME). Patterson presentó en Inglaterra, en (d)
En 1897, una Comisión del ISI reunida en San Petersburgo (integrada entre otros por Kiaer y Wrigth), se manifestó favorablemente a esos métodos muestrales; posteriormente se lo trató en 1901 en Budapest, y en 1903 tuvo un acuerdo oficial del ISI reunido en Berlín. (e) Integrada entre otros por Bowley, Gini y Jensen. (f) En 1934, Jerzy Neyman publicó en la Revista de la Royal Statistical Society de Londres, el 1º trabajo científico sobre Muestreo de Poblaciones Finitas, denominado: “Dos aspectos del método representativo, el muestreo estratificado y la selección intencional”.
1950, la teoría de Encuestas o Muestras Replicadas (MR) (g) que recién tomó fuerza y se desarrolló hacia fines del siglo. En 1952, Horvitz y Thompson implementaron nuevas forma de expresar los estimadores iniciando el desarrollo de la teoría de selección con probabilidad desigual y sin reposición. Una mención especial merece William E. Deming, que junto con otros realizó diseños muestrales ejemplares para las poblaciones de Grecia y Japón después de la finalización de la guerra. El informe de “Una Muestra de Población para Grecia” (h), constituye un documento indispensable para cualquier Estadístico dedicado a la realización de muestras de poblaciones humanas. Los resultados de la muestra de población de Japón fueron tan precisos (corroborados posteriormente con un censo), que merecieron el honor de una moneda japonesa con la imagen de Deming. Los nombres citados fueron los que realizaron los aportes iniciales y desplegaron nuevos caminos en cada tema del Muestreo. Obviamente que a partir de estos pioneros existen innumerables aportes que contribuyeron al desarrollo de lo que es hoy la Teoría y Práctica del Muestreo.
7. Muestreo no Probabilístico en Encuestas de Opinión A lo largo de la historia, la dinámica de las encuestas de opinión estuvo fuertemente vinculada a la demanda de los medios de comunicación, como consecuencia de estar éstos embarcados en la búsqueda continua por obtener la primicia. Los inicios de los sondeos de opinión en Estados Unidos están referidos principalmente a dos períodicos: Harrisburg Pennsylvanian y Raleigh Star, los que motivados por el interés en predecir resultados electorales a nivel presidencial en 1924, inician la utilización del sencillo sistema denominado “voto de paja” o “voto ficticio” (i). Sin embargo, no es sino hasta la década de 1930 que las encuestas de opinión adquieren gran ímpetu. Es la conocida revista The Literary Digest, la que predice acertadamente los resultados de cuatro elecciones presidenciales consecutivas: 1920, 1924, 1928 y 1932, utilizando el sistema anteriormente mencionado. En 1936, The Literary Digest envía por correo cerca de 10 millones de boletas a sus suscriptores, a suscriptores de teléfonos y a dueños de automóviles para los cuales se disponía de registros postales), de las cuales obtiene aproximadamente 2,3 millones de respuestas. Con ellas la revista vaticina incorrectamente la victoria del republicano Alf Landon sobre el demócrata Franklin Roosevelt. Ese grave error a partir de tamaña muestra, llevó a la conclusión de que, independientemente del gran tamaño de la muestra, el principal error lo constituye el hecho de que la estructura muestral no coincide con la del electorado, llegándose a identificar dos grandes factores: ü
En primer lugar, porque hay una subcobertura en el marco de muestreo, es decir que el envío de boletas cubrió escasamente a ciudadanos de ingresos bajos, y según la interpretación de A. Garnica (1999), se trató de la primera elección presidencial en la que hubo una alta diferenciación del voto entre distintas clases sociales. Este es el “Factor de Marco Muestral”.
ü
En segundo lugar, el perfil actitudinal de quienes contestan las boletas del diario era muy diferente de quienes no las contestaban. Factor de “Factor de No Respuesta”.
(g)
Consistía en repetir el mismo tipo de Muestras varias veces, pudiéndose trabajar sus resultados en forma individual o conjunta, permitiendo la medición de variancias entre cada réplica, y graduar el trabajo en relación a los recursos disponibles. (h) Revista de la American Statístical Asociation (ASA), Vol. 42, 1947; Libro “Sobre la Teoría del Muestreo”, W. E. Deming, BIETA, IASI, Cap. 12, 1952. (i) Consistía en el envío de gran cantidad de cartas postales adjuntando “boletas” con las que indagaban acerca de la intención de voto, las cuales debían ser completadas y enviadas de vuelta por correo al remitente. En esos años, la cultura estadounidense por las encuestas, lograba una gran tasa de respuesta a este tipo de consultas.
8. El Muestreo por Cuotas El caso anterior, provocó a partir de 1936 que las muestras de tamaño grande dejaran de ser sinónimo de encuestas infalibles y, que los trabajos de Elmo Roper, George Gallup y Archibald Crossley comiencen a ser reconocidos. Ellos, precursores de los actuales Institutos o Centros de Investigación de Opinión, pronostican correctamente ese año la victoria de Franklin Roosevelt con muestras mucho más reducidas, mediante la técnica denominada “Muestreo por Cuotas”, que consiste en diseñar una muestra que reproduzca la composición de la población según una serie de características poblacionales conocidas, tales como ámbito de residencia (urbano o rural), sexo, edad y raza entre otras. El encuestador, durante el trabajo de campo pregunta acerca de su intención de voto a personas que cumplen con las características requeridas hasta completar las cuotas respectivas de cada indicador. El tipo de muestreo por cuotas es utilizado exitosamente hasta que en 1948 Roper, Gallup y Crossley predicen que Thomas Dewey sería quien gane las elecciones presidenciales, y finalmente es Harry Truman quien obtiene el triunfo. Este hecho provoca una gran consternación en sus seguidores. Estudios posteriores llevados a cabo tanto por Gallup como por la Social Science Research Council (1949), revelan que pud ieron influir principalmente tres factores: ü
El primero de ellos corresponde a haber aplicado un tratamiento inadecuado al voto de los indecisos, es decir, haberlos distribuirlos con un criterio inapropiado.
ü
En segundo lugar, se encuentra la posibilidad de no haber medido correctamente los cambios de último momento en la opinión del electorado. Se había decidido no realizar más encuestas durante el mes anterior a las elecciones, como producto de que las cifras hasta ese momento habían favorecido sistemáticamente a Thomas Dewey, y que no existían, razones para dudar de que obtendría la victoria.
ü
Como último factor responsable, se halla la utilización del muestreo por cuotas, con el cual, si bien se busca mantener la misma proporcionalidad que en la población, la selección final de la unidad depende de la preferencia del encuestador y de la voluntad de responder del electorado, produciendo sesgos y errores sistemáticos.
A partir de entonces, comienza a recomendarse la utilización del muestreo probabilístico, cuya principal ventaja consistía en posibilitar la medición y control de los errores muestrales.
9. El Muestreo Probabilístico Si bien como ya se lo ha mencionado en el punto 6., existen antecedentes previos, puede decirse que el muestreo basado en probabilidades es un desarrollo de los años 50´ en adelante. Por Muestreo Probabilístico se entiende aquel en el que las unidades de la muestra son seleccionadas mediante algún procedimiento aleatorio. Para que una muestra sea denominada probabilística deben cumplirse una serie de condiciones: ü
En primer lugar, todos los elementos de la población deben tener probabilidad conocida previamente y no nula de ser seleccionados.
ü
En segundo lugar, deben estar enumerados, identificados o con posibilidades de acceder a todos y cada uno de los elementos de la población.
ü
En tercer y último lugar, la muestra debe ser seleccionada con algún método de azar.
Ya se mencionó que en 1934, el Estadístico Matemático polaco Jerzy Neyman publica, en la revista de la Royal Statistical Society de Londres, lo que se considera el primer trabajo científico sobre el Muestreo de Poblaciones Finitas, considerado la piedra fundadora del Muestreo Probabilístico (ver llamada (d)). Allí se evalúa la utilización del método de selección razonada, también denominado de selección intencional, defendido por C. Gini y L. Galvani, proponiendo en su lugar muestras seleccionadas
aleatoriamente. Se postula a la selección aleatoria como la base de una teoría científica que permite predecir la validez de las estimaciones muestrales. En ese mismo artículo, Neyman formula la teoría de los Intervalos de Confianza, que consiste en que la estimación de un parámetro, a diferencia de la estimación puntual, se realice determinando un intervalo que contiene al parámetro, ligado a un coeficiente denominado “de confianza ”, que indica la probabilidad de que efectivamente el intervalo encierre al parámetro. Además del muestreo estrictamente aleatorio (denominado Muestreo Aleatorio Simple, MAS), Neyman desarrolla también la técnica del Muestreo Estratificado (ME) y la del Muestreo por Conglomerados (MC). Este último consiste en seleccionar grupos de unidades en lugar de unidades individuales y luego realizar un censo dentro de los grupos seleccionados. Además, introduce un sistema particular relativo a la eficiencia de la estrategia muestral, es decir que determina las condiciones bajo las cuales resulta más eficiente aplicar MAS, ME o MC. Neyman introduce también, los principios de la asignación óptima en el ME, que consiste en determinar el tamaño muestral en cada estrato, partiendo de un tamaño muestral total fijo, minimizando la variancia de la estimación. Se reconoció luego, que los resultados publicados por Neyman respecto de la asignación óptima los había anticipado, en 1923, Alexander A. Tschuprow. Se vislumbra en Neyman, una descalificación del concepto de “muestra representativa” como sinónimo de “buena muestra”, dado que la mejor asignación no es necesariamente la asignación proporcional, y menos aún realizada de manera razonada (es decir, no aleatoria).
10. Desde mediados del Siglo XX Una vez establecidas las bases del Muestreo Probabilístico y No Probabilístico, se realizan múltiples aportes a la Teoría del Muestreo. A continuación, se señalan algunos de ellos. L.H. Madow y M.G. Madow en 1944 y W.G. Cochran en 1946, desarrollan una variedad del MAS denominada Muestreo Sistemático (MS). Según Manuel Vivanco (2005), el sencillo procedimiento de selección implica la definición de un arranque aleatorio (el primer elemento es elegido al azar y condiciona a los siguientes), y un intervalo de muestreo consistente en un salto de amplitud constante que permite la posterior selección de las siguientes unidades. La muestra queda de esta forma automáticamente establecida. Dado que la teoría desarrollada en apoyo al muestreo probabilístico, permitía el control de los denominados “Errores debidos al Muestreo”, se inició un movimiento destinado al análisis de los “Errores No provenientes del Muestreo”, uno de cuyos principales factores son los diversos casos de “No Respuesta”. Un estudio realizado sobre JSTOR (Bases de Datos Electrónicas de Publicaciones Académicas), menciona que hay artículos escritos sobre No Respuesta desde el año 1945, y la publicación Public Opinion Quarterly (POQ), incluye esa temática desde 1948. La paulatina elevación de la Tasa de No Respuesta en todo tipo de encuestas muestrales, ha generado que este problema sea actualmente uno de los principales temas de estudio en el ámbito de las encuestas muestrales (j). En 1950, R. Goodman y L. Kish presentan el desarrollo de la técnica de Selección Controlada (SC), que surge como una variante del ME, la que sin embargo luego se extiende a otros diseños. El principal fin, por el cua l se aplica la SC consiste en reducir el error de muestreo en una magnitud adicional a la lograda previamente con la estratificación. La diferencia principal con el método estratificado corriente, es que aquí la selección de las unidades no es independient e de un estrato a otro.
(j)
Resumen extraído de los Informes de Avance y Comunicaciones a Coloquios de la SAE y CLATSEs, del Proyecto “La No Respuesta en Encuestas Telefónicas”, desarrollado en la UNTREF (H. Delfino, A. Masaútis, N. Rodríguez, E. Rosa y Otros – 2008 / 2011).
Un momento muy importante en la historia del muestreo se da en 1952, cuando en la revista Journal of the American Statistical Association (JASA), se publica un artículo dedicado a un estimador del total poblacional realizado por D. G Horvitz y D. J. Thompson. Dicho estimador recibe el nombre de sus creadores y se define como: n
YˆH − T = ∑ i =1
yi πi
Donde: yi es la medición para la i-ésima unidad. π i es la probabilidad de inclusión de primer orden, es decir la probabilidad de que la i-ésima unidad esté en la muestra. El estimador de Horvitz-Thompson para el total poblacional es conocido, también como π estimador. En el mismo informe publicado en 1952 se establece la variancia del estimador de Horvitz-Thompson para el total poblacional. En 1934, Neyman propone como estrategia óptima para el uso de Muestras, a aquella combinación de Estimador y Diseño de Muestreo que minimice el error medio cuadrático. En 1965, basándose en aportes de Godambe realizados con diez años de anterioridad, P. Godambe y V.M. Joshi postulan la no existencia de tal estimador óptimo en la clase de todos los estimadores insesgados cuando se trata de un enfoque clásico. Esto es demostrado por D. Basu recién en 1971. Cabe hacer mención aquí del significado dado al enfoque clásico, también denominado frecuentista que consiste en considerar fija a la población. De esta manera, la aleatoriedad presente se debe únicamente a la selección de las unidades que conforman la muestra. Frente a la imposibilidad de obtener estimadores óptimos bajo un enfoque clásico se presentan otras dos propuestas: s
La primera de ellas consiste en que, bajo el mismo enfoque clásico, se recurra al concepto de admisibilidad para la elección del mejor estimador en un diseño de muestreo dado.
s
La segunda propuesta para suplir la dificultad de hallar estimadores óptimos, consiste en la utilización de un enfoque de superpoblación propuesta en las décadas de 1960 y 1970 por los estadísticos D. Basu, K. Brewer y R. Royall. Este enfoque se caracteriza por presentar como causas de aleatoriedad, no sólo a la que produce el diseño de muestreo, sino también a la que proviene de la esencia de los datos correspondientes a una población finita.
Tillé explica algunos motivos por los cuales los enfoques basados en la modelización de la población no suelen aplicarse en institutos de estadística oficiales. Uno de ellos corresponde al intento de realizar la mínima cantidad de supuestos. A diferencia de esos institutos, en estudios académicos o institutos de investigación no existe inconveniente alguno en cuanto a la aplicación de supuestos para la modelización. Un segundo motivo concierne al tamaño de muestra. Cuando el mismo es grande (se hace referencia a una magnitud de decenas de miles de unidades), como en encuestas oficiales a hogares o empresas, no existen diferencias relevantes entre el enfoque clásico y el de superpoblación. Dos aplicaciones importantes de la modelización corresponden a la teoría de imputación de datos faltantes y a la estimación para ‘áreas pequeñas’. A modo de conclusión, es preciso recordar que aquí se ha hecho referencia únicamente a aquellos acontecimientos que subjetivamente se consideraron de mayor importancia con respecto a otros a lo largo de la extensa historia del muestreo, y que bajo ningún punto de vista se ha intentado dar cuenta exhaustiva de los mismos. Por otra parte, cabe destacar también que a partir de la década de 1970 han existido numerosos adelantos en lo que refiere al muestreo, los cuales no han sido contemplados en el presente Capítulo sobre “Historia del Muestreo”.
11. Bibliografía •
Armatte, M. La Introducción en Francia de los Métodos de Sondeo Aleatorio. En: Revista de Metodología de Ciencias Sociales [en línea], 2004, no. 8, p. 55-84. Disponible en: <http://dialnet.unirioja.es>.
•
Azorín Poch, F. El Muestreo y la Situación Actual de la Estadística. En: Journal of the Inter-American Statistical Institute, 1959, vol. 17, no. 65, p. 587-651.
•
Azorín Poch, F. Curso de Muestreo y Aplicaciones. Aguilar, 1969.
•
Chen, J. ;Chen, S. Y.; Rao, J. N. K. Empirical likelihood confidence intervals for the mean of a population containing many zero values. En: The Canadian Journal of Statistics, 2003, vol. 31, p. 53-68.
•
Cochran, W.G. Técnicas de Muestreo. México: Editorial Continental, 1998.
•
Cox, D. R., and E. J. Snell. On Sampling and the Estimation of Rare Errors. En: Biometrika 66, 1979.
•
Delfino, H.; Masaútis, A.; Rodríguez N. ; Charre, C.; Fernández Bussy, J. y Rosa, E.: Comunicación La No Respuesta en Encuestas Telefónicas. Actas del XXXVII Coloquio Argentino de Estadística de la Sociedad Argentina de Estadística (SAE), Catamarca, 2009.
•
Deming, W. E. “Sobre la Teoría del Muestreo”, BIETA, IASI, 1952.
•
Droesbeke, J. J.; Tassi, Ph. Histoire de la statistique. Paris : Editorial Presses universitaires de France, 1990.
•
Estigarribia, N.; Vargas M. K. y Hoszowski, A.: Comunicación Breve Historia del Muestreo. Actas del CLATSE VIII, Montevideo, Uruguay, 2008.
•
Fierro Alvídrez, F. México: el valor de las encuestas en las elecciones. En: Revista Latina de Comunicación Social [en línea], septiembre 2000, no 33. Disponible en: <http://www.ull.es/publicaciones/latina/aa2000kjl/w33se/57fierro.htm>
•
Font, B. Una revisión de diferentes aportaciones al diseño de poblaciones finitas. Qüestiió [en línea], 1999, vol. 23, p. 3-39. Disponible en: <http://www.idescat.cat>
•
Garnica, A. Encuestas de Opinión Pública. Experiencia en Estados Unidos. En: Boletín de la Asociación Mexicana de Agencias de Investigación de Mercado y Opinión Pública [en línea], octubre 1999, año 6, no. 22, p. 1-10. Disponible en: <http://www.amai.org>
•
Gálvez Muñoz, L. Organismos de Sondeos, Encuestas Electorales y Derecho. En: Revista de Estudios Políticos [en línea], octubre-noviembre 2000, no. 110, p. 97-121. Disponible en: <http://dialnet.unirioja.es>
•
Hansen, M. Some History and Reminiscences on Survey Sampling. En: Statistical Science,1897, vol. 2, no. 2, p. 180-190.
•
Garnica, A. Diez Creadores de la Investigación. En: Boletín de la Asociación Mexicana de Agencias de Investigación de Mercado y Opinión Pública [en línea], enero 1999, año 6, no. 19, p. 10-13. Disponible en: <http://www.amai.org>
•
Horvitz, D. G. ; Thompson, D. J. A Generalization of Sampling Without Replacement From a Finite Universe. En: Journal of the American Statistical Association. 1952, vol. 47, p 663685.
•
Kalton, G,; Anderson, D. W. Sampling Rare Populations. En: Journal of the Royal Statistical Society, 1986, vol. 149, Series A, p. 65-82.
•
Korn, E. L.; Graubard, B. I.Confidence Intervals for Proportions with Small Expected Number of Positive Counts Estimated From Survey Data. En: Survey Methodology, diciembre 1998, vol. 24, p. 193-201.
•
Kvanli, A.H.; Shen, Y. K.; Deng, L. Y. Construction of Confidence Intervals for the Mean of a Population Containing Many Zero Values. En: Journal of Business & Economic Statistics, 1998, vol. 16, p. 362-368.
•
Lohr, S. Muestreo: Diseño y Análisis. México: Editorial Thomson, 2000.
•
Mayor Gallego, J. A. Estimadores de Razón: Una revisión. En: Qüestiió [en línea], 1997, vol. 21, p. 109-149. Disponible en: <http://www.idescat.cat>
•
Mespoulet, M. La Edad de Oro del Sondeo en Rusia (1885-1924). En: Revista de Metodología de Ciencias Sociales [en línea], 2004, no. 7, p. 11-33. Disponible en: <http://dialnet.unirioja.es>
•
Neyman, Jerzy. Sobre los Dos aspectos Diferentes del Método Representativo: El Método de Muestreo Estratificado y el Método de Selección Dirigida. En: Journal of the InterAmerican Statistical Institute, 1959, vol. 17, no. 65, p. 680-690.
•
Rodríguez, N.; Apuntes de Sistemas de Información Estadística, Carrera de Estadística; UNTREF; 2011.
•
Rosa, Ernesto A.; Apuntes de Estadística Inferencial I; Carrera de Estadística; UNTREF; 2010.
•
Rosa, Ernesto A. y Otros; Apuntes del Curso / Taller sobre Técnicas de Muestreo Aplicado; UNTREF; 2011.
•
Ruiz Espejo, M. Sobre Estimadores UMV y UMECV en poblaciones finitas. En: Estadística Española [en línea], 1987, no. 115, p. 105-111. Disponible en: <http://www.ine.es>
•
Sánchez Crespo, J. Selección Controlada en el Muestreo Probabilístico. En: Estadística Española [en línea], julio-septiembre 1966, no. 32, p. 5-16. Disponible en: <http://www.ine.es>
•
Santos Peña, J.; Muñoz Alamillos, A.; Juez Martel, P.; Guzmán Justicia, L. Diseño y Tratamiento Estadístico de Encuestas para Estudios de Mercado. Madrid: Editorial Centro de Estudios Ramón Areces, S.A, 2001
•
Särndal, C. E.; Swensson, B.; Wretman, J. Springer Series in Statistics. Estados Unidos: Springer-Verlag New York, Inc.,1992.
•
Stephenson, C. B. Probability Sampling With Quotas: An Experiment. En: The Public Opinion Quarterl, 1979, vol. 43, no. 4, p. 477-496.
•
Stoetzel, J.; Alain, G. Las encuestas de opinión pública. Madrid, Instituto de la Opinión Pública, 1973.
•
Tillé, Y. Théorie des Sondages: Échantillonnage et Estimation en Populations Firies. Paris: Editorial Dunod , 2001.
•
Vargas Ponce, J. Estados de Vitalidad y Mortalidad de Guipúzcoa en el Siglo XVIII. Trabajados por el Teniente de Navio D. José Vargas y Ponze director de la Real Academia de la Historia. (1805). Madrid, Real Academia de la Historia, 1982.
•
Vivanco, M. Muestreo Estadístico. Diseño y Aplicaciones. Chile: Editorial Universitaria, 2005.
•
Yáñez Canal, S. La Estadística una Ciencia del Siglo XX. R.A. Fisher, el Genio. En: Revista Colombiana de Estadística [en línea], 2000, no. 23, p. 1-14. Disponible en: <http://www.emis.de/journals/RCE>.