Mostrando entradas con la etiqueta Estadística y Encuestas. Mostrar todas las entradas
Mostrando entradas con la etiqueta Estadística y Encuestas. Mostrar todas las entradas

jueves, octubre 10, 2013

Sugerencias para un cuestionario

*
Explicar la finalidad, destacar la importancia de las opiniones de la persona cuestionada.
Preguntas breves, evitar preguntas largas.
Preguntas claras, no confusas.
Lenguaje directo, evitar expresiones ambiguas o indirectas.
Preguntas dirigidas a relevar el hecho investigado.
Preguntas que no generen temor o inseguridad en la persona cuestionada.
*

viernes, septiembre 04, 2009

Una historia de métodos cuantitativos

*
Las negrillas, numeración entre paréntesis y separación de algunos párrafos son nuestros para efectos de estudio.

Tomado de:

Esta es la versión html del archivo

http://rboullosa.files.wordpress.com/2008/06/resumen-lectura-1-historia-mcuantitativos1.doc.

G o o g l e genera automáticamente versiones html de los documentos mientras explora la Web.

(I) HISTORIA DE LOS METODOS CUANTITATIVOS

El inicio formal de la Investigación Operativa tuvo lugar en Inglaterra a finales de 1939.

La finalidad era conseguir la máxima eficiencia posible.

Así en Agosto de 1940 el Físico P.M.S Balckett de la Universidad de Manchester fue responsabilizado de formar un grupo de trabajo para estudiar el sistema de defensa antiáerea gobernado por radar.

Uno de los primeros esfuerzos de este grupo fue dirigido al estudio del ataque áereo a los submarinos.

Pero aunque el razonamiento era válido, los resultados obtenidos con esta política eran muy limitados.

En definitiva la profundidad de treinta metros era adecuada cuando el submarino divisaba con antelación al bombardero pero la falta de precisión impedía obtener resultados.

Se llegó a la conclusión de que la alternativa más adecuada era optar por causar daños cuando el submarino estuviera en la superficie.

Los aspectos que caracterizan a los estudios de Investigación Operativa:

1.-Toma Directa de Datos.

2. Empleo de Modelos matemáticos

3. Obtención de las políticas óptimas

4. Modificación de dichas políticas de acuerdo con factores reales no considerados en el modelo.


En Estados Unidos, los fondos para la investigación en el campo militar se incrementaron, por lo que la mayoría de los grupos se consolidaron aumentando su número y tamaño.

En cambio en Gran Bretaña los componentes de los grupos se habían desarrollado en el medio militar pasaron a la sociedad civil.

Otro aspecto importante en este contexto es que el desarrollo de la Organización Industrial tradicional en Gran Bretaña había sido más limitado y con la excepción del Estudio del Trabajo era todavía una novedad en los círculos industriales. A mediados de la década de los cincuenta, la investigación operativa se encontraba afianzada en el mundo industrial.

La I.O. utiliza resultados de muchas áreas científicas, aunque su base fundamental se encuentra en la matemática, la economía y el cálculo de probabilidades y estadística.

Los primeros estudios que se etiquetaron como de Investigación Operativa, el aspecto técnico más característico consistió en la estructuración estadística de los datos y el empleo de modelos descriptivos de tipo probabilístico.

Los fundamentos matemáticos de los modelos líneales discretos se encuentran en la teoría de las desigualdades lineales desarrolladas en el siglo pasado.

En el resto de los años cincuenta, la Programación Líneal quedó completamente establecida con los trabajos de Charnes sobre la degeneración de Lemke sobre la dualidad, de Dantzing, Orden y Wolfe sobre la forma compacta y la descomposición de grandes programas.

Sin embargo la Programación Lineal Entera no recibe atención hasta finales de esta década en que Gomory obtiene la expresión general.

A pesar de las esperanzas que el procedimiento general sigue siendo un campo con métodos limitados e insatisfactorios

En los modelos no Lineales los resultados fundamentales proceden del desarrollo del cálculo matemático en el siglo XVIII, siendo el concepto básico el del Langrangiano.

La Programación no Lineal progresó durante los años sesenta y setenta, pudiendo atacarse la resolución de problemas de tamaño medio con varias decenas de restricciones y algunos cientos de variables.

La Programación Dinámica su inicio y desarrollo básico se debe a Richard Bellman al principio de los cincuenta.

Esta metodología no se limita a la Investigación Operativa sino que es también de gran importancia en la Teoría del Control Optimo. Muchos autores aún consideran a la Programación Dinámica como un punto de vista conceptual y un bagaje teórico para el análisis de problemas; y no como un método.


La Teoría de Colas se inicia con el trabajo del ingeniero Dánes A.K. Erlang en la industria telefónica de principios de Siglo.

Los modelos más usuales en que tanto la distribución de llegadas al sistema como la del tiempo de servicio son conocidas y pertenecen a categorías bien establecidas.

Debe resaltarse la existencia de multitud de lenguajes de simulación a disposición de los usuarios de computadoras de las empresas de mayor importancia en el sector.

La Teoría de Juegos se inicia con los primeros resultados de von Neumann sobre el teorema del mínimax en 1926.

En cualquier caso, la influencia de esta teoría sobre la organización de la producción ha sido muy limitada.

La Teoría de la Decisión se basa en la estadística Bayesiana y la estimación subjetiva de las probabilidades de los sucesos.

En la actualidad se la considera un instrumento válido para la estructuración de la toma de decisiones con incertidumbre cuando la información no es completa.

Desde su origen la Investigación Operativa se encuentra encarada con problemas para los que no existe método analítico alguno que permita obtener, con seguridad y en un tiempo conveniente, el óptimo teórico.

La Investigación de Operaciones ha establecido por tales razones métodos denominados heurísticos, incapaces de proporcionar el óptimo formal, pero susceptibles de llegar a soluciones buenas, tanto más fiables en cuanto que permiten determinar al mismo tiempo un cuota (superior o inferior) del óptimo teórico con el que se comparan.

La gran difusión que ha sufrido el software de optimización debido al incremento en la potencia de cálculo de los ordenadores y abaratamiento del costo de las aplicaciones y el hardware.

Durante los últimos años han aparecido una serie de métodos. Entre ellos se puede enumerar los algoritmos genéticos, el reconocido simulado, la búsqueda tabú y las redes neuronales.

Los algoritmos genéticos fueron introducidos por Holland para imitar algunos de los mecanismos que se observan en la evolución de las especies.

Holland creó un algoritmo que genera nuevas soluciones a partir de la unión de soluciones progenitoras, utilizando operadores similares a los de la reproducción, sin necesidad de conocer el tipo de problema a resolver.

Los algoritmos de reconocido simulado no buscan la mejor solución en el entorno de la situación actual sino que generan aleatoriamente una solución cercana y la aceptan como la mejor si tiene menor costo, caso contrario con una cierta probabilidad; esta probabilidad de aceptación irá disminuyendo con el número de iteraciones y está relacionada con el empeoramiento del costo.

El algoritmo de búsqueda Tabú a diferencia de otros algoritmos basados en técnicas aleatorias de búsqueda de soluciones cercanas se utiliza una estrategia basada e el uso de estructuras de memoria para escapar de los óptimos locales en los que se puede caer al moverse de una solución a otra por el espacio de soluciones.

Al contrario que sucede con la búsqueda local, se permiten movimientos a soluciones del entorno aunque se produzca un empeoramiento de la función objetivo.

Las Redes Neuronales son modelos analógicos que tienen como objetivo reproducir en la medida de lo posible las características y la capacidad de procesamiento de información del conjunto de neuronas presentes en el cerebro de los seres vivos.

En resumen, podría decirse que el uso de estas técnicas supone la posibilidad de resolver, de forma practica, problemas de gran complejidad que resultaban intratables mediante técnicas exactas.

La Investigación Operativa.

Los denominados Métodos Cuantitativos de Gestión visión especialmente aplicada de la disciplina conocida como Investigación Operativa.

Los objetivos de los métodos cuantitativos están claramente ceñidos al estudio de problemas de toma de decisiones.

Las Fases del método son inmediatas.

La primera Fase, formulación del problema, cumple una función primordial, ya que en base a él es posible enjuiciar que aspectos deben analizarse.

La segunda Fase consiste en la formulación de un modelo matemático que describe la situación a estudiar.

Un modelo es una abstracción p representación simplificada de una parte o segmento de la realidad.

En el modelo se pueden distinguir dos partes: esta representación se apoya generalmente en un lenguaje matemático más o menos sofisticado de acuerdo con las características del estudio que se esté realizando. Una vez finalizada la construcción del modelo se aborda la selección del criterio concreto de valoración de alternativas.

Tiene primordial importancia el conocimiento de los métodos y técnicas (:) por una parte sugiere posibilidades para la expresión matemática de las relaciones y por otra proporciona información sobre lo que se le puede pedir y es de esperar que proporcione el modelo.

En la Tercera Fase, deducción se soluciones, se requiere un bagaje técnico suficiente que permita obtener las soluciones del modelo, si este es normativo o las características fundamentales del proceso si es predictivo, conociendo de que aspectos depende la modificación de estas características.

La complejidad consustancial de los problemas conduce a la imposibilidad de obtención de las soluciones óptimas. En tales casos la generación de reglas heurísticas puede conducir a revelar nuevas formas de actuar en la práctica.

Indispensable en este caso resulta el conocimiento asociado al análisis y diseño y codificación de algoritmos.

En la cuarta Fase es necesario discernir entre las soluciones reveladas en la fase anterior, eligiendo una de ellas o una síntesis de varias.

La última fase trae consigo la caracterización en todos sus detalles de la decisión tomada.

(II) METODOS CUANTITATIVOS DE GESTION

La formación de Métodos Cuantitativos de Gestión tiene como objetivo la formación del alumno en los conceptos y técnicas básicas de la Investigación Operativa, así como en el empleo de modelos matemáticos para la resolución de problemas de Gestión e Ingenieria y en el análisis y desarrollo de algoritmos básicos y herramientas para la optimización.

PROGRAMACION LINEAL

La Programación Lineal nace a partir de la Segunda Guerra Mundial, como una técnica dedicada a la resolución de cierto tipo de problemas de asignación de recursos entre diferentes actividades.

FLUJO DE REDES

Se trata de un módulo centrado en el problema de transporte sirviendo como finalización del módulo dedicado a programación lineal en general, para iniciar el análisis de problemas con estructuras especiales.

Se completa el módulo con el estudio de problemas de distribución y su análisis mediante el método primal-dual.

PROGRAMACION LINEAL ENTERA

El siguiente módulo introduce la programación lineal entera mediante el modelado de situaciones en que existen variables de decisión, implicaciones lógicas o relaciones disyuntivas.

TEORIA DE JUEGOS

El cuarto módulo, teoría de Juegos, aborda un conjunto de situaciones caracterizada por la lucha o enfrentamiento entre dos o más oponentes.

TEORIA DE LA DECISION

En el quinto módulo se realiza una cinta introducción al análisis de alternativas en diversos entornos. Se describe como un instrumento conveniente para abordar la toma de decisiones en condiciones de incertidumbre en las que no se dispone de información completa. Se analiza el valor de la información en este contexto.

PROGRAMACION DINAMICA

El sexto módulo se dedica al estudio de problemas de decisión secuenciales o de múltiples etapas. Las variables que los describen están gobernadas por transformaciones en el tiempo.

TECNICAS DE MODELADO

El módulo de técnicas de modelado describe la sistemática general del modelado basándose en las siguientes etapas:

descripción verbal del problema identificado,

especificación del horizonte al que se refiere el análisis,

evaluación de la disponibilidad y existencia de datos,

identificación de variables,

especificación de la estructura y limitaciones a través de la construcción de restricciones, expresadas en términos de los datos disponibles y de las variables identificadas,

selección de criterios de evaluación de alternativas y enfoque empleado para la solución del modelo.


SIMULACION DE EVENTOS DISCRETOS

Básicamente consiste en la construcción de modelo que describen la parte esencial del comportamiento de un sistema de interés, así como en el diseño de experimentos con el modelo y la extracción de conclusiones de los resultados de los mismos.

METODOS AVANZADOS DE GESTION

Concretamente esta asignatura estudia las técnicas más novedosas para la resolución de problemas lineales continuos y enteros, amplia las técnicas más novedosas para la resolución de problemas lineales continuos y enteros, amplia las técnicas ya expuestas desde un punto de vista computacional y generaliza los conocimientos en el campo de la optimización al caso más general de problemas no lineales repasando los métodos que permiten solucionarlos.

EXTENSIONES DE LA PROGRAMACION LINEAL

Comienza con el análisis, desde un punto de vista computacional del algoritmo simplex como método de resolución.

Posteriormente se estudian los métodos de descomposición y partición.

El tercer tema se centra en los métodos llamados de punto interior y su aplicación en el campo de la programación lineal.

PROGRAMACION NO LINEAL

Se estudian las condiciones necesarias y suficientes de optimalidad en cada tipo de problema y se introducen otros métodos de optimización para problemas con restricciones.

Los métodos duales no atacan el problema original son dual.

ALGORITMOS GENETICOS

En particular se muestran diversos tipos de operadores de selección, cruce, mutación, etc. Así como formas dinámicas de determinar sus respectivas frecuencias de empleo.

RECONOCIDO SIMULADO

La idea básica consiste no sólo en moverse de un punto a otro mejor, que sería lo razonable sino también permitir la ocurrencia esporádica y probabilística de pasos hacia atrás, esto es empeoramientos en el valor de la función objetivo.

BUSQUEDA TABU

La idea es que prohibiendo movimientos inmersos a los que aparecen en dicha tabla se minimiza la probabilidad de que la búsqueda entre en un ciclo sin salida. El efecto de memoria a corto plazo que supone la Lista Tabú se completa con mecanismos de memoria intermedia y memoria a largo plazo que se denominan intensificación y Diversificación respectivamente.

REDES NEURONALES ARTIFICIALES

Son sistemas formados por un elevado número de unidades de procesamiento elemental muy interrelacionadas y que son capaces de realizar tareas como clasificación, generalización, optimización, abstracción, etc.

TEORIA DE COLAS

Introduce el estudio desde un punto de vista analítico, de los fenómenos de espera tan corrientes en el entorno productivo. Entre las aplicaciones prácticas de la teoría de colas, destacan las relativas al diseño y análisis de unidades productivas y de servicios.
*

sábado, julio 18, 2009

Observación Participante

*
Las negrillas y separación de algunos párrafos son nuestros para efectos de estudio.
*
La Observación participante es una técnica de observación utilizada en las ciencias sociales en donde el investigador comparte con los investigados su contexto, experiencia y vida cotidiana, para conocer directamente toda la información que poseen los sujetos de estudio sobre su propia realidad, o sea, conocer la vida cotidiana de un grupo desde el interior del mismo.

Uno de los principales aspectos que debe vencer el investigador en la observación es el proceso de socialización con el grupo investigado para que sea aceptado como parte de el, y a la vez, definir claramente dónde, cómo y que debe observar y escuchar.

Durante el proceso de investigación, para recolectar la información, el investigador debe seleccionar el conjunto de informantes, a los cuales además de observar e interactuar con ellos, puede utilizar técnicas como la entrevista, la encuesta, la revisión de documentos y el diario de campo o cuaderno de notas en el cual se escribe las impresiones de lo vivido y observado, para organizarlas posteriormente.

Esta metodología en su forma más radical es observar un grupo social desde dentro hasta 'verse como uno de ellos' en su ambiente natural; por ejemplo, el barrio en la esquina de reuniones (Whyte); preservando la objetividad con la subjetividad (balance), con el riesgo de identificarse como uno de ellos, sino colocarse en el punto de vista de un contexto teorético.

Es una práctica desde la 'Sociología del conocimiento', como una observación pausada para identificar los elementos de un hecho social. Es el punto de vista del realismo en la 'Filosofía de la ciencia', para hallar la verosimilitud de lo real de forma empírica, que no es precisamente la verdad moral.

Los conceptos a captar son la acción social por la interacción de los sujetos y el contenido de sus comunicaciones, desde el interaccionismo simbólico.

En el 'Diccionario crítico de las ciencias sociales', Alejandro Carrera en 'Realismo social' establece sus propiedades desde la filosofía analítica:

El mundo es independiente de su percepción o conocimiento.

Su conocimiento se desarrolla desde un marco conceptual.

En ese mundo se producen reformas continuas.

Esas realidades están estratificadas o agrupadas.

Dependen además de los conceptos de los agentes.

El mundo real son prácticas sociales.

Su postura ante él debe ser crítica.


Con estos postulados y sus métodos particulares: entrevistas informales, observación directa, participación en la vida del grupo, análisis de discusiones colectivas, documentos personales, historias de vida y otros, en un trabajo de campo para subculturas —grupos distintos—, principalmente con dimensiones cualitativas (dicotomizado: sí o no) de tipo transversal, con un modelo de tipo etnográfico, que clasifica los eventos, pero no los mide, propiamente.

Similar tema se halla en el Realismo literario contemporáneo, cuando el autor convive en inmersión total en el mundo del cual quiere reunir vivencias para sus personajes con la adopción de un rol. Ejemplo: Mark Twain en el Misisipi.

La Acción participante es la segunda etapa del método, que fue desarrollado por Orlando Fals Borda como metodología del Desarrollo.

La observación participante o participativa, es una metodología de las Ciencias Sociales, que culmina como acción participativa, haciéndola una de las técnicas más completa, pues además de realizar un proceso de observación, elabora propuestas y soluciones.

Aún más elaborada está en la descripción densa.

Obtenido de http://es.wikipedia.org/wiki/Observaci%C3%B3n_participante
*

martes, julio 07, 2009

Manuales de REDATAM

*
Manuales para descarga gratis de REDATAM

http://www.eclac.org/cgi-bin/getProd.asp?xml=/redatam/noticias/noticias/5/10605/P10605.xml&xsl=/redatam/tpl/p1f.xsl&base=/redatam/tpl/top-bottom.xsl
*
http://www.eclac.org/redatam/publicaciones/sinsigla/xml/2/10622/Man_RedatamSPPEsp1.pdf
*

Sistemas de Información desarrollados por CEPAL

*
Tomado de:

http://www.eclac.cl/software/default.asp

Dice la Comisión Económica para América Latina introduciendo los sistemas de información que ha desarrollado:

"La CEPAL ha desarrollado diversos sistemas de información relacionados con el desarrollo económico y social de la región latinoamericana y del Caribe. Estos sistemas se encuentran disponibles para los gobiernos e instituciones de la región mediante una solicitud directa a las divisiones responsables de los mismos. (...) Se presentan inicialmente el Sistema CAN (Análisis Competitivo de Naciones, el Sistema PADI (Programa de Análisis de la Dinámica Industrial), y el programa REDATAM."
*

Recuperación de Datos para Areas Pequeñas por Microcomputadoras

*
"El software REDATAM:Análisis y mapeo a nivel local y regional de los datos censales,de encuestas y sectoriales"

http://www.eclac.cl/software/cepal8c.html
*

viernes, mayo 09, 2008

Construir base de datos

Construir una base de datos es un recurso importante para efectos de investigación.

ACCESS es un programa para construir bases de datos que viene incorporado a Microsoft Office y por ello es de un fácil acceso.

Se dice que es un programa sencillo pero a nuestro parecer todavía es un tanto complicado. Pero es lo más fácil e inmediato que tenemos.

Hemos encontrado en un solo documento la introducción a ACCESS. Lo compartimos.

Puede verse en:

http://www.emagister.com/cursos-gratis/index_buscador.cfm?action=search&frmStrBusqueda=access&btnBuscar=Buscar

viernes, diciembre 28, 2007

Encuestas: una tipología

*
Una buena puntualización, por panorámica, de la técnica de encuestas. Es notorio en este trabajo el relevamiento de:

1. La presentación didáctica en forma de esquemas.

2. La tipificación de las encuestas, clasificación y características.

3. La ubicación de la sociometría como una forma de encuesta.

Puede verse en:

http://www2.uca.es/serv/softwarelibre-cientifico/Encuestas.pdf
*

jueves, diciembre 27, 2007

Construcción de indicadores

*
En la construcción de indicadores es necesario tomar en cuenta los siguientes elementos básicos:

1. El indicador es un signo o señal (indicare en latín) del cumplimiento de un objetivo, meta o suceso.

2. El indicador mide básicamente de manera cuantitativa grados de avance o concreción de proyecciones o sucesos.

3. El indicador cuantitativo expresa relación entre variables.

Un panorama para la construcción de indicadores de desempeño puede verse en:

https://www.hacienda.go.cr/NR/rdonlyres/A9571356-C06D-4D4C-B847-6F519BD4984F/1456/dgpn_formulas.pps#261,1,Diapositiva
*

miércoles, octubre 17, 2007

Estadística: un panorama

Un buen panorama sobre la estadística, desde la etimología hasta la situación actual, pasando por los antecedentes. No solamente ilustra en cuanto a la estadística propiamente dicha, sino también en cuanto a la aplicación del método histórico para describir y analizar un tema.

ESTADÍSTICA

En:

http://es.wikipedia.org/wiki/Estad%C3%ADstica

Tabla de contenidos
1 Etimología
2 Orígenes en probabilidad
3 Estado actual
4 Estadísticos famosos
5 Métodos estadísticos
5.1 Estudios experimentales y observacionales
5.2 Niveles de medición
5.3 Técnicas estadísticas
6 Disciplinas especializadas
7 Computación estadística
8 Críticas a la estadística
9 Notas
10 Bibliografía

1. Etimología

La palabra "estadística" procede del latín statisticum collegium ("consejo de Estado") y de su derivado italiano statista ("hombre de Estado" o "político"). El término alemán Statistik, que fue primeramente introducido por Gottfried Achenwall (1749), designaba originalmente el análisis de datos del Estado, es decir, "la ciencia del Estado" (también llamada "aritmética política" de su traducción directa del inglés). No fue hasta el siglo XIX cuando el término estadística adquirió el significado de recolectar y clasificar datos. Este concepto fue introducido por el inglés John Sinclair.

En su origen, por tanto, la estadística estuvo asociada a datos a ser utilizados por el gobierno y cuerpos administrativos (a menudo centralizados). La colección de datos acerca de estados y localidades continúa ampliamente a través de los servicios de estadística nacionales e internacionales. En particular, los censos suministran información regular acerca de la población.

Desde los comienzos de la civilización han existido formas sencillas de estadística, pues ya se utilizaban representaciones gráficas y otros símbolos en pieles, rocas, palos de madera y paredes de cuevas para contar el número de personas, animales o ciertas cosas. Hacia el año 3000 adC los babilónicos usaban ya pequeñas tablillas de arcilla para recopilar datos en tablas sobre la producción agrícola y de los géneros vendidos o cambiados mediante trueque. Los egipcios analizaban los datos de la población y la renta del país mucho antes de construir las pirámides en el siglo XI a. C. Los libros bíblicos de Números y Crónicas incluyen, en algunas partes, trabajos de estadística. El primero contiene dos censos de la población de Israel y el segundo describe el bienestar material de las diversas tribus judías. En China existían registros numéricos similares con anterioridad al año 2000 a. C. Los griegos clásicos realizaban censos cuya información se utilizaba hacia el 594 a. C. para cobrar impuestos.

2. Orígenes en probabilidad

Los métodos estadístico matemáticos emergieron desde la teoría de probabilidad, la cual data desde la correspondencia entre Pierre de Fermat y Blaise Pascal (1654). Christian Huygens (1657) da el primer tratamiento científico que se conoce a la materia. El Ars Conjectandi (póstumo, 1713) de Jakob Bernoulli y la Doctrina de Posibilidades (1718) de Abraham de Moivre estudiaron la materia como una rama de las matemáticas.[1] En la era moderna, el trabajo de Kolmogorov ha sido un pilar en la formulación del modelo fundamental de la Teoría de Probabilidades, el cual es usado a través de la estadística.

La teoría de errores se puede remontar a la Opera Miscellanea (póstuma, 1722) de Roger Cotes y al trabajo preparado por Thomas Simpson en 1755 (impreso en 1756) el cual aplica por primera vez la teoría de la discusión de errores de observación. La reimpresión (1757) de este trabajo incluye el axioma de que errores positivos y negativos son igualmente probables y que hay unos ciertos límites asignables dentro de los cuales se encuentran todos los errores; se describen errores continuos y una curva de probabilidad.

Pierre-Simon Laplace (1774) hace el primer intento de deducir una regla para la combinación de observaciones desde los principios de la teoría de probabilidades. Laplace representó la ley de probabilidades de errores mediante una curva y dedujo una formula para la media de tres observaciones. También, en 1871, obtiene la formula para la ley de facilidad del error (término introducido por Lagrange, 1744) pero con ecuaciones inmanejables. Daniel Bernoulli (1778) introduce el principio del máximo producto de las probabilidades de un sistema de errores concurrentes.

El método de mínimos cuadrados, el cual fue usado para minimizar los errores en mediciones, fue publicado independientemente por Adrien-Marie Legendre (1805), Robert Adrain (1808), y Carl Friedrich Gauss (1809). Gauss había usado el método en su famosa predicción de la localización del planeta enano Ceres en 1801. Pruebas adicionales fueron escritas por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W.F. Donkin (1844, 1856), John Herschel (1850) y Morgan Crofton (1870). Otros contribuidores fueron Ellis (1844), Augustus De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de Peters para r, el probable error de una observación simple es bien conocido.

El siglo XIX incluye autores como Laplace, Silvestre Lacroix (1816), Littrow (1833), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion y Karl Pearson. Augustus De Morgan y George Boole mejoraron la presentacion de la teoría. Adolphe Quetelet (1796-1874), fue otro importante fundador de la estadística y quien introdujo la noción del "hombre promedio" (l'homme moyen) como un medio de entender los fenómenos sociales complejos tales como tasas de criminalidad, tasas de matrimonio o tasas de suicidios.

3. Estado actual

Durante el siglo XX, la creación de instrumentos precisos para asuntos de salud pública (epidemiología, bioestadística, etc.) y propósitos económicos y sociales (tasa de desempleo, econometría, etc.) necesitó de avances sustanciales en las practicas estadísticas.

Hoy el uso de la estadística se ha extendido más allá de sus orígenes como un servicio al estado o al gobierno. Personas y organizaciones usan estadística para entender datos y tomar decisiones en ciencias naturales y sociales, medicina, negocios y otras áreas. La estadística es pensada generalmente no como un sub-área de las matemáticas sino como una ciencia diferente "aliada". Muchas universidades tienen departamentos en matemáticas y estadística separadamente. La estadística es enseñada en departamentos tan diversos como psicología, educación y salud pública.


4. Estadísticos famosos

Thomas Bayes
Pafnuty Chebyshev
Sir David Cox
Gertrude Cox
George Dantzig
W. Edwards Deming
Bruno de Finetti
Sir Ronald Fisher
Sir Francis Galton
Carl Friedrich Gauss
William Sealey Gosset ("Student")
Aleksandr Lyapunov
Abraham De Moivre
Isaac Newton
Florence Nightingale
Blaise Pascal
Karl Pearson
Adolphe Quetelet
Walter A. Shewhart
Charles Spearman
John Tukey
C. R. Rao

Al aplicar estadística a un problema científico, industrial o social, se comienza con un proceso o población a ser estudiado. Esta puede ser una población de personas en un país, de granos cristalizados en una roca o de bienes manufacturados por una fábrica en particular durante un periodo dado. También podría ser un proceso observado en varios instantes y los datos recogidos de esta manera constituyen una serie de tiempo.

Por razones prácticas, en lugar de compilar datos de una población entera, usualmente se estudia un subconjunto seleccionado de la población, llamado muestra. Datos acerca de la muestra son recogidos de manera observacional o experimental. Los datos son entonces analizados estadísticamente lo cual sigue dos propósitos: descripción e inferencia.

El concepto de correlación es particularmente valioso. Análisis estadísticos de un conjunto de datos puede revelar que dos variables (esto es, dos propiedades de la población bajo consideración) tiende a variar conjuntamente, como hubiera una conexión entre ellas. Por ejemplo un estudio del ingreso anual y la edad de muerte entre personas podría resultar en que personas pobres tienden a tener vidas mas cortas que personas de mayor ingreso. Las dos variables se dicen a ser correlacionadas. Sin embargo, no se pude inferir inmediatamente la existencia de una relación de causalidad entre las dos variables; ver correlación no implica causalidad. El fenómeno correlacionado podría ser la causa de un tercero, previamente no considerado, llamado variable confundida.

Si la muestra es representativa de la población, inferencias y conclusiones hechas en la muestra pueden ser extendidas a la población completa. Un problema mayor es el de determinar que tan representativa es la muestra extraída. La estadística ofrece medidas para estimar y corregir por aleatoriedad en la muestra y en el proceso de recolección de los datos, así como métodos para diseñar experimentos robustos como primera medida, ver diseño experimental.

El concepto matemático fundamental empleado para entender la aleatoriedad es el de probabilidad. La estadística matemática (también llamada teoría estadística) es la rama de las matemáticas aplicadas que usa la teoría de probabilidades y el análisis matemático para examinar las bases teóricas de la estadística.

El uso de cualquier método estadístico es valido solo cuando el sistema o población bajo consideración satisface los supuestos matemáticos del método. Mal uso de la estadística puede producir serios errores en la descripción e interpretación — afectando las políticas sociales, la practica médica y la calidad de estructuras tales como puentes y plantas de reacción nuclear.

Incluso cuando la estadística es correctamente aplicada, los resultados pueden ser difícilmente interpretados por un no experto. Por ejemplo, la significancia estadística de una tendencia en los datos &mdash, la cual mide que tanto la tendencia puede ser causada por una variación aleatoria en la muestra &mdash. El conjunto de habilidades estadísticas básicas (y el escepticismo) que una persona necesita para manejar información en el día a día se refiere como cultura estadística.


5. Métodos estadísticos

5.1. Estudios experimentales y observacionales

Un objetivo común para un proyecto de investigación estadística es investigar la causalidad, y en particular extraer una conclusión en el efecto que algunos cambios en los valores de predictores o variables independientes tienen sobre una respuesta o variables dependientes. Hay dos grandes tipos de estudios estadísticos para estudiar causalidad: estudios experimentales y observacionales. En ambos tipos de estudios, el efecto de las diferencias de una variable independiente (o variables) en el comportamiento de una variable dependiente es observado. La diferencia entre los dos tipos es la forma en que el estudio es conducido. Cada uno de ellos puede ser muy efectivo.

Un estudio experimental envuelve el tomar mediciones del sistema bajo estudio, manipular el sistema y luego tomar mediciones adicionales usando el mismo procedimiento para determinar si la manipulación ha modificado los valores de las mediciones. En contraste, un estudio observacional no necesita manipulación experimental. Por el contrario, los datos son recogidos y las correlaciones entre predictores y la respuesta son investigadas.

Un ejemplo de un estudio experimental es el famoso experimento de Hawthorne el cual pretendía probar cambios en el ambiente de trabajo en la planta Hawthorne de la Western Electric Company. Los investigadores estaban interesados en si al incrementar la iluminación en un ambiente de trabajo, la producción de los trabajadores aumentaba. Los investigadores primero midieron la productividad de la planta y luego modificaron la iluminación en un área de la planta para ver si cambios en la iluminación afectarían la productividad. La productividad mejoró bajo todas las condiciones experimentales. Sin embargo, el estudio fue muy criticado por errores en los procedimientos experimentales, específicamente la falta de un grupo control y ciegamiento.

Un ejemplo de un estudio observacional es un estudio que explora la correlación entre fumar y el cáncer de pulmón. Este tipo de estudio normalmente usa una encuesta para recoger observaciones acerca del área de interés y luego produce un análisis estadístico. En este caso, los investigadores recogerían observaciones de fumadores y no fumadores y luego mirarían los casos de cáncer de pulmón en ambos grupos.

Los pasos básicos para un experimento son:

Planeamiento estadístico de la investigación, lo cual incluye encontrar fuentes de información, selección de material disponible en el área y consideraciones éticas para la investigación y el método propuesto. Se plantea un problema de estudio,
Diseñar el experimento concentrándose en el modelo y la interacción entre variables independientes y dependientes. Se realiza un muestreo consistente en la recolección de datos referentes al fenómeno o variable que deseamos estudiar. Se propone un modelo de probabilidad, cuyos parámetros se estiman mediante estadísticos a partir de los datos de muestreo. Sin embargo, se mantiene lo que se denominan "hipótesis sostenidas" (que no son sometidas a comprobación) Se valida el modelo comparándolo con lo que sucede en la realidad. Se utiliza métodos estadísticos conocidos como test de hipótesis y prueba de significación.

Se producen estadísticas descriptivas.

Inferencia estadística. Se llega a un consenso acerca de que dicen las observaciones acerca del mundo que observamos.

Se utiliza el modelo validado para tomar decisiones o predecir acontecimientos futuros. Se produce un reporte final con los resultados del estudio.

5.2. Niveles de medición

Ver: Stanley Stevens' "Scales of measurement" (1946): nominal, ordinal, interval, ratio.

Hay cuatro tipos de mediciones o escalas de medición en estadística.

Los cuatro tipos de niveles de medición (nominal, ordinal, intervalo y razón) tienen diferentes grados de uso en la investigación estadística.

Las medidas de razón, en donde un valor cero y distancias entre diferentes mediciones son definidas, dan la mayor flexibilidad en métodos estadísticos que pueden ser usados para analizar los datos.

Las medidas de intervalo tienen distancias interpretables entre mediciones, pero un valor cero sin significado (como las mediciones de coeficiente intelectual o temperatura en grados Celsius).

Las medidas ordinales tienen imprecisas diferencias entre valores consecutivos, pero un orden interpretable para sus valores.

Las medidas nominales no tienen ningún rango interpretable entre sus valores.

La escala de medida nominal, puede considerarse la escala de nivel más bajo. Se trata de agrupar objetos en clases.

La escala ordinal, por su parte, recurre a la propiedad de “orden” de los números.

La escala de intervalos iguales está caracterizada por una unidad de medida común y constante. Es importante destacar que el punto cero en las escalas de intervalos iguales es arbitrario, y no refleja en ningún momento ausencia de la magnitud que estamos midiendo. Esta escala, además de poseer las características de la escala ordinal, permite determinar la magnitud de los intervalos (distancia) entre todos los elementos de la escala.

La escala de coeficientes o Razones es el nivel de medida más elevado y se diferencia de las escalas de intervalos iguales únicamente por poseer un punto cero propio como origen; es decir que el valor cero de esta escala significa ausencia de la magnitud que estamos midiendo. Si se observa una carencia total de propiedad, se dispone de una unidad de medida para el efecto. A iguales diferencias entre los números asignados corresponden iguales diferencias en el grado de atributo presente en el objeto de estudio.

5.3. Técnicas estadísticas

Algunos tests y procedimientos para investigación de observaciones bien conocidos son:

Prueba t de Student
Prueba chi-cuadrado
Análisis de varianza (ANOVA)
U de Mann-Whitney
Analisis de regresión
Correlación
Prueba de la diferencia menos significante de Fisher
Coeficiente de correlación producto momento de Pearson
Coeficiente de correlación de rangos de Spearman

6. Disciplinas especializadas

Algunos campos de investigación usan la estadística tan extensamente que tienen terminología especializada. Estas disciplinas incluyen:

Ciencias actuariales
Bioestadística
Estadísticas de negocios
Minería de datos (aplica estadística y reconocimiento de patrones para el conocimiento de datos)
Estadística económica (Econometría)
Estadística en ingeniería
Geografía y Sistemas de información geográfica, más específicamente en Análisis espacial
Demografía
Estadística en psicología
Calidad
Estadísticas sociales (para todas las ciencias sociales)
Cultura estadística
Encuestas por muestreo
Análisis de procesos y quimiometría (para análisis de datos en química analítica e ingeniería química)
Confiabilidad estadística
Procesamiento de imágenes
Estadísticas deportivas, particularmente béisbol y cricket

La estadística es una herramienta básica en negocios y producción. Es usada para entender la variabilidad de sistemas de medición, control de procesos (como en control estadístico de procesos o SPC (CEP)), para compilar datos y para tomar decisiones. En estas aplicaciones es una herramienta clave, y probablemente la única herramienta disponible.

7. Computación estadística.

El rápido y sostenido incremento en el poder de cálculo de la computación desde la segunda mitad del siglo XX ha tenido un sustancial impacto en la práctica de la ciencia estadística. Viejos modelos estadísticos fueron casi siempre de la clase de los modelos lineales. Ahora, complejos computadores junto con apropiados algoritmos numéricos, han causado un renacer del interés en modelos no lineales (especialmente redes neuronales y árboles de decisión) y la creación de nuevos tipos tales como modelos lineales generalizados y modelos multinivel.

El incremento en el poder computacional también ha llevado al crecimiento en popularidad de métodos intensivos computacionalmente basados en remuestreo, tales como tests de permutación y de bootstrap, mientras técnicas como el muestreo de Gibbs han hecho los métodos bayesianos mas accesibles. La revolución en computadores tiene implicaciones en el futuro de la estadística, con un nuevo énfasis en estadísticas "experimentales" y "empíricas". Un gran numero de paquetes estadísticos está ahora disponible para los investigadores. Los Sistemas dinámicos y teoría del caos, desde hace una década empezó a interesar en la comunidad hispana, pues en la anglosajona de Estados Unidos estaba ya establecida la conducta caótica en sistemas dinámicos no lineales con 350 libros para 1997 y empezaban algunos trabajos en los campos de las Ciencias Sociales y en aplicaciones de la Física. También se estaba contemplando su uso en analítica.


8. Críticas a la estadística

Hay una percepción general de que el conocimiento estadístico es demasiadamente y con mucha frecuencia intencional y mal usado, encontrando formas de interpretar los datos que sean favorables al presentador. Un dicho famoso, al parecer de Benjamin Disraeli[2] , es "Hay tres tipos de mentiras — mentiras, grandes mentiras y estadísticas". El popular libro How to Lie with Statistics ("Como Mentir con Estadísticas") de Darrell Huff discute muchos casos de mal uso de la estadística, con énfasis en gráficas malintencionadas. Al escoger (o rechazar o modificar) una cierta muestra, los resultados pueden ser manipulados; eliminando outliers por ejemplo. Este puede ser el resultado de fraudes o sesgos intencionales por parte del investigador. El Decano de Harvard Lawrence Lowell escribió en 1909 que las estadísticas, "como algunos pasteles, son buenas si se sabe quién las hizo y se está seguro de los ingredientes."

Algunos estudios contradicen resultados obtenidos previamente, y la población comienza a dudar en la veracidad de tales estudios. Se podría leer que un estudio dice (por ejemplo) que "hacer X reduce la presión sanguínea", seguido por un estudio que dice que "hacer X no afecta la presión sanguínea", seguido por otro que dice que "hacer X incrementa la presión sanguínea". A menudo los estudios se hacen siguiendo diferentes metodologías, o estudios en muestras pequeñas que prometen resultados maravillosos que no son obtenibles en estudios de mayor tamaño. Sin embargo, muchos lectores no notan tales diferencias, y los medios de comunicación simplifican la información alrededor del estudio y la desconfianza del público comienza a crecer.

Sin embargo, las críticas más fuertes vienen del hecho que la aproximación de pruebas de hipótesis, ampliamente usada en muchos casos requeridos por ley o reglamentación, obligan una hipótesis a ser 'favorecida' (la hipótesis nula), y puede también exagerar la importancia de pequeñas diferencias en estudios grandes. Una diferencia que es altamente significativa puede ser de ninguna significancia práctica.

Véase también críticas de prueba de hipótesis y controversia de la hipótesis nula.
En los campos de la psicología y la medicina, especialmente con respecto a la aprobación de nuevas drogas por la Food and Drug Administration, críticas de la aproximación de prueba de hipótesis se han incrementado en los años recientes. Una respuesta ha sido un gran énfasis en el p-valor en vez de simplemente reportar si la hipótesis fue rechazada al nivel de significancia α dado. De nuevo, sin embargo, esto resume la evidencia para un efecto pero no el tamaño del efecto. Una posibilidad es reportar intervalos de confianza, puesto que estos indican el tamaño del efecto y la incertidumbre. Esto ayuda a interpretar los resultados, como el intervalo de confianza para un α dado indicando simultáneamente la significancia estadística y el efecto de tamaño.

El p valor y los intervalos de confianza son basados en los mismos cálculos fundamentales como aquellos para las correspondientes pruebas de hipótesis. Los resultados son presentados en un formato mas detallado, en lugar del si-o-no de las pruebas de hipótesis y con la misma metodología estadística.

Una muy diferente aproximación es el uso de métodos bayesianos. Esta aproximación ha sido, sin embargo, también criticada. El fuerte deseo de ver buenas drogas aprobadas y el de ver drogas peligrosas o de poco uso siendo rechazadas crea tensiones y conflictos (errores tipo I y II en el lenguaje de pruebas de hipótesis).


9. Notas

↑ Ver el trabajo de Ian Hacking en The Emergence of Probability para una historia del desarollo del concepto de probabilidad matemática.

↑ Cf. "Damned Lies and Statistics: Untangling Numbers from the Media, Politicians, and Activists" by Joel Best. El profesor Best atribuye este dicho a Disraeli, y no a Mark Twain u otros autores como se cree popularmente.

10. Bibliografía

Best, Joel (2001). Damned Lies and Statistics: Untangling Numbers from the Media, Politicians, and Activists. University of California Press. ISBN 0-520-21978-3.
Desrosières, Alain (2004). The Politics of Large Numbers: A History of Statistical Reasoning, Trans. Camille Naish, Harvard University Press. ISBN 0-674-68932-1.
Hacking, Ian (1990). The Taming of Chance. Cambridge University Press. ISBN 0-521-38884-8.
Lindley, D.V. (1985). Making Decisions, 2nd ed., John Wiley & Sons. ISBN 0-471-90808-8.
Stigler, Stephen M. (1990). The History of Statistics: The Measurement of Uncertainty before 1900. Belknap Press/Harvard University Press. ISBN 0-674-40341-X.
Tijms, Henk (2004). Understanding Probability: Chance Rules in Everyday life. Cambridge University Press. ISBN 0-521-83329-9.
Volle, Michel (1984). Le métier de statisticien, 2nd ed., Economica. ISBN 2-7178-0824-8.

domingo, septiembre 23, 2007

Bases materiales de descubrimientos matemáticos

Arquímides:

"La genial idea del siracusano fue considerar las áreas como una colección -necesariamente infinita- de segmentos. Habrá que esperar 2000 años hasta que otro matemático -en este caso Cavalieri- volviera a usar de esa manera los infinitos. De hecho Leibniz descubrió la clave de su cálculo al ver un trabajo de Pascal donde éste usaba un método semejante."

Sobre lo cualitativo y lo cuantitativo

Una explicación de estos planteamientos básicos: El hecho de que todo fenómeno, de la naturaleza, de la sociedad y del pensamiento, tiene le...