miércoles, octubre 31, 2007

Sistema de Lógica y Métodos

En:

http://bibliotecadigital.ilce.edu.mx/sites/ciencia/volumen3/ciencia3/161/html/sec_29.html

En 1843, cuando Mill ya se había recuperado de un terrible colapso mental juvenil (tenía entonces 37 años de edad) apareció su libro System of logic ("El sistema de la lógica"), que representa su principal y casi única contribución a la filosofía de la ciencia y que de toda su obra será la que comentaremos aquí.

Es interesante saber que éste fue el primer libro publicado por Mill y que escribirlo le costó trece años de arduos trabajos. En contra de lo que su título sugiere, no se trata de un volumen sobre reglas o estructura del pensamiento, sino que más bien es el manifiesto más extremo del empirismo epistemológico, basado a su vez en las profundas convicciones liberales de su autor, quien usaba el término "empirista" en sentido despectivo y lo contrastaba con "conocimiento científico".

De espíritu antikantiano, El sistema de Mill se inicia con una crítica del intuicionismo y con la declaración de que tanto la planeación social como las actividades políticas deberían basarse en el conocimiento científico y no en la costumbre, la autoridad o la revelación; para Mill, el "conocimiento" obtenido a partir de métodos no inferenciales, o sea intuitivo o a priori,", pertenece a la metafísica. Las inferencias alcanzadas por deducción, como en el caso de los silogismos, son incapaces de generar información no contenida implícitamente en las premisas; sin embargo, Mill propone que el razonamiento que pretende pasar de lo general a lo particular en realidad no existe, sino que todas las inferencias son siempre de particular a particular.

Cuando decimos "Todos los hombres son mortales, Sócrates (aún vivo) es un hombre, por lo tanto Sócrates es mortal", las verdaderas pruebas que tenemos para afirmar que Sócrates morirá es que Tales, Anaxímenes, Empédocles, Herodoto, Pitágoras y muchos otros individuos muy semejantes a Sócrates murieron antes que él; el principio general "Todos los hombres son mortales" no es realmente una prueba objetiva sino más bien una especie de nota o resumen de muchas observaciones individuales.

La verdadera inferencia es la que se hace cuando tal resumen se integra sobre la base de casos aislados, o sea durante la inducción; en la deducción, la inferencia sólo es "aparente".

Mill propuso que los principios matemáticos también son empíricos, o sea no son ni las "relaciones de ideas" que postulaba Hume, ni tampoco productos de la mente humana, como señalaba Kant, sino que surgen de la observación del mundo que nos rodea. Las conclusiones de la geometría, ciencia deductiva por excelencia, sólo son necesarias en el sentido en que dependen de las premisas de las que se deducen, porque las premisas mismas —axiomas— se basan en la observación y en generalizaciones a partir de experiencias repetidas.

Lo mismo ocurre con la aritmética y el álgebra, que en lugar de ser relaciones lógicas primarias, en realidad se derivan de experiencias empíricas. Mill señala que, por ejemplo, un grupo de 4 cosas puede disponerse en dos grupos de 2 cosas, o en un grupo de 3 cosas y otro de 1; después de haber experimentado que esto siempre es así, concluimos que 2 + 2 y 3 + 1 son necesariamente iguales. Esta forma extrema del empirismo no ha sido aceptada por la mayor parte de los empiristas moderados, lo que Mill ya anticipaba:

[ ... ] Probablemente ésta es la proposición, de todas las enunciadas en este libro [El sistema], para la que debe esperarse la recepción más desfavorable.

El argumento que generalmente se esgrime en contra de la proposición de Mill, de que los axiomas o principios geométricos y matemáticos son empíricos, es que no se admiten pruebas experimentales en contra de las leyes de la aritmética o del álgebra; por el contrario, cuando los datos recogidos por medio de observaciones contradicen los axiomas matemáticos, lo primero y lo único que se acepta es que son las mediciones y los cálculos derivados de ellas los que ameritan revisarse y corregirse.

La operación central en El sistema de Mill es la inducción, que descansa en el principio fundamental de la uniformidad de la naturaleza, que postula que lo ocurrido una vez volverá a ocurrir cuando las circunstancias sean suficientemente semejantes.

Este principio es también empírico y se deriva de un proceso natural y primitivo de inducción, iniciado cuando observamos unas cuantas regularidades y predecimos que seguirán ocurriendo en el futuro; si nuestra predicción resulta correcta, a partir de ella se generaliza proponiendo que en vista de que algunos eventos se han dado en patrones recurrentes, todos los eventos futuros se darán también en patrones recurrentes.

Por lo tanto, el principio de la uniformidad de la naturaleza puede analizarse en sus distintos componentes, que son generalizaciones de menor amplitud y hasta relaciones causales individuales.

Para Mill, la causa de un fenómeno es el antecedente, o concurrencia de antecedentes, con los que está invariable e incondicionalmente ligado.

Igual que el principio de la uniformidad de la naturaleza, el principio de la causalidad (o sea, que cada fenómeno tiene una causa) se confirma por toda nuestra experiencia; de hecho, el principio de la causalidad no es más que una forma más precisa de enunciar el principio de la uniformidad de la naturaleza.

Sin embargo, la inducción aristotélica, por simple enumeración, puede llevar a proposiciones generales falsas. Lo que en última instancia se desea en la ciencia (según Mill) es llegar a proposiciones como la siguiente: o A es la causa de a, o bien existen eventos sin causa, y como estamos seguros de que todos los eventos tienen causa, entonces A es la causa de a.

Esto se logra por medio de métodos más elaborados de inducción, de los que Mill describió cinco, los famosos "cánones de la inducción" basados, como se mencionó antes, en la obra de Herschel.

Canon I. Método de Coincidencia:

Si dos o más ejemplos de un fenómeno bajo investigación poseen una sola circunstancia en común, esta única circunstancia, presente en todos los ejemplos, es la causa (o el efecto) del fenómeno mencionado.


El ejemplo usado por Mill para ilustrar este método de coincidencia no fue muy afortunado: pensando que el factor común que poseen todas las sustancias químicas que cristalizan es que se precipitan de una solución, concluyó que ésta era una causa, o por lo menos un factor contribuyente, del fenómeno de la cristalización.

Como todos sabemos hoy (y los alquimistas sabían desde el Medievo), este ejemplo es falso; sin embargo, es muy fácil pensar en otros ejemplos ilustrativos de este método que sí son verdaderos.

Canon II. Método de Diferencia:

Si una situación en que ocurre el fenómeno en investigación, y otra situación en que no ocurre, se parecen en todo excepto en una circunstancia, que sólo se presenta en la primera situación, entonces esta circunstancia, que es la única diferencia, entre las dos situaciones es el efecto, la causa, o una parte indispensable de la causa, del fenómeno mencionado.


El ejemplo de Mill para ilustrar este método de inducción por diferencia fue muy dramático, pero dada la importancia que le concedió posteriormente, también fue desafortunado; Mill escribió que si un hombre en la plenitud de la vida moría repentinamente, y su muerte estaba inmediatamente precedida por un balazo en el corazón podía concluirse que el balazo era la causa de la muerte, porque era lo único diferente entre el hombre vivo y el hombre muerto.

Para los que hemos invertido casi toda nuestra existencia trabajando científicamente en la frontera que separa a la vida de la muerte, el esquema de Mill se antojó grotescamente incompleto; desde luego que las diferencias entre el mismo hombre, vivo y muerto, son mucho más numerosas y complejas que el orificio producido por la bala. De hecho, la determinación de la causa de la muerte (como la de la causa de la vida) es enormemente compleja, no sólo por razones empíricas sino por complicaciones filosóficas.

Canon III. Método Combinado: Coincidencia + Diferencia:

Si dos o más ejemplos en los que el fenómeno ocurre muestran una sola circunstancia en común, mientras que dos o más situaciones en las que el fenómeno no ocurre sólo comparten la ausencia de la circunstancia mencionada, entonces tal circunstancia, la única, en que difieren los ejemplos mencionados, es el efecto, la causa, o una parte indispensable de la causa, del fenómeno estudiado.


Tal como lo enuncia su nombre, este método es la combinación de los dos anteriores, por lo que a él se aplican las mismas observaciones ya mencionadas.

Canon IV. Método de los Residuos:

Cuando se resta o sustrae de cualquier fenómeno la parte que por inducciones previas se sabe que es el efecto de ciertos antecedentes, el residuo del fenómeno es el efecto de los antecedentes restantes.


Como veremos en un momento, este método (como todos los otros propuestos por Mill) supone una relación 1:1 entre causa y efecto; si Mill hubiera sido un científico y no un filósofo, habría experimentado en carne propia que este tipo de relaciones causales sólo se da por excepción en la realidad, en fenómenos muy simples o al final de investigaciones prolongadas y exitosas, cuando ya sólo quedan problemas "residuales" por resolver.

Canon V. Método de las Variaciones Concomitantes:

Cuando un fenómeno varía de alguna manera particular, es causa o efecto de otro fenómeno que varía de la misma o de otra manera, pero concomitantemente.


Mill sostuvo que de los cinco métodos resumidos arriba, el más importante era el canon II o método de las diferencias. Sin embargo, para que este método funcionara, Mill reconoció que era necesario que entre una observación y otra del mismo fenómeno sólo hubiera una diferencia, que podría ser de tiempo o de espacio, pero nada más; en otras palabras, Mill parecía exigir un nivel de identidad entre sus dos observaciones que, en sentido estricto, no puede darse en la realidad.

Pero Mill tenía clara conciencia de este problema y señaló que para el uso adecuado de su método de las diferencias, bastaba con que en las dos observaciones se conservaran iguales sólo las semejanzas relevantes entre ellas. Esto plantea de inmediato los criterios para juzgar de la relevancia, que deben anteceder a la comparación entre las dos observaciones requeridas. En otras palabras, el uso del método de las diferencias requiere de un proceso previo, de naturaleza indefinida pero no por eso menos importante, que no forma parte de los esquemas de Mill.

Métodos del Conocimiento según J. S. Mill

*
En wikipedia:


Se destaca que este gran economista era un filósofo y metodólogo de primera magnitud. Se dice que revolucionó la forma Aristotélica de pensar con la creación de sus 5 señeros métodos del conocimiento. Ya no de lo general a lo particular con la deducción del silogismo de Aristóteles sino de lo particular a lo general conforme los tiempos experimentales lo indicaban, usando la inducción.

Extractamos lo relacionado con la metodología:

"John Stuart Mill (Londres, 20 de mayo de 1806Aviñón, Francia 8 de mayo de 1873) fue un filósofo, político y economista inglés representante de la escuela económica clásica y teórico del utilitarismo, planteamiento ético propuesto por su padrino Jeremy Bentham, que sería recogido y difundido con profusión por Stuart Mill .

(...)

La obra maestra de Mill fue Sistema de la lógica inductiva y deductiva, revisada y editada en numerosas ocasiones.

Una influencia primordial para esta obra fue la Historia de las ciencias inductivas (1837) de William Whewell.

La reputación de la obra de Mill estriba principalmente en el análisis de la prueba inductiva, que se contrapone a los silogismos aristotélicos, de naturaleza deductiva.

Mill formula cinco métodos de inducción que han pasado a conocerse como los Métodos de Mill: el método del acuerdo, el método de la diferencia, el método común o doble método de acuerdo y diferencia, el método de residuos y el de variaciones concominantes.

La característica común de estos métodos, el verdadero método de la investigación científica, es el de la eliminación.

El resto de métodos están, por lo tanto, subordinados al método de la diferencia.

Otro intento de Mill fue postular una teoría del conocimiento del estilo de John Locke.

Mill fue, sin duda, el gran filósofo de la Inglaterra victoriana. Una sociedad caracterizada por el desarrollo económico, el bienestar material y la comodidad reconocía el valor que tenían para la vida valores como lo mensurable y lo útil. Al mismo tiempo se asistía al esfuerzo de amplios grupos, como los trabajadores o las mujeres, por no quedar al margen de esa prosperidad. Y la aristocracia, satirizada años más tarde en las obras de Wilde o Shaw, miraba con recelo los “excesos” de la democracia, aceptada ya a regañadientes como un destino con el que habría que convivir y que sólo cabía modificar, no eludir.

Una vez más se cumplía el diagnóstico del viejo Hegel: la filosofía era el tiempo expresado en conceptos.
*

Reglas del Método Sociológico

*
Las negrillas, supresión y separación de algunos párrafos son nuestros para efectos de estudio.

Probablemente la Sociología como Ciencia tenga 4 pilares: Saint Simon, Compte, Durkheim y Weber. Todos ellos insistieron en el carácter autónomo de la física social y del hecho social que estudia.

Un libro señero en la fundamentación científica de la Sociología lo constituye "Las Reglas del Método Sociológico" cuya reseña, procesada entresacando los elementos que nos parecieron importantes para nuestro estudio, ha sido tomada de:
http://durkheim.pais-global.com.ar/
A continuación, la reseña:

Estado rudimentario de la metodología en las ciencias sociales. Objeto de la obra.

CAPITULO I

¿Qué es un hecho social?


El hecho social no se puede definir por su generalidad en el interior de la sociedad.

Caracteres distintivos del hecho social:

1.° su exterioridad en relación con las conciencias individuales;

2.° la acción coercitiva que ejerce, o es susceptible de ejercer, sobre estas mismas conciencias.


(...)

El hecho social se generaliza porque es social, lejos de ser social porque es general. (...)

CAPÍTULO II

Reglas relativas a la observación de los hechos sociales.


Regla fundamental: tratar los hechos sociales como cosas.

I. Fase ideológica que atraviesan todas las ciencias y en el curso de la cual elaboran nociones vulgares y prácticas, en lugar de describir y explicar las cosas.

(...)

Razones para rebasarla:

I.1.° Los hechos sociales deben ser tratados como cosas porque son los datos inmediatos de la ciencia, mientras que las ideas (...) no son dadas directamente.

I.2.° Tienen todos los caracteres de la cosa. (...)

II. Corolarios inmediatos de la regla precedente:

II.1.° Descartar de la ciencia todas las nociones previas. Sobre el punto de vista místico que se opone a la aplicación de esta regla.

II.2.° Manera de constituir el objeto positivo de la investigación: agrupar los hechos según caracteres exteriores comunes. Relaciones del concepto así formado con el concepto vulgar.

Ejemplos de los errores a que uno se expone olvidando esta regla o aplicándola mal: SPENCER y su teoría sobre la evolución del matrimonio; GAROFALO y su definición del delito; el error común que niega una moral a las sociedades inferiores.

Que la exterioridad de los caracteres que entran en estas definiciones iniciales no constituya un obstáculo para las explicaciones científicas.

II.3.° Estos caracteres exteriores deben, además, ser lo más objetivo que sea posible. Medio para conseguirlo: captar los hechos sociales por él lado en que se presentan aislados de sus manifestaciones individuales.

CAPITULO III

Reglas relativas a la distinción de lo normal y de lo patológico.


(...) Es preciso que sea científicamente posible para que la ciencia pueda servir para la dirección de la conducta.

I. (...) La enfermedad distinguida del estado de salud como lo anormal de lo normal.

(...)

Cómo coincide esta definición de lo patológico en general con el concepto corriente de la enfermedad: lo anormal es lo accidental; por qué lo anormal, en general, constituye al ser en estado de inferioridad.

II. Utilidad que hay en comprobar los resultados del método precedente buscando las causas de la normalidad del hecho, es decir, de su generalidad. (...)

III. Aplicación de estas reglas a algunos casos, especialmente a la cuestión del delito. Por qué es un fenómeno normal la existencia de criminalidad. (...)

CAPITULO IV

Reglas relativas a la constitución de los tipos sociales.


La distinción entre lo normal y lo anormal implica la constitución de especies sociales (...) intermedio entre la noción del genus homo y la de sociedades particulares.

I. (...) Principio del método aplicable: distinguir las sociedades según su grado de composición.

II. Definición de la sociedad simple: la horda. Ejemplos de algunas de las formas que adopta, con ella, la sociedad simple y las sociedades compuestas.

Distinguir variedades en el interior de las especies así constituidas, según que los sectores componentes se puedan mezclar o no.

(...)

III. Cómo lo que precede demuestra que hay especies sociales. Diferencias de la naturaleza de la especie en biología y en sociología.

CAPÍTULO V

Reglas relativas a la explicación de los hechos sociales.


I. Carácter finalista de las explicaciones usuales.

La utilidad de un hecho no explica su existencia.

(...) la independencia del órgano y de la función (...).

Necesidad de la investigación de las causas eficientes de los hechos sociales. (...)

(...) la causa eficiente debe estar determinada independientemente de la función. (...)

II. (...) (El) hecho social que es irreductible a los hechos puramente psíquicos en virtud de su definición. Los hechos sociales sólo se pueden explicar por hechos sociales.

(...)

Si los sociólogos les han atribuido un papel más directo en la génesis de la vida social es porque han tomado por hechos puramente psíquicos estados de conciencia que no son más que fenómenos sociales transformados.

Otras pruebas en apoyo de la misma proposición:

1º Independencia de los hechos sociales con relación al factor étnico, el cual es de orden orgánico-psíquico;

2° la evolución social no es explicable por causas puramente psíquicas.

(...)

III. Importancia primaria de los hechos de morfología social en las explicaciones sociológicas (...)

Importancia de esta noción del medio social. Si se la rechaza, la sociología no puede establecer relaciones de causalidad, sino sólo relaciones de sucesión, que no implican la previsión científica (...)

(...) la vida social así concebida depende de causas internas.

IV. Carácter general de esta concepción sociológica. Para HOBBES el vínculo entre lo psíquico y lo social es sintético y artificial; para SPENCER y los economistas es natural, pero analítico; para nosotros es natural y sintético. (...)

CAPÍTULO VI

Reglas relativas a la administración de la prueba.


I. El método comparativo, o experimentación indirecta, es el método de la prueba en sociología.

(...)

Importancia del principio: a un mismo efecto corresponde siempre una misma causa.

II. Por qué entre los diversos procedimientos del método comparativo es el método de las variaciones concomitantes el instrumento por excelencia de la investigación en sociología;
su superioridad: 1.° en tanto en cuanto aborda al vínculo causal por dentro; 2.° en tanto en cuanto permite el empleo de documentos más elegidos y mejor criticados.
(...)

III. (...) La sociología comparada es la propia sociología. Precauciones a tomar para evitar ciertos errores en el curso de estas comparaciones.

CONCLUSIÓN
Caracteres generales de este método:


1.° Su independencia frente a toda filosofía (independencia que es útil a la propia filosofía) y frente a las doctrinas prácticas. (...)

2.° Su objetividad. Los hechos sociales considerados como cosas. Cómo domina este principio todo el método.

3.° Su carácter sociológico: los hechos sociales explicados respetando su carácter específico, la sociología como ciencia autónoma.

La conquista de esta autonomía es el progreso más importante que le queda por hacer a la sociología.

Mayor autoridad de esta sociología práctica.

Tomado de:

http://www.pais-global.com.ar/

Enviado por felipe @ 09/09/2005 11:18:27.025754 ART
*

miércoles, octubre 24, 2007

Cómo...formular hipótesis de trabajo

En:

http://www.urosario.edu.co/FASE1/ciencias_humanas/documentos/facultades/pdf/50b.pdf

Escuela de Ciencias Humanas
Guía 50b / 22.07.2003 / 2ª

¿Qué es una hipótesis de trabajo?

Uno de los mayores logros de la civilización occidental es el desarrollo de un método racional de investigación. Este método, basado en el planteamiento de preguntas y el examen crítico de hipótesis, ha sido el motor del progreso científico y de la construcción de conocimiento en las áreas más diversas.

El método indica que, ante cualquier dificultad, lo más sensato es identificar en qué radica el problema y aplicar la mejor solución. Esto implica la formulación de preguntas e hipótesis.

La pregunta plantea el problema (...); la hipótesis propone una respuesta que la investigación trata de verificar.

La experiencia indica que del correcto planteamiento de la hipótesis depende en gran medida el éxito de la investigación.

La hipótesis de trabajo puede definirse como una "conjetura plausible"; esto significa que, frente a una pregunta, la hipótesis de trabajo es la respuesta más satisfactoria que se pueda proponer, habida cuenta de los vacíos detectados y del estado del conocimiento.

La hipótesis es "de trabajo" porque sólo ofrece una respuesta provisional; hay que esperar los resultados de la investigación del trabajo para saber si la hipótesis es o no válida.

Criterios para formular hipótesis

PERTINENCIA

Una hipótesis es pertinente si aclara un problema o lo replantea desde una perspectiva distinta.

Por eso para su formulación es clave que Ud. realice un buen trabajo de documentación y revisión del estado de la investigación.

Esto le ahorrará "descubrir el agua tibia", como le pasa a José Arcadio Buendía cuando descubre que "la tierra es redonda como una naranja".

PLAUSIBILIDAD

Toda hipótesis indica una relación entre dos o más variables. La formulación de esta relación debe ser formalmente correcta (la hipótesis no puede ser tautológica o contradictoria) y las variables tienen que haber sido definidas previamente: sólo así el proceso de investigación tiene la orientación necesaria para verificar si la relación entre variables postulada en la hipótesis es válida o errónea. También es importante que la hipótesis no entre en contradicción flagrante con hechos plenamente establecidos.

Por ejemplo, en la hipótesis "La clase media, cuando es oprimida por una dictadura, se rebela o no se rebela", la relación entre las variables (‘clase media’, ‘dictadura’, ‘rebelión’) es tautológica; si cambiamos la ‘o’ por una ‘y’ la tautología se transforma en una contradicción. En ninguno de los dos casos la hipótesis funciona. Para corregirla, la hipótesis puede reformularse así: "La clase media, cuando es oprimida por una dictadura, sólo se rebela si obtiene el apoyo de una facción importante del ejército".

Esta hipótesis es formalmente correcta y sólo exige para su adecuada comprensión que previamente se haya aclarado el significado de los términos "clase media", "dictadura", "rebelión" y "facción importante del ejército".

VERIFICABILIDAD

Una hipótesis es una respuesta provisional; por eso es esencial que su referente empírico sea observable (a menos que se trate de una hipótesis especulativa) y que esté formulada en términos que dejen abierta la posibilidad de su verificación o su refutación.

Una hipótesis cuyas implicaciones prácticas o teóricas no se pueden poner a prueba mediante experimentos, mediciones o revisión crítica, no es investigable.

Hipótesis típicamente no verificables son, por ejemplo: "Si Colón no hubiera descubierto América, la bomba atómica no habría caído en Hiroshima" o "Los valores son la esencia de la convivencia".

La primera hipótesis no es verificable porque postula una relación causal ficticia; la segunda, porque postula la existencia de un entidad metafísica inobservable (la esencia de la convivencia).

Hipótesis parecidas pero verificables son: "Si el azúcar se pone en el agua, se disuelve" y "El nivel de confianza en una sociedad es proporcional a su estado de desarrollo".

SIMPLICIDAD

En consonancia con el principio conocido como la "cuchilla de Ockham", las mejores hipótesis son también las más simples; es decir, aquellas que tienen un mayor alcance explicativo con base en un menor número de variables y supuestos.

Simple no significa aquí lo contrario de complejo sino de complicado.

Cuantas más variables y supuestos teóricos tenga una hipótesis, tanto más probable es que esté mal formulada o que conduzca a un callejón sin salida.

Compare, por ejemplo, estas dos hipótesis: (1) "Las manzanas caen debido a la fuerza que ejerce sobre ellas la gravedad terrestre". (2) "Las manzanas caen debido a la relación que existe entre la fuerza de gravedad, la resistencia del aire, la redondez de la manzana y la tendencia de los objetos a permanecer lo más cerca posible del suelo, siempre y cuando otras fuerzas no se interpongan en la trayectoria de su caída".


Ahórrese confusiones: formule su hipótesis de la manera más clara y breve posible.

Evite incluir en la hipótesis detalles metodológicos o contextualizaciones históricas que no vienen al caso.

Procure que la hipótesis no ocupe más de una oración o más de 5 líneas; si es más extensa, abréviela omitiendo lo que no sea indispensable para su comprensión.
Y recuerde que...

El contexto de formulación de la hipótesis varía según el formato académico.

En la reseña reconstructiva el objetivo es plantear la hipótesis; por eso ésta aparece en la reseña a manera de conclusión.

En el ensayo de opinión el objetivo es debatir la hipótesis; por eso ésta se enfrenta con una hipótesis contraria en el desarrollo de la argumentación.

En el artículo especializado el objetivo es validar la hipótesis; por eso ésta se plantea en la introducción, antes de la discusión detallada que conduce a su demostración o a su refutación.

*

miércoles, octubre 17, 2007

Estadística: un panorama

Un buen panorama sobre la estadística, desde la etimología hasta la situación actual, pasando por los antecedentes. No solamente ilustra en cuanto a la estadística propiamente dicha, sino también en cuanto a la aplicación del método histórico para describir y analizar un tema.

ESTADÍSTICA

En:

http://es.wikipedia.org/wiki/Estad%C3%ADstica

Tabla de contenidos
1 Etimología
2 Orígenes en probabilidad
3 Estado actual
4 Estadísticos famosos
5 Métodos estadísticos
5.1 Estudios experimentales y observacionales
5.2 Niveles de medición
5.3 Técnicas estadísticas
6 Disciplinas especializadas
7 Computación estadística
8 Críticas a la estadística
9 Notas
10 Bibliografía

1. Etimología

La palabra "estadística" procede del latín statisticum collegium ("consejo de Estado") y de su derivado italiano statista ("hombre de Estado" o "político"). El término alemán Statistik, que fue primeramente introducido por Gottfried Achenwall (1749), designaba originalmente el análisis de datos del Estado, es decir, "la ciencia del Estado" (también llamada "aritmética política" de su traducción directa del inglés). No fue hasta el siglo XIX cuando el término estadística adquirió el significado de recolectar y clasificar datos. Este concepto fue introducido por el inglés John Sinclair.

En su origen, por tanto, la estadística estuvo asociada a datos a ser utilizados por el gobierno y cuerpos administrativos (a menudo centralizados). La colección de datos acerca de estados y localidades continúa ampliamente a través de los servicios de estadística nacionales e internacionales. En particular, los censos suministran información regular acerca de la población.

Desde los comienzos de la civilización han existido formas sencillas de estadística, pues ya se utilizaban representaciones gráficas y otros símbolos en pieles, rocas, palos de madera y paredes de cuevas para contar el número de personas, animales o ciertas cosas. Hacia el año 3000 adC los babilónicos usaban ya pequeñas tablillas de arcilla para recopilar datos en tablas sobre la producción agrícola y de los géneros vendidos o cambiados mediante trueque. Los egipcios analizaban los datos de la población y la renta del país mucho antes de construir las pirámides en el siglo XI a. C. Los libros bíblicos de Números y Crónicas incluyen, en algunas partes, trabajos de estadística. El primero contiene dos censos de la población de Israel y el segundo describe el bienestar material de las diversas tribus judías. En China existían registros numéricos similares con anterioridad al año 2000 a. C. Los griegos clásicos realizaban censos cuya información se utilizaba hacia el 594 a. C. para cobrar impuestos.

2. Orígenes en probabilidad

Los métodos estadístico matemáticos emergieron desde la teoría de probabilidad, la cual data desde la correspondencia entre Pierre de Fermat y Blaise Pascal (1654). Christian Huygens (1657) da el primer tratamiento científico que se conoce a la materia. El Ars Conjectandi (póstumo, 1713) de Jakob Bernoulli y la Doctrina de Posibilidades (1718) de Abraham de Moivre estudiaron la materia como una rama de las matemáticas.[1] En la era moderna, el trabajo de Kolmogorov ha sido un pilar en la formulación del modelo fundamental de la Teoría de Probabilidades, el cual es usado a través de la estadística.

La teoría de errores se puede remontar a la Opera Miscellanea (póstuma, 1722) de Roger Cotes y al trabajo preparado por Thomas Simpson en 1755 (impreso en 1756) el cual aplica por primera vez la teoría de la discusión de errores de observación. La reimpresión (1757) de este trabajo incluye el axioma de que errores positivos y negativos son igualmente probables y que hay unos ciertos límites asignables dentro de los cuales se encuentran todos los errores; se describen errores continuos y una curva de probabilidad.

Pierre-Simon Laplace (1774) hace el primer intento de deducir una regla para la combinación de observaciones desde los principios de la teoría de probabilidades. Laplace representó la ley de probabilidades de errores mediante una curva y dedujo una formula para la media de tres observaciones. También, en 1871, obtiene la formula para la ley de facilidad del error (término introducido por Lagrange, 1744) pero con ecuaciones inmanejables. Daniel Bernoulli (1778) introduce el principio del máximo producto de las probabilidades de un sistema de errores concurrentes.

El método de mínimos cuadrados, el cual fue usado para minimizar los errores en mediciones, fue publicado independientemente por Adrien-Marie Legendre (1805), Robert Adrain (1808), y Carl Friedrich Gauss (1809). Gauss había usado el método en su famosa predicción de la localización del planeta enano Ceres en 1801. Pruebas adicionales fueron escritas por Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich Bessel (1838), W.F. Donkin (1844, 1856), John Herschel (1850) y Morgan Crofton (1870). Otros contribuidores fueron Ellis (1844), Augustus De Morgan (1864), Glaisher (1872) y Giovanni Schiaparelli (1875). La fórmula de Peters para r, el probable error de una observación simple es bien conocido.

El siglo XIX incluye autores como Laplace, Silvestre Lacroix (1816), Littrow (1833), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion y Karl Pearson. Augustus De Morgan y George Boole mejoraron la presentacion de la teoría. Adolphe Quetelet (1796-1874), fue otro importante fundador de la estadística y quien introdujo la noción del "hombre promedio" (l'homme moyen) como un medio de entender los fenómenos sociales complejos tales como tasas de criminalidad, tasas de matrimonio o tasas de suicidios.

3. Estado actual

Durante el siglo XX, la creación de instrumentos precisos para asuntos de salud pública (epidemiología, bioestadística, etc.) y propósitos económicos y sociales (tasa de desempleo, econometría, etc.) necesitó de avances sustanciales en las practicas estadísticas.

Hoy el uso de la estadística se ha extendido más allá de sus orígenes como un servicio al estado o al gobierno. Personas y organizaciones usan estadística para entender datos y tomar decisiones en ciencias naturales y sociales, medicina, negocios y otras áreas. La estadística es pensada generalmente no como un sub-área de las matemáticas sino como una ciencia diferente "aliada". Muchas universidades tienen departamentos en matemáticas y estadística separadamente. La estadística es enseñada en departamentos tan diversos como psicología, educación y salud pública.


4. Estadísticos famosos

Thomas Bayes
Pafnuty Chebyshev
Sir David Cox
Gertrude Cox
George Dantzig
W. Edwards Deming
Bruno de Finetti
Sir Ronald Fisher
Sir Francis Galton
Carl Friedrich Gauss
William Sealey Gosset ("Student")
Aleksandr Lyapunov
Abraham De Moivre
Isaac Newton
Florence Nightingale
Blaise Pascal
Karl Pearson
Adolphe Quetelet
Walter A. Shewhart
Charles Spearman
John Tukey
C. R. Rao

Al aplicar estadística a un problema científico, industrial o social, se comienza con un proceso o población a ser estudiado. Esta puede ser una población de personas en un país, de granos cristalizados en una roca o de bienes manufacturados por una fábrica en particular durante un periodo dado. También podría ser un proceso observado en varios instantes y los datos recogidos de esta manera constituyen una serie de tiempo.

Por razones prácticas, en lugar de compilar datos de una población entera, usualmente se estudia un subconjunto seleccionado de la población, llamado muestra. Datos acerca de la muestra son recogidos de manera observacional o experimental. Los datos son entonces analizados estadísticamente lo cual sigue dos propósitos: descripción e inferencia.

El concepto de correlación es particularmente valioso. Análisis estadísticos de un conjunto de datos puede revelar que dos variables (esto es, dos propiedades de la población bajo consideración) tiende a variar conjuntamente, como hubiera una conexión entre ellas. Por ejemplo un estudio del ingreso anual y la edad de muerte entre personas podría resultar en que personas pobres tienden a tener vidas mas cortas que personas de mayor ingreso. Las dos variables se dicen a ser correlacionadas. Sin embargo, no se pude inferir inmediatamente la existencia de una relación de causalidad entre las dos variables; ver correlación no implica causalidad. El fenómeno correlacionado podría ser la causa de un tercero, previamente no considerado, llamado variable confundida.

Si la muestra es representativa de la población, inferencias y conclusiones hechas en la muestra pueden ser extendidas a la población completa. Un problema mayor es el de determinar que tan representativa es la muestra extraída. La estadística ofrece medidas para estimar y corregir por aleatoriedad en la muestra y en el proceso de recolección de los datos, así como métodos para diseñar experimentos robustos como primera medida, ver diseño experimental.

El concepto matemático fundamental empleado para entender la aleatoriedad es el de probabilidad. La estadística matemática (también llamada teoría estadística) es la rama de las matemáticas aplicadas que usa la teoría de probabilidades y el análisis matemático para examinar las bases teóricas de la estadística.

El uso de cualquier método estadístico es valido solo cuando el sistema o población bajo consideración satisface los supuestos matemáticos del método. Mal uso de la estadística puede producir serios errores en la descripción e interpretación — afectando las políticas sociales, la practica médica y la calidad de estructuras tales como puentes y plantas de reacción nuclear.

Incluso cuando la estadística es correctamente aplicada, los resultados pueden ser difícilmente interpretados por un no experto. Por ejemplo, la significancia estadística de una tendencia en los datos &mdash, la cual mide que tanto la tendencia puede ser causada por una variación aleatoria en la muestra &mdash. El conjunto de habilidades estadísticas básicas (y el escepticismo) que una persona necesita para manejar información en el día a día se refiere como cultura estadística.


5. Métodos estadísticos

5.1. Estudios experimentales y observacionales

Un objetivo común para un proyecto de investigación estadística es investigar la causalidad, y en particular extraer una conclusión en el efecto que algunos cambios en los valores de predictores o variables independientes tienen sobre una respuesta o variables dependientes. Hay dos grandes tipos de estudios estadísticos para estudiar causalidad: estudios experimentales y observacionales. En ambos tipos de estudios, el efecto de las diferencias de una variable independiente (o variables) en el comportamiento de una variable dependiente es observado. La diferencia entre los dos tipos es la forma en que el estudio es conducido. Cada uno de ellos puede ser muy efectivo.

Un estudio experimental envuelve el tomar mediciones del sistema bajo estudio, manipular el sistema y luego tomar mediciones adicionales usando el mismo procedimiento para determinar si la manipulación ha modificado los valores de las mediciones. En contraste, un estudio observacional no necesita manipulación experimental. Por el contrario, los datos son recogidos y las correlaciones entre predictores y la respuesta son investigadas.

Un ejemplo de un estudio experimental es el famoso experimento de Hawthorne el cual pretendía probar cambios en el ambiente de trabajo en la planta Hawthorne de la Western Electric Company. Los investigadores estaban interesados en si al incrementar la iluminación en un ambiente de trabajo, la producción de los trabajadores aumentaba. Los investigadores primero midieron la productividad de la planta y luego modificaron la iluminación en un área de la planta para ver si cambios en la iluminación afectarían la productividad. La productividad mejoró bajo todas las condiciones experimentales. Sin embargo, el estudio fue muy criticado por errores en los procedimientos experimentales, específicamente la falta de un grupo control y ciegamiento.

Un ejemplo de un estudio observacional es un estudio que explora la correlación entre fumar y el cáncer de pulmón. Este tipo de estudio normalmente usa una encuesta para recoger observaciones acerca del área de interés y luego produce un análisis estadístico. En este caso, los investigadores recogerían observaciones de fumadores y no fumadores y luego mirarían los casos de cáncer de pulmón en ambos grupos.

Los pasos básicos para un experimento son:

Planeamiento estadístico de la investigación, lo cual incluye encontrar fuentes de información, selección de material disponible en el área y consideraciones éticas para la investigación y el método propuesto. Se plantea un problema de estudio,
Diseñar el experimento concentrándose en el modelo y la interacción entre variables independientes y dependientes. Se realiza un muestreo consistente en la recolección de datos referentes al fenómeno o variable que deseamos estudiar. Se propone un modelo de probabilidad, cuyos parámetros se estiman mediante estadísticos a partir de los datos de muestreo. Sin embargo, se mantiene lo que se denominan "hipótesis sostenidas" (que no son sometidas a comprobación) Se valida el modelo comparándolo con lo que sucede en la realidad. Se utiliza métodos estadísticos conocidos como test de hipótesis y prueba de significación.

Se producen estadísticas descriptivas.

Inferencia estadística. Se llega a un consenso acerca de que dicen las observaciones acerca del mundo que observamos.

Se utiliza el modelo validado para tomar decisiones o predecir acontecimientos futuros. Se produce un reporte final con los resultados del estudio.

5.2. Niveles de medición

Ver: Stanley Stevens' "Scales of measurement" (1946): nominal, ordinal, interval, ratio.

Hay cuatro tipos de mediciones o escalas de medición en estadística.

Los cuatro tipos de niveles de medición (nominal, ordinal, intervalo y razón) tienen diferentes grados de uso en la investigación estadística.

Las medidas de razón, en donde un valor cero y distancias entre diferentes mediciones son definidas, dan la mayor flexibilidad en métodos estadísticos que pueden ser usados para analizar los datos.

Las medidas de intervalo tienen distancias interpretables entre mediciones, pero un valor cero sin significado (como las mediciones de coeficiente intelectual o temperatura en grados Celsius).

Las medidas ordinales tienen imprecisas diferencias entre valores consecutivos, pero un orden interpretable para sus valores.

Las medidas nominales no tienen ningún rango interpretable entre sus valores.

La escala de medida nominal, puede considerarse la escala de nivel más bajo. Se trata de agrupar objetos en clases.

La escala ordinal, por su parte, recurre a la propiedad de “orden” de los números.

La escala de intervalos iguales está caracterizada por una unidad de medida común y constante. Es importante destacar que el punto cero en las escalas de intervalos iguales es arbitrario, y no refleja en ningún momento ausencia de la magnitud que estamos midiendo. Esta escala, además de poseer las características de la escala ordinal, permite determinar la magnitud de los intervalos (distancia) entre todos los elementos de la escala.

La escala de coeficientes o Razones es el nivel de medida más elevado y se diferencia de las escalas de intervalos iguales únicamente por poseer un punto cero propio como origen; es decir que el valor cero de esta escala significa ausencia de la magnitud que estamos midiendo. Si se observa una carencia total de propiedad, se dispone de una unidad de medida para el efecto. A iguales diferencias entre los números asignados corresponden iguales diferencias en el grado de atributo presente en el objeto de estudio.

5.3. Técnicas estadísticas

Algunos tests y procedimientos para investigación de observaciones bien conocidos son:

Prueba t de Student
Prueba chi-cuadrado
Análisis de varianza (ANOVA)
U de Mann-Whitney
Analisis de regresión
Correlación
Prueba de la diferencia menos significante de Fisher
Coeficiente de correlación producto momento de Pearson
Coeficiente de correlación de rangos de Spearman

6. Disciplinas especializadas

Algunos campos de investigación usan la estadística tan extensamente que tienen terminología especializada. Estas disciplinas incluyen:

Ciencias actuariales
Bioestadística
Estadísticas de negocios
Minería de datos (aplica estadística y reconocimiento de patrones para el conocimiento de datos)
Estadística económica (Econometría)
Estadística en ingeniería
Geografía y Sistemas de información geográfica, más específicamente en Análisis espacial
Demografía
Estadística en psicología
Calidad
Estadísticas sociales (para todas las ciencias sociales)
Cultura estadística
Encuestas por muestreo
Análisis de procesos y quimiometría (para análisis de datos en química analítica e ingeniería química)
Confiabilidad estadística
Procesamiento de imágenes
Estadísticas deportivas, particularmente béisbol y cricket

La estadística es una herramienta básica en negocios y producción. Es usada para entender la variabilidad de sistemas de medición, control de procesos (como en control estadístico de procesos o SPC (CEP)), para compilar datos y para tomar decisiones. En estas aplicaciones es una herramienta clave, y probablemente la única herramienta disponible.

7. Computación estadística.

El rápido y sostenido incremento en el poder de cálculo de la computación desde la segunda mitad del siglo XX ha tenido un sustancial impacto en la práctica de la ciencia estadística. Viejos modelos estadísticos fueron casi siempre de la clase de los modelos lineales. Ahora, complejos computadores junto con apropiados algoritmos numéricos, han causado un renacer del interés en modelos no lineales (especialmente redes neuronales y árboles de decisión) y la creación de nuevos tipos tales como modelos lineales generalizados y modelos multinivel.

El incremento en el poder computacional también ha llevado al crecimiento en popularidad de métodos intensivos computacionalmente basados en remuestreo, tales como tests de permutación y de bootstrap, mientras técnicas como el muestreo de Gibbs han hecho los métodos bayesianos mas accesibles. La revolución en computadores tiene implicaciones en el futuro de la estadística, con un nuevo énfasis en estadísticas "experimentales" y "empíricas". Un gran numero de paquetes estadísticos está ahora disponible para los investigadores. Los Sistemas dinámicos y teoría del caos, desde hace una década empezó a interesar en la comunidad hispana, pues en la anglosajona de Estados Unidos estaba ya establecida la conducta caótica en sistemas dinámicos no lineales con 350 libros para 1997 y empezaban algunos trabajos en los campos de las Ciencias Sociales y en aplicaciones de la Física. También se estaba contemplando su uso en analítica.


8. Críticas a la estadística

Hay una percepción general de que el conocimiento estadístico es demasiadamente y con mucha frecuencia intencional y mal usado, encontrando formas de interpretar los datos que sean favorables al presentador. Un dicho famoso, al parecer de Benjamin Disraeli[2] , es "Hay tres tipos de mentiras — mentiras, grandes mentiras y estadísticas". El popular libro How to Lie with Statistics ("Como Mentir con Estadísticas") de Darrell Huff discute muchos casos de mal uso de la estadística, con énfasis en gráficas malintencionadas. Al escoger (o rechazar o modificar) una cierta muestra, los resultados pueden ser manipulados; eliminando outliers por ejemplo. Este puede ser el resultado de fraudes o sesgos intencionales por parte del investigador. El Decano de Harvard Lawrence Lowell escribió en 1909 que las estadísticas, "como algunos pasteles, son buenas si se sabe quién las hizo y se está seguro de los ingredientes."

Algunos estudios contradicen resultados obtenidos previamente, y la población comienza a dudar en la veracidad de tales estudios. Se podría leer que un estudio dice (por ejemplo) que "hacer X reduce la presión sanguínea", seguido por un estudio que dice que "hacer X no afecta la presión sanguínea", seguido por otro que dice que "hacer X incrementa la presión sanguínea". A menudo los estudios se hacen siguiendo diferentes metodologías, o estudios en muestras pequeñas que prometen resultados maravillosos que no son obtenibles en estudios de mayor tamaño. Sin embargo, muchos lectores no notan tales diferencias, y los medios de comunicación simplifican la información alrededor del estudio y la desconfianza del público comienza a crecer.

Sin embargo, las críticas más fuertes vienen del hecho que la aproximación de pruebas de hipótesis, ampliamente usada en muchos casos requeridos por ley o reglamentación, obligan una hipótesis a ser 'favorecida' (la hipótesis nula), y puede también exagerar la importancia de pequeñas diferencias en estudios grandes. Una diferencia que es altamente significativa puede ser de ninguna significancia práctica.

Véase también críticas de prueba de hipótesis y controversia de la hipótesis nula.
En los campos de la psicología y la medicina, especialmente con respecto a la aprobación de nuevas drogas por la Food and Drug Administration, críticas de la aproximación de prueba de hipótesis se han incrementado en los años recientes. Una respuesta ha sido un gran énfasis en el p-valor en vez de simplemente reportar si la hipótesis fue rechazada al nivel de significancia α dado. De nuevo, sin embargo, esto resume la evidencia para un efecto pero no el tamaño del efecto. Una posibilidad es reportar intervalos de confianza, puesto que estos indican el tamaño del efecto y la incertidumbre. Esto ayuda a interpretar los resultados, como el intervalo de confianza para un α dado indicando simultáneamente la significancia estadística y el efecto de tamaño.

El p valor y los intervalos de confianza son basados en los mismos cálculos fundamentales como aquellos para las correspondientes pruebas de hipótesis. Los resultados son presentados en un formato mas detallado, en lugar del si-o-no de las pruebas de hipótesis y con la misma metodología estadística.

Una muy diferente aproximación es el uso de métodos bayesianos. Esta aproximación ha sido, sin embargo, también criticada. El fuerte deseo de ver buenas drogas aprobadas y el de ver drogas peligrosas o de poco uso siendo rechazadas crea tensiones y conflictos (errores tipo I y II en el lenguaje de pruebas de hipótesis).


9. Notas

↑ Ver el trabajo de Ian Hacking en The Emergence of Probability para una historia del desarollo del concepto de probabilidad matemática.

↑ Cf. "Damned Lies and Statistics: Untangling Numbers from the Media, Politicians, and Activists" by Joel Best. El profesor Best atribuye este dicho a Disraeli, y no a Mark Twain u otros autores como se cree popularmente.

10. Bibliografía

Best, Joel (2001). Damned Lies and Statistics: Untangling Numbers from the Media, Politicians, and Activists. University of California Press. ISBN 0-520-21978-3.
Desrosières, Alain (2004). The Politics of Large Numbers: A History of Statistical Reasoning, Trans. Camille Naish, Harvard University Press. ISBN 0-674-68932-1.
Hacking, Ian (1990). The Taming of Chance. Cambridge University Press. ISBN 0-521-38884-8.
Lindley, D.V. (1985). Making Decisions, 2nd ed., John Wiley & Sons. ISBN 0-471-90808-8.
Stigler, Stephen M. (1990). The History of Statistics: The Measurement of Uncertainty before 1900. Belknap Press/Harvard University Press. ISBN 0-674-40341-X.
Tijms, Henk (2004). Understanding Probability: Chance Rules in Everyday life. Cambridge University Press. ISBN 0-521-83329-9.
Volle, Michel (1984). Le métier de statisticien, 2nd ed., Economica. ISBN 2-7178-0824-8.

Hipótesis y Variables

*
www.monografias.com

Hipótesis en la Investigación

1. Definición de Hipótesis
2. Importancia de la Hipótesis
3. Origen de la Hipótesis
4. Función de la Hipótesis
5. Clasificación de la Hipótesis
6. Requisitos para la elaboración de hipótesis
7. Variable
8. Clasificación de las Variables
9. Bibliografía


Representa un elemento fundamental en el proceso de investigación. Luego de formular un problema, el investigador enuncia la hipótesis, que orientará el proceso y permitirá llegar a conclusiones concretas del proyecto que recién comienza.

La hipótesis bien formulada tiene como función encausar el trabajo que se desea llevar al efecto. Hayman (1974) cita: además que aclaran acerca de cuales son las variables, que han de analizarse y las relaciones que existen entre ellas, y permiten derivar los objetivos del estudio constituyéndose en la base de los procedimientos de investigación.

Tamayo (1989), señala que éstas se constituyen en un eslabón imprescindible entre la teoría y la investigación que llevan al descubrimiento de un hecho. Las razones anteriormente esgrimidas hacen suponer que éstas ocupan un lugar primordial en la investigación al proporcionar los elementos necesarios que permitirán llegar a los datos necesarios que permitirán llegar a los datos y resolver el problema planteado.

DEFINICIÓN DE HIPÓTESIS

Es una proposición que establece relaciones, entre los hechos; para otros es una posible solución al problema; otros mas sustentan que la hipótesis no es mas otra cosa que una relación entre las variables, y por último, hay quienes afirman que es un método de comprobación.

La hipótesis como proposición que establece relación entre los hechos: una hipótesis es el establecimiento de un vínculo entre los hechos que el investigador va aclarando en la medida en que pueda generar explicaciones lógicas del porqué se produce este vínculo.

Tamayo (1989 – 75): afirma que:

“La hipótesis es una proposición que nos permite establecer relaciones entre los hechos. Su valor reside en la capacidad para establecer mas relaciones entre los hechos y explicar el por que se producen”.

Arias (1897 – 55) asegura que:

La hipótesis tiene como propósito llegar a la comprensión del porqué entre dos elementos se establece algún tipo definido de relación y establece que la hipótesis:

“Es una proposición respecto a alguno elementos empíricos y otros conceptos y sus relaciones mutuas, que emerge mas allá de los hechos y las experiencias conocidas, con el propósito de llegar a una mayor comprensión de los mismos”.

La hipótesis como una posible solución del problema: la hipótesis no es solamente la explicación o comprensión del vínculo que se establece entre los elementos inmersos en un problema, es también el planteamiento de una posible solución al mismo.

Pardinas (1974 – 132):

“La hipótesis es una proposición anunciada para responder tentativamente a un problema”.

Deben ser sustentada por Van Dalen (1974 – 170) conduce a una definición en la que se establece que:

“La hipótesis son posibles soluciones del problema que se expresan como generalizaciones o proposiciones. Se trata de enunciados que constan de elementos expresados según un sistema ordenado de relaciones, que pretenden describir o explicar condiciones o sucesos aún no confirmados por los hechos”.

Hipótesis como relación entre variables: Kerlinger (1985 : 12) expresa; una expresión de las relaciones existentes entre dos o mas variables, la hipótesis se formula en términos de oración aseverativa por lo tanto:

“Es una expresión conjetural de la relación que existe entre dos o más variables. Siempre aparece en forma de oración aseverativa y relaciona de manera general o específica, una variable con otra.

Hipótesis como método de comprobación: para otros investigadores, la hipótesis es algo mas que el establecimiento de relaciones entre elementos, o la posible solución a un problema; por lo tanto; afirman que es fundamentalmente y ante todo, una herramienta de comprobación de los supuestos con la realidad.

Abouhamad (1965:74) sostiene:

“La hipótesis es una proposición, condición o principio que se supone sin certeza con el fin de derivar sus consecuencias con hechos lógicos y, por este método comprobar su concordancia con hechos conocidos o que puedan determinarse”.

IMPORTANCIA DE LA HIPÓTESIS

Las hipótesis son el punto de enlace entre la teoría y la observación. Su importancia en que dan rumbo a la investigación al sugerir los pasos y procedimientos que deben darse en la búsqueda del conocimiento.

Cuando la hipótesis de investigación ha sido bien elaborada, y en ella se observa claramente la relación o vínculo entre dos o mas variables, es factible que el investigador pueda:

• Elaborar el objetivo, o conjunto de objetivos que desea alcanzar en el desarrollo de la investigación.

• Seleccionar el tipo de diseño de investigación factible con el problema planteado.

• Seleccionar el método, los instrumentos y las técnicas de investigación acordes con el problema que se desea resolver, y

• Seleccionar los recursos, tanto humanos como materiales, que se emplearán para llevar a feliz término la investigación planteada.

ORIGEN DE LA HIPÓTESIS

Selltiz (1974:53) señala:

“Una hipótesis puede estar basada simplemente en una sospecha, en los resultados de otros estudios y la esperanza de que una relación entre una o mas variables se den en el estudio en cuestión. O pueden estar basadas en un cuerpo de teorías que, por un proceso de deducción lógica, lleva a la predicción de que, si están presentes ciertas condiciones, se darán determinados resultados.

La elaboración de una buena hipótesis tiene como punto de partida el conocimiento del área en la que se desea hacer la investigación, sin este conocimiento previo se corre el riesgo de recorrer caminos ya transitados y trabajar en temas ya tratados que carecen de interés para la ciencia.

Si la hipótesis se basa u origina de otros estudios, la investigación estará en clara relación con un cuerpo de conocimientos ya existentes, probados, por lo que el trabajo será una contribución que permitirá reforzar ese cuerpo de conocimientos.

Función de la Hipótesis:

Cuando se describe su importancia, se plantean algunas de las funciones que ellas cumplen, porque además de ser guías en el proceso de investigación, también pueden servir para indicar que observaciones son pertinentes y cuales no lo son con respecto al problema planteado.

La hipótesis puede señalar loas relaciones o vínculos existentes entre las variables y cuales de ellas se deben estudiar, sugieren una explicación en ciertos hechos y orientan la investigación en otros, sirve para establecer la forma en que debe organizarse eficientemente el análisis de los datos. Hernández agrega que entre otras funciones, su objetivo principal, es de aprobar y sugerir teorías.

Formulación de Hipótesis:

Es un planteamiento que elabora el investigador a partir de la observación de una realidad que tiene explicación en una teoría, por lo tanto se afirma que ellas representan un punto medio entre la teoría y la realidad.

CLASIFICACIÓN DE LA HIPÓTESIS

La hipótesis puede adoptar diferentes y clasificarles de acuerdo a la convivencia de cada autor:

a. Hipótesis general: es cuando trata de responder de forma amplia a las dudas que el investigador tiene acerca de la relación que existe entre las variables.

b. Hipótesis específica: es específica aquella hipótesis que se deriva de la general, estas tratan de concretizar a la hipótesis general y hace explícitas las orientaciones concebidas para resolver la investigación.

Problema: se quiere determinar si el entrenamiento en técnicas de estudio mejora el rendimiento académico de los estudiantes de la UNELLEZ. Hipótesis específica: los alumnos del subproyecto lenguaje y comunicación del I semestre, programa educación integral, entrenados en técnicas de estudio, obtendrán altas calificaciones al mejorar sus técnicas de aprendizajes.

c. Hipótesis estadística: la hipótesis estadística es aquella hipótesis que somete a prueba y expresa a las hipótesis operacionales en forma de ecuaciones matemáticas.

i. Hipótesis nula: (X1) = (X2); no existe relación en los promedios obtenidos por los estudiantes entrenados en técnicas de estudio (X1) y los no entrenados (X2)

ii. Hipótesis alternativas: X1 > X2; los alumnos sometidos a entrenamientos en técnicas de elaboración de resumen (X1) obtuvieron mejor promedio de rendimiento que aquellos alumnos que no recibieron ningún tipo de entrenamiento (X2).

d. Hipótesis operacional: el promedio de rendimiento de los alumnos del subproyecto lenguaje y comunicación, sometidos a entrenamientos en técnicas de estudio (grupo experimental), será mayor que el promedio de rendimiento de aquellos alumnos no sometidos al entrenamiento (grupo control).

Requisitos para la elaboración de hipótesis:

La formulación de hipótesis es una tarea que se logra cuando se cumple con algunos requisitos, entre ellos:

a. Formularse en términos claros, es decir, emplear palabras precisas que no den lugar a múltiples interpretaciones. La claridad con que se formulen es fundamental, debido a que constituyen una guía para la investigación.

b. Tener un referente empírico, ello hace que pueda ser comprobable. Una hipótesis sin referente empírico se transforma en un juicio de valor al no poder ser comprobable, verificable, carece de validez para la ciencia.

Evaluación de la Hipótesis:

Existe algunos criterios que sirven de guía para determinar si la hipótesis cumple con algunos requisitos Mc Güigan (1971: 67) afirma:

a. Permite ser comprobada, es decir, establece claramente su referente empírico.

b. Está en correlación y armonía con el conjunto de las hipótesis del proyecto de la investigación.

c. Responde en términos claros y precisos al problema planteado, es decir, señala la relación que se espera de las variables.

d. Son susceptibles de ser cuantificadas.

Dificultades en la Elaboración de la Hipótesis:

La hipótesis resulta una tarea ardua, de difícil elaboración, esta dificultad generalmente proviene de circunstancias tales como:

a. Un planteamiento poco claro del problema a investigar.

b. Falta de conocimiento del marco teórico de la investigación como consecuencia de la poca claridad que se tiene del problema que se desea resolver.

c. Carencia de habilidad para desarrollar y utilizar el referente teórico–conceptual.

d. En general, por el desconocimiento de los procesos de la ciencia y la investigación, por lo tanto ausencia de criterios para la elaboración de hipótesis y selección de técnicas de investigación adecuadas al problema que se investiga.

VARIABLE

La definición más sencilla, es la referida a la capacidad que tienen los objetos y las cosas de modificar su estado actual, es decir, de variar y asumir valores diferentes. Sabino (1980) establece:

“entendemos por variable cualquier característica o cualidad de la realidad que es susceptible de asumir diferentes valores, es decir, que puede variar, aunque para un objeto determinado que se considere puede tener un valor fijo”.

Briones (1987 : 34) define:

“Una variable es una propiedad, característica o atributo que puede darse en ciertos sujetos o pueden darse en grados o modalidades diferentes. . . son conceptos clasificatorios que permiten ubicar a los individuos en categorías o clases y son susceptibles de identificación y medición”.

CLASIFICACIÓN DE LAS VARIABLES

Variable Independiente:

es aquella característica o propiedad que se supone ser la causa del fenómeno estudiado. En investigación experimental se llama así, a la variable que el investigador manipula.

Variable Dependiente:

Hayman (1974 : 69) la define como propiedad o característica que se trata de cambiar mediante la manipulación de la variable independiente.

La variable dependiente es el factor que es observado y medido para determinar el efecto de la variable independiente.

Variable Interviniente:

Son aquellas características o propiedades que de una manera u otra afectan el resultado que se espera y están vinculadas con las variables independientes y dependientes.

Variable Moderadora:

Según Tuckman: representan un tipo especial de variable independiente, que es secundaria, y se selecciona con la finalidad de determinar si afecta la relación entre la variable independiente primaria y las variables dependientes.

Variables Cualitativas:

Son aquellas que se refieren a atributos o cualidades de un fenómeno. Sabino (1989 : 80) señala que sobre este tipo de variable no puede construirse una serie numérica definida.

Variable Cuantitativa:

Son aquellas variables en las que características o propiedades pueden presentarse en diversos grados de intensidad, es decir, admiten una escala numérica de medición.

Variables Continuas:

Son aquellas que pueden adoptar entre dos números puntos de referencias intermedio. Las calificaciones académicas (10.5, 14.6, 18.7, etc.).

Variables Discretas:

Son aquellas que no admiten posiciones intermedias entre dos números. Ej., en Barinas la división de territorial la constituyen 11 municipios por no (10.5 u 11.5 municipios).

Variables de Control:

Según Tuckman: La define como esos factores que son controlados por el investigador para eliminar o neutralizar cualquier efecto que podrían tener de otra manera en el fenómeno observado.

Operacionalización de la Variable:

Es un paso importante en el desarrollo de la investigación. Cuando se identifican las variables, el próximo paso es su operacionalización.

Comprende tres tipos de definiciones:

1. Nominal: es el nombre de la variable que le interesa al investigador.

2. Real: consiste en determinar las dimensiones que contienen las variables nominales.

3. Operacional: o indicadores. Esta da las base para su medición y la definición de los indicadores que constituyen los elementos mas concretos de una variable y de donde el investigador derivará los items o preguntas para el instrumento con que recolectará la información.

BIBLIOGRAFÍA

MARQUÉZ R. Omar A. El Proceso de la Investigación en las Ciencias Sociales. Ediciones de la Universidad Ezequiel Zamora, Colección Docencia Universitaria.


Documento cedido por:
JORGE L. CASTILLO T.
Comentarios al email:
CiberCrazy5000@yahoo.com.mx
*

miércoles, octubre 10, 2007

Socioeconomía Matemática

*
Un aceptable ejemplo de cómo la Matemática se utiliza en la interpretación de fenómenos socioeconómicos se encuentra en este trabajo:

http://rufasto.tripod.com/pdf/c05mathvar.pdf

Su enfoque puede ubicarse en la corriente de la Economía Política de la Utilidad Marginal, que como sabemos enfatiza más el problema de la ciencia en la circulación que en la producción. Y que evita el tratamiento de la Economía Política como la Ciencia del Trabajo.
*

Sobre lo cualitativo y lo cuantitativo

Una explicación de estos planteamientos básicos: El hecho de que todo fenómeno, de la naturaleza, de la sociedad y del pensamiento, tiene le...