GLOSARIO


GLOSARIO
AZAR
Casualidad. Caso fortuito. Fenómeno que no sigue una regla, un orden, una ley conocida. En Estadística se contrastan las probabilidades a favor de las hipótesis del investigador en cuanto al efecto de las variables independientes sobre las dependientes contra la probabilidad de que los resultados sean debidos al azar, a la pura casualidad.
BAREMO
Tabla elaborada como regla para atribuir valor a las puntuaciones individuales o de grupo. Las puntuaciones del grupo inicial, una muestra que debe ser representativa de la población, sirven de regla para interpretar las puntuaciones de otros sujetos o grupos que reúnan las mismas características.
Es frecuente que a cada puntuación individual del grupo original se le asigne la correspondiente trasformación a puntuaciones como cuantiles (cuartiles, deciles o percentiles), puntuaciones típicas, C.I., etc. En adelante, a cualquier puntuación de un nuevo sujeto se le atribuye la correspondiente puntuación (cuantil...) del baremo.
DISPERSIÓN
Característica de un grupo que nos informa del grado en que las puntuaciones de los integrantes de un grupo se sitúan de forma más o menos cercana la medida de posición de que se trate (por ejemplo, de la media aritmética). Un grupo en que todos su miembros obtienen una puntuación igual a la medida de posición tiene una dispersión de 0; sin embargo, no existe un valor fijo de dispersión máxima.
Las medidas de dispersión o variabilidad más importantes y utilizadas son la desviación típica o la varianza.
CONTRASTE DE HIPÓTESIS
Proceso sistemático que concluye tomando una decisión sobre la hipótesis nula (H0): rechazo o no rechazo, con la consiguiente aceptación o no de la hipótesis alternativa (H1) asumiendo un riesgo de error tipo I ≤ α .
CONTROL
El método científico pretende establecer relaciones causales entre las variables relacionadas en su hipótesis. Lograr una meta tan elevada como este exige del investigador el dominio de la situación, de forma que, teniendo bajo su dominio la variable independiente, controle el conjunto de circunstancias, hechos, personas... que, además de dicha variable, puedan influir en la dependiente.
Si no fuera así, quedaría la duda de si la relación encontrada se debe a la variable independiente, a alguna de esas otras variables convertidas en extrañas, esto es, en hipótesis rivales a la suya- o la la interacción entre unas y otras.
CORRELACIÓN
Entendemos por correlación la relación existente entre dos o más variables.
La correlación puede ser perfecta, positiva o negativa (valor de ± 1), nula (valor de 0), o imperfecta, que incluye toda la gama de valores que van de 0 a 1, tanto positivos como negativos. La correlación es positiva cuando los valores de las variables aumentan o disminuyen en la misma dirección, y negativa en caso contrario.
El índice de correlación coeficiente de correlación- más conocido es el de Pearson, representado por rxy.
CURVA NORMAL (DE PROBABILIDADES)
Se trata del modelo estadístico al que tienden con más frecuencia los datos empíricos. Cuando estos se acomodan razonablemente al modelo, podemos aplicarles sus propiedades.
Las características fundamentales de la curva normal de probabilidades* son:
  •   Tener como valor máximo el de la ordenada de la media
  •   Ser simétrica con respecto a la ordenada de la media.
  •   Presentar dos puntos de inflexión, uno para el valor de la Media más una desviación típica
    (media + s) y otro para la Media menos una desviación típica* (media s)
  •   La curva es asintótica con respecto al eje de abscisas: por mucho que se prolongue a derecha e izquierda nunca llega a cortarlo. Por ello, nunca encontraremos una probabilidad = 1, que sería
    un suceso seguro.
DESVIACIÓN TÍPICA
Medida de dispersión o variabilidad. Estadísticamente es la raíz cuadrada de la media de la suma de las desviaciones individuales de un grupo de sujetos, elevadas al cuadrado, con respecto a la media aritmética de un grupo.
La varianza es un índice del grado en que las puntuaciones individuales se agrupan más o menos en torno a la media del grupo; si todas las puntuaciones individuales coincidieran con la media, la varianza sería 0; cuanto más se aparten de ella, mayor valor alcanzará la varianza.
Esta medida es muy importante en la Estadística inferencial ya que se utiliza en las pruebas de contraste de hipótesis.
DIAGRAMA DE BARRAS
Representación gráfica especialmente adecuada a variables cualitativas; las barras, situadas unas a continuación de otras, tienen como base las diferentes categorías y como altura su frecuencia.
DIAGRAMA DE CAJA
Representación gráfica especialmente relevante por la gran cantidad de información que ofrece sobre un conjunto de puntuaciones originales. En concreto nos informa sobre:
  •   Las puntuaciones extremas
  •   La Mediana, igual al Q2 o cuartil 2
  •   El recorrido intercuartílico: Q1 a Q3.
  •   La información contenida sobre este valor en el rectángulo central: en él podemos
    apreciar si se da equilibrio o no entre los diferentes cuartile.
  •   En ocasiones puede informarnos sobre las puntuaciones fuera de rango.
    DIAGRAMA DE DISPERSIÓN
    Se trata de la representación gráfica de los pares de valores de un grupo de sujetos en dos variables. El diagrama nos ilustra de la existencia o no de correlación, de la intensidad y del tipo (positiva o negativa).
    Sobre un eje de coordenadas se van marcando los puntos en que se cruzan los valores de la variable X y de la variable Y.
    DISEÑO
    Siguiendo a Kerlinger. ““Diseño es el plan, estructura y estrategia de una investigación cuyo objetivo es dar respuesta a ciertas preguntas y controlar la varianza*”.
    Como se aprecia, el autor define el término e incluye en su concepto los dos objetivos fundamentales del mismo.
    DISEÑO EXPERIMENTAL
    Sin entrar ahora en el segundo objetivo control* de la varianza*- el diseño en cuanto plan, estructura y estrategia nos permite poner a prueba, en condiciones rigurosas, la hipótesis del investigador sobre el efecto de una variable independiente sobre otra dependiente, contrastando el resultado con la posibilidad probabilidad- de que tal efecto sea debido al azar.
    DISTRIBUCIÓN DE FRECUENCIAS
    En ocasiones, las puntuaciones originales o directas pueden representarse en una tabla en la que junto a estas Xi- se incluya el número de veces que cada puntuación se repite (frecuencia: fi).
    Cuando el número de puntuaciones diferentes es elevado, las puntuaciones directas suelen sustituirse por conjunto de ellas, denominados intervalos; junto a ellos, las veces que ese conjunto de puntuaciones se repite (frecuencia del intervalo). En estos casos, a la hora de representar al intervalo (por ejemplo, para operar) se utiliza su valor medio, conocido como marca de clase. 
ESCALAS DE MEDIDA
Al aplicar la regla de medida y la correspondiente unidad a un determinado objeto llegamos a un número. Pero los números resultantes no tienen todos las mismas propiedades ni, por tanto, se les pueden aplicar las mismas operaciones matemáticas.
Con los números más perfectos, propios de una
escala de medida de cociente o de razón (edad, talla, peso) podemos utilizar todas las operaciones matemáticas. Con los de escalas de intervalo (temperatura), no, ya que no tienen un 0 absoluto. Hay números propios de una escala de medida ordinal, que admiten menos operaciones que los anteriores; ahora bien, dado que el orden tiene en alguna medida un carácter cuantitativo (por ejemplo: clase social) algunos autores clasifican, en ocasiones, a estas variables como cuasi-cuantitativas. Por último, hay números propios de escalas de medida nominal; aquí los números no indican cantidad sino diferencia: lo que es igual recibe el mismo número y lo que es diferente, un número distinto.
ESTADÍSTICA
Ciencia que trata de analizar e interpretar los datos recogidos con algún propósito, como la investigación científica.
Algunos autores la definen afirmando que su objeto es el estudio de los fenómenos aleatorios; recuerde el lector que cuando hablamos de contrastar los efectos de diversas intervenciones lo que hacemos es asignar probabilidades a que tales efectos se deban al puro azar (aleatoriedad) o a la intervención llevada a cabo por el investigador en condiciones de rigor o control* de explicaciones alternativas.
Cuando trabajamos con los valores de las muestras la Estadística se denomina descriptiva; si de tales valores deseamos pasar a estimar los correspondientes a la población, la Estadística se conoce como inferencial; esta es más compleja pero es la que ofrece más utilidad u aplicaciones tanto al científico como al profesional.
La inferencia estadística pretende sacar conclusiones sobre gran número de datos a través de observaciones de parte de esos datos. Se trata de generalizar los datos de una muestra a la población de la que procede. Mediante la estadística inferencial se puede estimar parámetros y realizar contraste de hipótesis.
ESTADÍSTICO
Valores obtenidos en una muestra. Los más conocidos son los agrupados bajo las medidas de posición o tendencia central (media, mediana*, moda*), las de dispersión* o variabilidad (desviación media, desviación típica, varianza) o los coeficientes de correlación*. Suelen representarse con letras latinas ( x , s, r...).
A partir de ellos, por inferencia estadística, podemos estimar sus correspondientes parámetros con determinados niveles de probabilidad, asumiendo un riesgo de error tipo I prefijado por el investigador.
CURSO 0 DE ESTADÍSTICA APLICADA
92
ESTIMACIÓN DE PARÁMETROS
Se denomina así el procedimiento por el que se trata de estimar el valor de un estadístico, obtenido en una muestra, a toda la población de la que aquella forma parte.
Toda estimación asume un cierto margen de error, medido en términos de probabilidad; este error puede hacerse tan pequeño como desee el investigador, pero nunca podrá hablar en términos seguros, de certeza.
Al hablar en el texto del coeficiente de correlación nos hemos acercado al concepto y procedimiento de estimación de parámetros.
EXPERIMENTO
Es la modalidad de investigación empírica* más exigente; como consecuencia, su aportación esencial es la posibilidad de establecer, con razonable seguridad, relaciones de causa a efecto entre una o varias variables independientes (v.i.) y otra denominada dependiente (v.d.).
Para poder lograrlo se deben cumplir determinadas exigencias: el investigador debe poder planificar la acción y provocar el fenómeno, ha de poder realizarlo en condiciones de control y debe contar con medidas de calidad, tan válidas, fiables y precisas como sea posible.
FIABILIDAD
La fiabilidad es una de las características técnicas que deben reunir los instrumentos de recogida de datos y de medida. Entendemos por fiabilidad el grado de precisión de la medida; a más precisión fiabilidad- menos error de medida.
La fiabilidad se expresa en muchos casos mediante un coeficiente de correlación (representado aquí por rXX, dado que las dos series tienen que ver con el mismo instrumento de recogida de datos).
Las dos series pueden referirse a las puntuaciones en dos mitades de la misma prueba (consistencia interna), a las puntuaciones de la misma prueba aplica en dos ocasiones separadas por un cierto tiempo (estabilidad) o a las puntuaciones en dos pruebas equivalentes, esto es, de características tan semejantes como sea posible (equivalencia)
GENERALIZACIÓN
Entendemos por generalización al hecho de extender los resultados de la investigación desde los sujetos estudiados a los grupos de los que forma parte, desde las muestras a sus respectivas poblaciones.
Este procedimiento, propio de la Estadística inferencial, tiene exigencias que deben cumplirse para que sea legítimo y correcto.

HIPÓTESIS
Entendemos por hipótesis las conjeturas sobre la posible relación entre los elementos -variables- integrantes del problema. En los diseños experimentales se formulan hipótesis sobre la relación causal entre una o varias variables independientes (V.I.) y la variable dependiente (V.D.)
Una hipótesis se somete a prueba o se contrasta tratando de apreciar si las probabilidades a su favor son sensiblemente superiores a una explicación por azar. Esta segunda hipótesis se denomina nula y se representa por H0 , frente a la del investigador (H1)
HISTOGRAMA
Representación gráfica de las puntuaciones obtenidas por un conjunto de sujetos en una variable cuantitativa. En el eje X se sitúan los límites de los intervalos; en el Y, la frecuencia del intervalo.
INVESTIGACIÓN EMPÍRICA
La investigación científica ha de ser sistemática, organizada, disciplinada y rigurosa. Investigación empírica es aquella que acude a la experiencia, a los datos, para llegar a
conclusiones en relación con las hipótesis de partida.
MEDIA ARITMÉTICA
Medida de posición resultante de sumar todas las puntuaciones de un grupo y dividir el resultado por el número de integrantes del grupo, representado por N.
Su ventaja fundamental radica en que todas y cada una de las puntuaciones de la serie incluyen en su valor en forma proporcional al mismo. Es especialmente adecuada para niveles de medida de razón e intervalo.
MEDIANA
Medida de posición resultante de ordenar las puntuaciones de mayor o menor, o viceversa, y encontrar la que ocupa el lugar central de la serie. Si la serie tiene un número par de casos, la mediana será la media de las dos centrales.
Su inconveniente fundamental es que en la mediana no influyen los valores de las puntuaciones sino solo el orden que ocupan. Dos series muy diferentes pueden tener la misma mediana.
Resulta especialmente adecuada para el nivel de medida ordinal.
Para Selltiz, “Investigar es buscar de nuevo, echar otra mirada más cuidadosa para averiguar más. Echamos otra mirada porque puede haber algo erróneo en lo que ya sabemos [...]

MEDIDA. ESCALAS DE MEDIDA
Una medida, en sentido estricto, es el resultado de comparar una unidad con una cantidad. La cantidad “peso” la medimos comparándola con la unidad “Kilogramo” u otras mayores o menores. El resultado es el número.
La definición más amplia de “medida” se debe a Stevens: Medir es asignar numerales a los objetos o hechos de acuerdo con ciertas reglas. Un numeral puede ser un número o un símbolo, lo que permite admitir el nivel o escala de medida nominal.
En nuestros ámbitos, no siempre es tan fácil proceder a medir variables; la mayoría de las variables son construcciones o constructos elaborados por los científicos e investigadores, como en el caso de la inteligencia, el nivel de conocimientos, el autoconcepto, la tasa de inflación, el producto interior bruto o similares.
En tales casos, la medida consiste en la asignación de valores de acuerdo con ciertas reglas, como ocurre en una prueba objetiva, un cuestionario de actitudes hacia los inmigrantes, la tasa de mortalidad infantil, etc. Los números que resultan no tienen las mismas propiedades que en el caso del peso, de la talla o de la edad, números perfectos que permiten todo tipo de operaciones y que son propios de escalas de medida de razón o cociente.
Variables como la temperatura, perfectamente medibles, se diferencian de las anteriores en que el punto de partida cero grados- no es fijo, además de poder presentar valores inferiores. Este tipo de variables forman parte de la escala de intervalos. Las que se limitan a indicar el orden en una serie (primero, segundo...) se ubican en las escalas ordinales; y en el caso de variables que no indican cantidad sino semejanza o diferencia (sexo, estado civil, clase social, grados universitarios...) la escala se conoce como nominal.
MODA
También denominada Modo, es una medida de posición que coincide con el valor más repetido de la serie de valores.
Su inconveniente fundamental es que en aquellos valores menos repetidos que el de la Moda no cuentan para su obtención.
Resulta especialmente adecuada para el nivel de medida nominal.
MODELO
Entendemos por “modelo” una representación simplificada de la realidad. Tal representación puede ser icónica, analógica, matemática.
Los modelos matemáticos tienen una gran utilidad en Estadística. En la medida en que unos datos empíricos sigan razonablemente un modelo, podemos aplicar las propiedades de este al tratamiento estadístico de aquellos.
En nuestro ámbito, modelo es, un tipo de distribución de datos teórico o ideal al que pueden tender distribuciones empíricas o reales de ciertas variables.

Por ejemplo: la variable motivación por los idiomas, una vez medida en un conjunto amplio de sujetos (muestra) puede acercarse o apartarse más o menos de un modelo ideal o teórico como es la denominada curva normal de probabilidades* o campana de Gauss.
Este modelo tiene unas propiedades; si nuestros datos medidos se acercan suficientemente al modelo, podemos aplicarles las propiedades del mismo, lo que nos permitirá analizar los datos y obtener conclusiones.
Para decidir si podemos considerar que unos datos empíricos se acercan suficientemente al modelo hasta hacerlos compatibles con él, disponemos de pruebas de bondad de ajuste, como es el caso de chi o ji cuadrado, cuyo símbolo es χ2.
Este tipo de pruebas asignan una probabilidad a los datos empíricos sobre su acomodación o no al modelo, lo que permite al investigador aceptar o no la hipótesis de nulidad.

MUESTRA. MUESTREO
Entendemos por muestra un subconjunto de una población. La muestra debe ser representativa de la población, para lo que deberá contar con un tamaño suficiente y con una selección por procedimientos imparciales, como el muestreo aleatorio.
Muestreo es el procedimiento utilizado para seleccionar la muestra; el preferible es el denominado aleatorio simple.
PARÁMETRO
Entendemos por parámetro el valor de un determinado estadístico no en la muestra en que se obtiene sino en el total de la población. Si los estadísticos más comunes, como las medidas de posición y variabilidad (media: ; mediana: Md; moda*: Mo; desviación típica: s; varianza: s2...) se suelen representar por letras latinas, los parámetros lo hacen por letras griegas (μ = media; σ = desviación típica; σ2 = varianza...)
POBLACIÓN
El término “población” se define como el conjunto de todos los casos o elementos que cumplen con las características que la definen: los varones, las mujeres, los estudiantes de Farmacia, los políticos, los abogados...
En ciencias sociales no suele estar muy claramente definida. El investigador desea generalizar los datos de la muestra a la población.
En los estudios empíricos no suele ser posible ni, en la mayoría de los casos, aconsejable- estudiar todos los casos; se acude en su lugar a muestras, que deben ser representativas del conjunto total o población.
Por medio de la Estadística inferencial se pueden hacer estimaciones de los parámetros a partir de las muestras (por ejemplo: desde a μ)
CURSO 0 DE ESTADÍSTICA APLICADA
PROBABILIDAD
Frente a los sucesos seguros se encuentran los probables. El tipo de seguros a las que es más adecuado aplicar la probabilidad es el de los fenómenos aleatorios.
Conociendo las diferentes manifestaciones de un fenómeno, como el número de caras de un dado o de los números de la lotería, podemos decidir la denominada probabilidad a priori, suponiendo, como debe ocurrir, que todas las caras del dado y todos los números tienen las mismas oportunidades. En el primer caso, la probabilidad de una cara cualquiera es de 1/6; en el segundo, suponiendo que tengamos 60.000 números, será de 1/60.000.
Para nosotros es importante conocer los modelos de probabilidad, como el de la curva normal*. Gracias a ella, a la regla matemática que la rige, podemos asignar probabilidades a los fenómenos que la siguen, que se acomodan a ella. Estas probabilidades nos permiten aceptar o rechazar hipótesis (pruebas estadísticas) o decidir si un coeficiente de correlación* rXY es o no estadísticamente significativo.
Los valores de probabilidad oscilan entre 0 suceso imposible- y 1, suceso seguro.
Reflexione sobre la corrección o incorrección de una expresión habitual en los medios de comunicación como la siguiente: “casi con toda probabilidad...”. ¿Sería más correcto afirmar: con elevada probabilidad? ¿o, casi con seguridad?
PRUEBAS ESTADÍSTICAS. BONDAD DE AJUSTE

Cuando queremos contrastar dos o más formas de intervención métodos, procedimiento de disciplina, sistemas de motivación, tratamientos fisioterapéuticos, fármacos...- acudimos a un contraste de hipótesis.
El investigador formula la suya H1- y, para darla por buena, debe ser capaz de rechazar la alternativa, conocida como hipótesis nula o de nulidad (H0). Por prudencia, solo rechazará esta y aceptará aquella cuando las probabilidades a favor de esta sean tan pequeñas como desee y, en consecuencia, las probabilidades a favor de su hipótesis sean tan elevadas como él decida.
Las pruebas estadísticas más comunes son t y F, aunque hay otras muchas.
Un tipo de pruebas concreto es el de bondad de ajuste; se puede aplicar, por ejemplo, para decidir si una determinada distribución de datos se acomoda suficientemente a un modelo como para poder aplicar a aquellos las propiedades de este. Una de las más conocidas es la de χ2 chi o ji cuadrado) para decidir sobre la compatibilidad de una distribución de puntuaciones empíricas con la curva normal de probabilidades. Debemos decir que hay más pruebas y más modelos.
PUNTUACIÓN
Valor, generalmente numérico, que se atribuye a cada una de las manifestaciones de una variable.
La puntuación directa o bruta de un sujeto en una variables se representa por Xi (puntuación directa del sujeto i en la variable X). Cuando esta puntuación se pone en relación con la media
del grupo (Xi Media) estamos ante una puntuación diferencial (xi). Si esta puntuación diferencial se divide por la desviación típica del grupo estamos ante la puntuación zi, que indica en cuantas desviaciones típicas se aparta un sujeto de la media del grupo.
Cuando afirmamos que Guadalajara se aparte de Madrid 55 KM. estamos diciendo algo similar a cuando decimos que la z de un sujeto es -2 (se aparta de la media dos veces la desviación típica, como Guadalajara se aparta 55 veces el valor de un Km.
Otro tipo de puntuación es el cuantil, una medida que interpreta las puntuaciones directas ordenadas, divididas en 4, 10 o 100 partes (cuartiles: Q; deciles: D; o centiles o percentiles: C o P). Si ese grupo muestral se considera representativo de la correspondiente población, podemos interpretar las puntuaciones utilizándolo como baremo o regla de medida. Así podemos afirmar queunsujetoestáenelQ2,enelD6 oenelP81,estoes,entreel25yel50%deloscaso,enel 60 % superior o dejando por debajo de sí 81 casos de cada 100.

SIGNIFICACIÓN ESTADÍSTICA

Por lo general, todo investigador está interesado en saber si los valores obtenidos en una muestra, denominados estadísticos, representan a los de toda la población (parámetros).
A este procedimiento lo hemos denominado estimación de parámetros. Cuando el valor medido en una muestra representa al valor para toda la población afirmamos que ese estadístico es estadísticamente significativo. Si no fuera así, no podríamos considerar al citado estadístico como representante del parámetro: parámetro y estadístico serian valores de poblaciones diferentes.
Como hemos señalado, toda estimación asume un cierto margen de error, medido en términos de probabilidad; este error puede hacerse tan pequeño como desee el investigador, pero nunca podrá hablar en términos seguros, de certeza.
Algo similar podemos afirmar en los contrastes de hipótesis. Cuando un investigado plantea su hipótesis, por ejemplo: los resultados sobre el clima de aula variable dependiente- serán mejores con un sistema A de disciplina que con otro B variable independiente- (H1) trata de mantener su hipótesis frente a una hipótesis alternativa hipótesis nula o de nulidad, H0-
Al final, después de aplica durante un tiempo los dos sistemas, llegará, por ejemplo, a dos medias aritméticas, y su problema será el de decidir si la diferencia entre ambas puede atribuirse a que el sistema A es mejor que el B o puede explicarse por casualidad, por azar (H0).
Si puede hacer lo primero, afirmará que las diferencias entre ambas medias aritméticas son reales, son estadísticamente significativas, y podrá mantener H1 con una probabilidad a su favor tan elevada como desee, pero nunca con certeza. En caso contrario, no podrá rechazar H0 y tendrá que admitir que tales diferencias pueden ser explicadas por el azar.
VALIDEZ
Utilizamos el término “validez” en dos contextos diferentes:
a) Como cualidad técnica de un instrumento de recogida de datos, indicando el grado en
que tal instrumento mide lo que pretende y dice medir.
CURSO 0 DE ESTADÍSTICA APLICADA
Como hemos indicado en el texto, dos manifestaciones de la validez, la concurrente y la predictiva, utilizan la correlación para poner de relieve la magnitud de la misma.
b) Como exigencia fundamental en los diseños de investigación experimental. La denominada validez interna, de darse, permite afirmar que los efectos medidos en la variable dependiente se deben a, y solo a, la variable independiente. Para ello el investigador debe controlar las variables extrañas. La validez externa se conoce como generalización, e informa del grado en que los resultados de la investigación pueden generalizarse.
VARIABLES
Frente a una constante, la variable es aquella realidad que admite diversos valores, como la edad, la clase social, la inteligencia, el rendimiento académico o diferentes dimensiones o factores de la personalidad.
Cuando una variable solo admite valores enteros la denominamos discreta, tal como ocurre con el sexo, el estado civil, la clase social, o la carrera universitaria; las variables continuas pueden tener todo tipo de valores intermedios, como ocurre con la talla, el peso o la edad.
Las primeras pueden ser dicotómicas, si únicamente admiten dos valores o politómicas, en el caso contrario; en el primer caso se ha venido situando el sexo, mientras en el segundo podemos citar el estado civil.
Desde la perspectiva de la investigación las variables suelen clasificarse, en función del papel que desempeñan, en independientes, las manipuladas por el investigador, y dependientes, aquellas sobre las que se mide la influencia de las primeras; también podemos hablar de variables extrañas, esto es, variables que pueden convertirse en rivales de la hipótesis del investigador al influir sobre la dependiente junto a la independiente o en lugar de ella.
VARIANZA
Medida de dispersión* o variabilidad. Estadísticamente es la media de la suma de las desviaciones individuales de un grupo de sujetos, elevadas al cuadrado, con respecto a la media aritmética de un grupo.
La varianza es un índice del grado en que las puntuaciones individuales se agrupan más o menos en torno a la media del grupo; si todas las puntuaciones individuales coincidieran con la media, la varianza sería 0; cuanto más se aparten de ella, mayor valor alcanzará la varianza.
Esta medida es muy importante en la Estadística inferencial ya que se utiliza en las pruebas de contraste de hipótesis; la más conocida e importante es la denominada F, o ANAVA (análisis de la varianza, aunque lo que se contrasta son medias aritméticas) que atribuye a las diferencias entre medias una determinada probabilidad de que no sean explicables como consecuencia del azar. En muchos textos encontrará la expresión ANOVA (de analisys of variance)

ANEXO. TABLA DE ÁREAS DE LA CURVA NORMAL DE PROBABILIDADES Y SU MANEJO

La tabla que se inserta a continuación presenta cinco columnas. La primera de ellas [(z, Puntuación tipificada (x/σ)] nos permite entrar por los diferentes valores de zi correspondientes a las puntuaciones directas. Situados sobre el valor que nos interesa, encontramos a su derecha cuatro columnas:
Dejando de lado esta última columna, vamos ver cómo podemos manejar las otras tres.
  1. a)  Los valores a la derecha de nuestro valor zi son valores en términos de probabilidad. Sabemos que la probabilidad oscila entre 0, suceso imposible, y 1, suceso seguro. Estos valores, multiplicados por 100, se convierten en %. Y para convertir esos valores de probabilidad o de % en número de casos, debemos hacer una simple regla de tres, teniendo en cuenta, en nuestro caso, el valor de N.
  2. b)  Si deseamos saber, en una serie de N = 78, suponiendo una distribución compatible con la normal, cuántos sujetos se sitúan entre zi = -1 y la media, vamos a su derecha y encontramos 0.3413. Este valor de probabilidad equivale a un % de 34,13 que, para N = 78, supone 26,62 casos (27, por aproximación).
  3. c)  Si en esa misma serie deseamos saber cuánto casos quedan por encima, leemos en la columna siguiente Área de la parte mayor 0.8413, esto es, el 84,13 %, que representa 65,62 (66 por aproximación). Tenga en cuenta que al caso b) le estamos sumando el 50 % por encima de la media
  4. d)  Si nuestro interés fuera el de conocer a cuántos sujetos supera quien tiene zi = -1, miraríamos en la columna siguiente, bajo el Área de la parte menor; vemos 0.1587, esto es, el 15,87 %, que, en número de casos es 12,38 (por aproximación, 12)
  5. e)  ¿Por qué hemos mirado el área de la parte menor o mayor? Basta con hacer un sencillo dibujo, situar zi = -1 y ver si lo que buscamos es la probabilidad o el porcentaje menor, mayor o hasta la media. Le recomendamos que haga lo mismo con el valor de zi positivo (zi = 1)
  6. f)  Un caso diferentes puede ser aquel en el que buscamos valores de porcentajes o casos entre dos valores de z determinados y que estos estén ambos por encima o por debajo de la media, o uno por encima y otro por debajo. Veamos (recuerde la conveniencia de hacer el dibujo para su apreciación intuitiva):
Número de casos entre zi = 1,2 y zi = 2,1.
En este caso buscaríamos en las tablas la probabilidad y % correspondiente a 2,1 hasta la media; haríamos lo mismo con 1,2 hasta la media y restaríamos: 0.4821 - 0.1151= 0.3670; 36,70 %; 28,62 casos (29, por aproximación)
CURSO 0 DE ESTADÍSTICA APLICADA
  •   Área desde la media a x/σ
  •   Área de la parte mayor
  •   Área de la parte menor
  •   y. Ordenada en x/σ 
  •   Número de casos entre zi = -1,2 y zi = -2,1.
    Debemos tener en cuenta que se trata de valores negativos, pero que la curva es simétrica. Por tanto, el mismo caso anterior.

  •   Número de casos entre zi = -1,2 y zi = 2,1.
    En esta ocasión, al estar un valor por encima de la media y otro por debajo de la misma, los valores de probabilidad y su traducción a % deben ser sumados. Por tanto: 0.4821 + 0.1151 = 0.5972; 59,72 %; 46,58 casos (47 por aproximación).

  1. g)  Una aplicación, coherente con todo lo anterior, es el caso inverso: ¿qué valores de zi corresponden a determinados valores de probabilidad o de % dados? En estos casos, se debe entrar por la columna correspondiente (dos, tres o cuatro) y, una vez encontrado el valor o el más próximo, desplazarnos hacia la izquierda y leer el valor x/σ correspondiente. Así, encontrar el valor de zi que deja por debajo de sí el 77,04 % supone entrar por la columna de Área de la parte mayor (obviamente, el 77,04 es la parte mayor) y, una vez encontrado, desplazarnos a la izquierda hasta encontrar en la primera columna el valor 0,74. Por tanto: zi = 0,74
  2. h)  Dado lo anterior, compruebe lo fácil que será calcular que puntuaciones zi corresponderán a los diferentes cuantiles: cuartiles, deciles o percentiles. Eso sí, podrá ver en la tabla que, salvo para el Q2 o P50 no encontrará valores exactos, por lo que entrará por los valores más próximos.
    Como Q2 o P50 representan el 50 %, obviamente su zi = 0
    Practiquemos con los siguientes valores: Q3, D6 y P81: Los valores más próximo en las tablas, todos en Área de la parte mayor, son, en puntuaciones zi (columna de la izquierda): 0,67, 0,25 y 0.88.

No hay comentarios.:

Publicar un comentario