Lección 9. Investigación Primaria

"Una experiencia nunca es un fracaso,

pues siempre viene a demostrar algo".

Thomas Alva Edison

 

La investigación experimental es una "investigación científica en la cual el observador manipula y controla una o más variables independientes y observa la variable dependiente en busca de la alteración concomitante a la manipulación de la variable independiente" (Kerlinger, 1975. Citado en Ary y Otros, 1986.p.25).

La investigación primaria se basa en los datos e información recogida directamente por el investigador.

De la recolección de los datos en el proceso de la investigación van  a depender los resultados que se obtenga en dicha investigación. Cuando se habla de  recolección de datos, nos estamos refiriendo a información empírica abstraída en conceptos y por lo tanto tiene que ver con el concepto de medición, proceso mediante el cual se obtiene el dato, valor o respuesta para la variable que se investiga. (Paz, D. Consultado 2010).

En el proceso de recolección de datos, la medición es una pre condición para obtener el conocimiento científico y el instrumento de recolección de datos está orientado a crear las condiciones para la medición.

Los datos son conceptos que expresan una abstracción del mundo real, de lo sensorial, susceptible de ser percibido por los sentidos de manera directa o indirecta. Todo lo empírico es medible. No existe ningún aspecto de la realidad que escape a esta posibilidad. Medición implica cuantificación. (Paz, D. Consultado 2010).

 

9.1 Causalidad y Experimento

La experimentación, se puede definir como la creación de unas determinadas condiciones, para medir mediante procedimientos diversos, entre los cuales se incluyen los estadísticos, los efectos de una o varias variables que se controlan, sobre unos resultados que se suponen consecuencia de las variables controladas (Grande, E. & Abascal F., 2007), es decir para realizar el experimento.

"Una relación causal se define como aquella detectable, según la cual un hecho llamado consecuencia, es atribuible a otro llamado causa".

Respecto de la causalidad se pueden sustentar tres posiciones distintas: a) todo fenómeno tiene una sola causa (principio de unicausalidad); b) algunos fenómenos se deben a una sola causa, pero otros a varias; y c) todo fenómeno obedece a muchas causas (principio de policausalidad).  

El sentido común sostiene habitualmente la primera postura. En la vida cotidiana las personas suelen basarse en este supuesto cuando afirman o creen en enunciados tales como "coma manzanas y adelgazará", o "si estoy enojado se debe simplemente a que usted me hizo enojar", etc., o bien "no aprobé el examen porque el profesor se ensañó conmigo".

Si las personas se mantienen en esta ilusión de la única causa, se debe probablemente a que entre otras razones, en la fantasía podrán controlar la ocurrencia o la no ocurrencia de los acontecimientos dominando un solo factor, o sea de la forma más sencilla.  Si alguien piensa que se resfrió simplemente porque se desabrigó, podrá supuestamente controlar el resfrío abrigándose bien (Cazau, 2006).

La psicología conoce bien esta tendencia. De Vega refiere que "el hombre de la calle utiliza un ‘principio de parsimonia' intuitivo cuando busca explicaciones causales a los fenómenos. Tendemos a sobreestimar el valor de las atribuciones unicausales, a conformarnos con una sola causa plausible, minimizando otras causas concurrentes" (De Vega, 1984 citado por Cazau 2006).

La actitud científica supone siempre el principio de la policausalidad. Años de investigaciones demuestran que la realidad es bastante más compleja de lo que se supone y que cualquier fenómeno, por simple que parezca, obedece a muchas causas que actúan conjuntamente para producirlo.

Se podría pensar que la rotura de un vidrio tiene una sola causa: la piedra arrojada contra él. Este acontecimiento obedece sin embargo a muchas razones que intervienen simultáneamente: el arrojar la piedra, su dureza, su trayectoria, su velocidad, la fragilidad del vidrio, el propio instinto de agresión, etc (Cazau, 2006).

Sin embargo, aun cuando el investigador admite el principio de policausalidad, es consciente de que no es posible conocer todas las causas que producen el fenómeno y por lo tanto, sólo es posible decir que la intervención de las causas conocidas aumentan la probabilidad de que el fenómeno ocurra.

 

El diseño de experimentos busca minimizar el efecto de las cusas desconocidas o no controlables y del error sobre el fenómeno de estudio, de manera que el fenómeno obedezca en un porcentaje alto a las variables  escogidas en la investigación.

En muchas ocasiones, aun cuando el experimentador sabe que el fenómeno obedece a múltiples factores, consideran solo uno de ellos en la investigación. Esto se debe principalmente a razones:

a) Es imposible poner a prueba simultáneamente todas las causas posibles (entre otras cosas porque se desconocen), por lo que el científico decide probar uno por uno cada factor causal en investigaciones separadas e independientes;

b) Al científico suelen interesarle, por razones prácticas, sólo ciertos factores causales y en ocasiones uno solo. Sostenía Freud (1915) que en la causación de la neurosis intervienen varias causas, como los factores constitucionales heredados y los conflictos sexuales infantiles. Freud, sin embargo, se centró en este último factor, porque ese era su interés, aunque, por lo demás, poco podía estudiarse sobre el factor constitucional en aquel entonces  (Cazau, 2006).

Cuando el investigador elige las causas (factores) que pondrá a prueba en el experimento, debe asegurarse que dichas causas son condiciones necesarias y suficientes para causar el fenómeno.

Ejemplo: Se desea evaluar las causas que determinan el que un estudiante apruebe un examen. En éste caso, las causas son 1) haber estudiado, 2) el estado de tranquilidad del estudiante al momento de presentar la prueba y 3) un profesor tolerante que inspira confianza en el estudiante.

Según el principio de policausalidad, si solo una de las causas, "haber estudiado", que es una condición necesaria, se evalúa, no será suficiente para atribuirle todo el peso del fenómeno provocado. El estudiante había estudiado y sin embargo reprobó el examen porque estaba nervioso y el nerviosismo era causado en parte por un sentimiento aprehensivo contra el profesor. Si se evalúa cada causa necesaria por separado no es suficiente. Solo cuando las tres causas necesarias, se evalúan en conjunto, resultan suficientes para explicar el fenómeno.

Por lo tanto podemos decir que una Condición necesaria es aquella que si no está, el efecto no se produce. Estudiar es condición necesaria porque si no estudiamos, no aprobamos. En cambio, una Condición suficiente es aquella que si está, el fenómeno se produce.

En la investigación científica, las condiciones necesarias son importantes porque permiten excluir factores irrelevantes y las condiciones suficientes, porque permiten incluir los factores que son verdaderamente relevantes.

Cuando se escogen muchas causas que no son Necesarias y suficientes, la investigación se desvirtúa, se vuelve engorrosa y más costosa y al final, el investigador podría verse en problemas al momento de cuantificar e interrelacionar múltiples factores que poco o nada influyen en el fenómeno de estudio.

Otros tipos de causa son las denominadas causas Contribuyentes , causas Contingentes y causas Alternativas.

Ø  Una condición contribuyente es aquella que aumenta las probabilidades de ocurrencia del fenómeno, pero no lo hace seguro en un 100%.

Ø  Una condición Contingente, es una situación especial en la cual la condición contribuyente puede realmente actuar como causa.

Ø  Una condición Alternativa es aquella, diferente a la causa suficiente que puede también ser capaz de originar el fenómeno si actúa dentro de un contexto específico.

 

El ejemplo citado por Cazau (2006), explica mejor éstos conceptos:

Una condición necesaria para ser drogadicto, es haber tenido alguna experiencia con drogas. Es condición necesaria y suficiente de la drogadicción el hecho de no poder el sujeto suspender voluntariamente el consumo de drogas: si no puede suspender este consumo el sujeto es drogadicto, pero nadie que investigue sobre las causas de la drogadicción se puede conformar con esta única explicación.

Buscará entonces causas contribuyentes (ausencia de padre), causas contingentes (el habitual consumo de drogas en el barrio), y alternativas (presencia de un padre hostil).

Condición contribuyente es aquella que aumenta las probabilidades de ocurrencia del fenómeno, pero no lo hace seguro. La ausencia de padre aumenta las probabilidades que el adolescente sea drogadicto. Sin embargo, esta condición contribuyente podrá funcionar efectivamente como causa siempre y cuando en el barrio el consumo de droga sea habitual (condición contingente). Y así, una condición contingente es una situación especial en la cual la condición contribuyente puede realmente actuar como causa.

Resumiendo: en las vecindades donde el uso de drogas está generalizado (condición contingente), la ausencia del padre del adolescente (condición contribuyente), contribuye o ayuda a aumentar las probabilidades de que el muchacho sea drogadicto. Decimos que ‘aumenta' su probabilidad pero no lo hace 100 % seguro, porque además el sujeto debe no poder desprenderse voluntariamente de su hábito (condición suficiente).

La condición contribuyente (ausencia del padre) tiene una condición alternativa (presencia de un padre que trata en forma hostil o indiferente al sujeto). En rigor esta última es también una condición contribuyente en tanto también aumenta la probabilidad que el hijo sea drogadicto. Lo que interesa entonces destacar , es que si una condición contribuyente tiene alguna condición alternativa que es también capaz de producir el fenómeno, entonces aumentan aún más las probabilidades de que este ocurra pues ambas condiciones cubrieron todo o casi todo el espectro de posibilidades de la situación del padre.

 

9.2 Variable, Unidad de análisis y Dato

En la investigación primaria, lo que se mide y cuantifica son las "variables". El experimento es la forma  como decidimos llevar a cabo un procedimiento para medir el efecto de las variables independientes (causas), aplicadas sobre las unidades de análisis, en forma de variables de respuesta (variables dependientes).

Variable, es todo concepto susceptible de medición y cuantificación, referida a cualquier característica o atributo de la realidad. Esto significa que podemos conocer la "realidad" en términos de variables, por lo tanto es indispensable identificar cuáles son las variables más apropiadas para describir el fenómeno o realidad objeto de estudio.

Al identificar las variables, se establece  su tipología, sus relaciones  y la forma como las variables Independientes, condicionan, influyen y  explican a otras variables denominadas variables dependientes.

En el proceso de investigación, las variables independientes se estudian o aplican  y se miden sobre un objeto de estudio denominado unidad de análisis. El conjunto de unidades de análisis conforma la muestra, es decir la población sobre la que se realizan las mediciones.

El proceso de medición de las variables de respuesta que son provocadas sobre  la unidad de análisis, por el efecto de las variables independientes origina el dato.

 

9.2.1 Tipos de Variables

En todo experimento se distinguen varios tipos de variables: Variables independientes, variables dependientes, variables ajenas o extrañas, que actúan sobre la unidad de prueba o unidad experimental.

Ø    Variables independientes: Son aquellas que el investigador controla y cree son las que causan un efecto.

Ejemplos:

Tipo de fertilizante y dosis (variables) que se prueban sobre la producción de un cultivo (efecto).

Tipo de droga y dosis (variables) que se evalúa sobre el control de una patología (efecto).

Precio que se fija a un producto y la presentación del producto (variables), para evaluar que tanto influye en su venta (efecto).

Nivel de ingresos (variable) en relación a los productos que se consumen en la canasta familiar (efecto).

 

Ø    Variables dependientes: Aquellas que se supone deben responder o son producto de las modificaciones en las variables independientes, cuando los demás factores causales permanecen constantes.

Ejemplos:

Variaciones en la productividad de un cultivo en kg.ha-1, como respuesta a diferentes dosis y frecuencias de aplicación de un fertilizante, en condiciones ambientales determinadas.

Porcentaje de control de una infección, por efecto del antibiótico suministrado, cuando ya se han descartado otras posibles causas de la patología.

Incremento en las ventas o porcentaje de venta de un producto, debidas a la variación en el precio al consumidor, si los demás factores causales como aceptación del producto, nivel de ingresos permanecen constantes.

Ø    Variables ajenas o extrañas: Son aquellas distintas a las variables independientes que afectan los resultados (efectos) y que el investigador no puede controlar.

Ejemplos:

Influencia de una época de intenso verano sobre la productividad de un cultivo en kg.ha-1. El clima es una variable difícil de controlar. Por lo tanto, en el experimento en donde se pretende medir el efecto de las dosis de fertilizante en la producción de un cultivo a libre exposición, las condiciones ambientales no controladas podrían sesgar los resultados y finalmente la producción obtenida no sería solo producto de las diferentes dosis y frecuencias de aplicación del fertilizante, sino que estaría fuertemente afectada por la no disponibilidad de agua.

En el caso del Porcentaje de control de una infección, por efecto de un antibiótico suministrado, podría ocurrir que el paciente no respondiese al tratamiento debido a una resistencia previamente adquirida al antibiótico que se le ha suministrado.

En el ejemplo del estudio para evaluar el incremento en las ventas o porcentaje de venta de un producto, debidas a la variación en el precio al consumidor, podría ocurrir que la competencia también bajara los precios, lo cual es un factor no controlable y que va a afectar los resultados del estudio ya que varia las condiciones normales del mercado.

Los siguientes ejemplos ilustran mejor las diferencias entre variables dependientes e independientes, unidades de análisis y datos:

Ejemplo 1. Se desea conocer el efecto que tiene sobre el aumento de peso en cerdos de engorde, el porcentaje de proteína contenido en la dieta suministrada. En éste caso tenemos:

Unidad de análisis: Cerdo

Muestra: 20 cerdos

Variable independiente: Porcentaje de proteína de la dieta

Variable dependiente: Ganancia en peso/ día

Dato: Peso en gramos.

 

Ejemplo 2. Un estudio pretende determinar las principales causas de drogadicción en la población adolescente de una institución educativa.

Unidad de análisis: Jóvenes entre los 12 y 17 años

Muestra: 100 jóvenes de los grados 7º, 8º, 9º, 10º

Variables independientes: Ausencia del padre en el núcleo familiar, ausencia de la madre en el núcleo familiar,  padres trabajadores y ausentes la mayor parte del tiempo, nivel socio económico, aficiones del grupo de amigos, presencia de  patologías depresivas en los jóvenes.

Variable dependiente: Consumo de drogas

Dato: Porcentaje de población drogadicta

 

9.2.2 Operacionalización de variables cualitativas

En los estudios cualitativos, las variables pueden ser características, comportamientos, situaciones, tendencias, percepciones, que no son tangibles y que no pueden ser medidas directamente. En éste caso es necesario dar un tratamiento especial a los datos, para volver cuantificable algo que en esencia no lo es.

Para ello se hace uso de indicadores y de diferentes sistemas de medición a fin de poder agrupar los datos de forma que sea posible realizar su posterior análisis y dar respuesta a la pregunta de investigación.

Los indicadores, sistemas de medición y categorías, permiten dar valores numéricos a las variables cualitativas.

Ø   Indicador: concepto operacional de la variable que expresa uno y sólo un dato para la variable.

 

Ø   Sistema de medición: existen los siguientes:

a) Nominal: distribuye a las unidades de análisis en categorías intransferibles.  No expresa orden ni jerarquía; simplemente diferencia entre uno y otro.

 

Ejemplo: Sexo (Indicador), se distribuye en hombre y mujer (categorías). Ninguno de los dos puede estar en el grupo del otro.

 

b) Ordinal: distribuye a las unidades de análisis según jerarquía u orden: más - menos; superior - inferior ; mayor - menor, etc.

 

Ejemplo: nivel de educación (indicador): primaria, secundaria y superior universitaria (categorías) , esta última categoría expresa un mayor nivel de educación que la primera categoría.

 

c) Intervalo: distribuye a las unidades de análisis según jerarquía u orden, en grupos comparables.

 

Ejemplo: nivel de ingresos en salarios mínimos (indicador): 01 a 100; 101 a 200; 201 a 300 (categorías).

 

Ø    Categoría: Son conceptos que expresan la distribución de las unidades de análisis según cada sistema de medición.

 

Ejemplo:

De la variable sexo, sus categorías son Hombre y Mujer.

De la variable "nivel de educación", sus categorías son: primaria, secundaria y superior universitaria.

De la variable "Nivel de ingreso" son nivel bajo: 01 a 100; nivel medio: de 101 a 200; y, nivel alto: 201 a 300.

 

Ø    Dato: es el valor o respuesta que obtiene la variable en cada unidad de análisis.

Ejemplo: Hombre, Educación primaria, Nivel de ingresos bajo ( 01 a 100).

 

Ø    Código: Es un símbolo arbitrario para sintetizar la información y que facilite su procesamiento. Se utilizan como códigos los números arábigos para identificar cada categoría de la variable.

Ejemplo:

Sexo: 1. Mujer; 2. Hombre.

Nivel de Educación: 1. Primaria; 2. Secundaria; 3. Superior Universitaria.

Nivel de ingresos: 1. Bajo; 2. Medio; 3.alto.

 

Así la Operacionalizaciòn de la variable "Hombre, Educación primaria, Nivel de ingresos bajo", sería 2.1.1.