Cinta de Moebio: Revista de Epistemología de Ciencias Sociales

Bar, A. 2010. La metodología cuantitativa y su uso en América Latina. Cinta moebio 37: 1-14. doi: 10.4067/S0717-554X2010000100001

PDF


La metodología cuantitativa y su uso en América Latina

Quantitative methodology and its use in Latin America

Mg. Aníbal R. Bar  (anibalroque@yahoo.com.ar) Facultad de Ciencias Exactas y Naturales. Universidad del Nordeste (Corrientes, Argentina).

Abstract

In this essay it is reviewed the main concepts of quantitative methodology, considering the historical context of science in Latin America and it is showed the areas of knowledge that use quantitative studies in Latin American in journals.

Key words: quantitative, variable, procedure, dimension, unit of analysis.

Resumen

En este artículo se revisan los conceptos principales de la metodología cuantitativa, considerando el contexto histórico de la ciencia en Latino América y se presentan las áreas del conocimiento que se nutren de estudios de tipo cuantitativo en Latino América en revistas de investigación.

Palabras clave: cuantitativa, variable, procedimiento, dimensión, unidad de análisis

El contexto histórico de los métodos cuantitativos y su inserción en la ciencia europea

Bajo el rótulo de “métodos cuantitativos” se identifica una variada serie de conceptualizaciones y procedimientos no siempre afines, cuyo elemento común reside en la propiedad de objetivar el fenómeno en estudio a través de la medición, u otras operaciones como la clasificación y el conteo.

El acto de medir no fue un procedimiento habitual hasta los inicios de la modernidad, donde las demandas ejercidas sobre las profesiones técnicas tuvieron un impacto apreciable sobre la Europa renacentista. Los ingenieros, hasta entonces artesanos analfabetos, ya no eran operadores o constructores de máquinas simples, sino personas cada vez más instruidas y con un status social en marcado ascenso (Martínez 1997).

Da Vinci es el caso más notable del nuevo tipo de ingeniero, quien combina adecuadamente el conocimiento académico, con la observación y el saber práctico. No puede obviarse que el contexto de Renacimiento es profundamente humanista, y que en este escenario no basta la ingeniería naval o la maquinaria bélica, sino que el enriquecimiento del espíritu y el valor estético también son importantes. La mixtura dada en Da Vinci deviene en un ingeniero preocupado no sólo por los mecanismos, sino también por los diseños, la estética y otras cuestiones que hacen al desarrollo del espíritu humano.

La industria de la relojería en progresivo avance condujo a la producción de relojes cada vez más precisos (invención del péndulo mediante), a la vez que de maquinaria más compleja y con un plus estético dado en cierta espectacularidad destinada a asombrar a ciudadanos y visitantes.

La máquina moderna, cada vez más sofisticada, da el marco a una nueva visión del mundo que concibe a éste como tal. Dicha metáfora llevó a pensar que así como el hombre podía construir mecanismos, era factible que Dios hubiera hecho lo mismo con el universo, lo construyera y lo echara a andar; Dios como el gran ingeniero.

La concepción mecanicista del mundo dio lugar en el siglo XVII al acercamiento de dos disciplinas hasta entonces distanciadas, la física y la matemática. Ambas colaboraban de modo importante con la astronomía vigente, la primera aportando datos empíricos, la segunda, la formalización necesaria para la modelización de los fenómenos. Tanto Descartes como Galileo emprenden el proyecto de unificación de ambas ciencias, proyecto que tiene como premisa el reconocimiento de la importancia de la matemática en las ciencias empíricas.

El otorgamiento de status a la matemática posibilitó la fundamentación de la tecnología naciente, y con ésta, el progreso social, a la vez que, su inclusión en los programas de estudio de los curricula de educación superior.

La nueva concepción heterodoxa llevó a la matemática a un lugar de privilegio entre la disciplinas, pues posibilitaba la confirmación de los principios de la ciencia empírica. Nace así una matemática mixta, o sea, una ciencia empírica formulada por medios matemáticos. Dicho de otro modo, la fundamentación de una ciencia empírica basada en principios derivados de la observación, pero expresados cuantitativamente. Un buen ejemplo de esto es el primer postulado de Arquímedes “sobre el equilibrio de planos”, el cual afirma que pesos iguales a distancias iguales están en equilibrio, y pesos iguales a distancias desiguales no lo están, inclinándose hacia el peso que está a mayor distancia.

Lo que las mediciones de Arquímedes expresan es una regularidad que, independientemente de las dimensiones de los planos y el valor de los pesos, ocurrirá necesariamente cada vez que se opere con ellos. Por una parte, la objetividad de los planos, distancias y pesos otorga a la operación la cualidad de ser empírica, pero por otra, lo dado como regular puede ser trastocado en una fórmula que expresa relaciones entre sus componentes, fórmula que podrá usarse en muchos otros casos donde dichos componentes asuman valoraciones diferentes (Martínez 1997). Esto último es no es una cuestión menor, ya que se independiza de lo empírico y posibilita abstraer el fenómeno y operar aun en ausencia de material concreto.

La tensión entre quienes defienden los datos reales y los que abogan por fórmulas abstractas, no es más que la disputa entre quienes suponen que se debe partir de la observación sistemática para construir conocimiento sobre el mundo empírico, y quienes creen que éste puede alcanzarse de modo indubitable por la vía matemática. Ambos modos de conocer, configurarán en el transcurso del siglo XVII dos expresiones acerca del conocimiento científico, expresadas éstas en el pensamiento de Galileo y Harvey por una parte, y Descartes, por otra.

La ciencia en España y sus derivaciones en América Latina

El primer período de la ciencia española corresponde la continuidad de la ciencia renacentista con cierto prestigio en la náutica, la medicina y la historia natural. El segundo período, más prolongado va desde 1630 hasta 1680 y comprende el ingreso de las nuevas ideas científicas. Esto lleva a un enfrentamiento con la nueva ciencia, la que tomará dos caminos diferentes, la aceptación no sin cierto recelo, o el rechazo de plano. La primera fue adoptada por médicos galenistas respetables como Gaspar Bravo de Sobremonte, Pedro y Gaspar de Heredia, de la Fuente Pierola, quienes no obstante haber aceptado los últimos descubrimientos en lo atinente a su disciplina, ratifican una y otra vez la tradición galénica. El tercer período se corresponde con el último tercio del siglo XVII, cuando hacen su aparición los primeros científicos modernos españoles conocidos con el nombre de novatores, más precisamente durante el reinado de Carlos II (López Piñero 1979).

El movimiento novator español ofreció contribuciones trascendentes, los fundamentos metodológicos de una nueva ciencia, entre ellos los cuantitativos, el inicio del fin del principio de autoridad, el progreso como programa de superación del atraso. Ante la dominación que los científicos tradicionalistas ejercían sobre las instituciones, los novatores tienden a agruparse en nuevos espacios donde la ciencia encontrará un lugar más apto para su desarrollo. Así nacen el Colegio San Telmo de Sevilla, cuyo trabajo se plasman en la astronomía, la geografía y la náutica; la Sociedad de Medicina, la Academia de Química, y la Academia de Buenas Letras (López Piñero 1979).

La ciencia colonial se construye a instancias de procesos de institucionalización, lo que conlleva a aceptar condicionamientos locales decisivos en torno de roles socioprofesionales. Latinoamérica ejemplifica especialmente las limitaciones de los modelos evolutivos para explicar la universalización de la ciencia moderna. En la ciencia colonial convergen tres clases de científicos, el criollo, el virreinal y el metropolitano. Particularmente este último comprende las elites de la formación académica, fomentando la enseñanza y el aprendizaje en el marco de estructuras administrativas (Lafuente y Sala 1992).

América Latina, y particularmente el Río de la Plata, se desarrolla con posterioridad a la Revolución de Mayo, sobre todo en el ámbito de la Escuela de Matemática. La relación entre el ejército y la ciencia se funda en la necesidad de formar artilleros y personal capacitado en la incipiente industria bélica. Al parecer, los criollos percibieron la necesidad de esta alianza, de modo análogo al modelo transmitido desde la metrópolis, en pos de una mayor injerencia en asuntos que le son propios. Si bien ésta fue una impronta que marcó la formación en el ámbito científico de esa época, no es menos cierto que la medicina y las ciencias naturales, también ocuparon un lugar preponderante. Así nace la Universidad de Buenos Aires en 1820 (Babini 1986).

En el ámbito de las ciencias naturales, ocupó un lugar destacado Bompland, quien no obstante ser de origen francés, desarrolló una tarea destacable en nordeste de Argentina y sur de Paraguay, fundando en la ciudad de Corrientes (Argentina) el Museo de Ciencias Naturales que hoy lleva su nombre.

Toda la ciencia no humanística desarrollada durante el siglo XIX en Latinoamérica, está marcada por una fuerte matriz empirista, donde la observación y la medición ocupan un lugar preferencial en el marco de una metodología “científica”.

El status de la medición en la “nueva ciencia”

En la breve referencia histórica precedente, se intentó esbozar el contexto de la Europa moderna con derivaciones en sus colonias, particularmente latinoamericanas. Si bien la escueta descripción del escenario no da cuenta de todos los matices en torno de la nueva concepción de ciencia imperante a partir del siglo XVII, deja en claro que los métodos y las técnicas en este nuevo marco son esencialmente diferentes de la tradición renacentista. Tal vez, una de las distinciones más fácilmente perceptible, es el lugar que va a ocupar “la metodología objetiva”, y en ella, la medición como operación sine qua non.

Uno de los autores que aborda de modo más elocuente la operación de cuantificación y medición es Bachelard, quien afirma que la cantidad representada se halla “a mitad de camino entre lo concreto y abstracto, en una zona intermedia en la que el espíritu pretende conciliar las matemáticas y la experiencia, las leyes y los hechos” (Bachelard 1993:7). Expresa también que dicha tarea se reveló insuficiente, pues se ha fundado sobre un realismo ingenuo que oculta vínculos esenciales más profundos. El autor alude a la necesidad de trabajar por debajo de lo dado, hacia construcciones más metafóricas que reales.

Bachelard acuña el concepto de obstáculo epistemológico para referirse a causas, estancamientos y retrocesos que producen inercia en la producción de conocimiento científico, y señala que “Tener acceso a la ciencia es rejuvenecer espiritualmente, es aceptar una mutación brusca que ha de contradecir un pasado” (Bachelard 1993:16). Dicho de otro modo,  hacer ciencia es superar obstáculos epistemológicos.

De entre los diferentes obstáculos identificados por Bachelard, uno de ellos es el del conocimiento cuantitativo, entendiéndose éste como inmediato y falaz, ya que la magnitud no es automáticamente objetiva. La subjetividad implícita tiene que ver con que todo objeto nuevo trae consigo determinaciones inadecuadas, pues será necesario ampliar el horizonte de estudios para que emerjan las variables más convenientes.

La obra de Bachelard pone énfasis en las implicancias de la medición en el contexto científico. Al respecto señala que el científico se aproxima a su objeto mal definido, para luego medirlo, acotando que “más que objeto de su medida, el científico describe el método de medida” (Bachelard 1993:250), y agregando que “El científico cree más en el realismo de la medida que en la realidad del objeto” (Bachelard 1993:251).

No obstante el realismo de la medida, el autor hace notar que la búsqueda de una falsa precisión se acompaña del examen de una sensibilidad espuria, pues dicha sensibilidad no aporta nada relevante a la construcción del dato.

Para Bachelard, el conocimiento sólo será objetivo en la medida que sea instrumental. Si bien los instrumentos para dar cuenta de las propiedades del fenómeno en estudio no son patrimonio exclusivo de los abordajes cuantitativos, no es menos cierto que desde esta perspectiva se ha valorado sobremanera el uso de ellos en pos de la objetividad tan preciada. En este contexto, se afirma que la información se convierte en un valor por sí mismo, lo que trae como consecuencia lo que se denomina “fetichización del dato” (Samaja 1995).

El dato “fetiche” es aquel que se torna en un objeto en sí mismo, y no el que sólo aporta información a ser leída desde alguna perspectiva teórica. El dato “fetiche” adopta tal entidad que parece “hablar por sí mismo”, como si no requiriera más que la observación para extraer de él su contenido de manera inmediata. En este sentido, el dato opera, al decir de Bachelard, como un verdadero obstáculo epistemológico, como un escollo que impide la producción del conocimiento científico.

El positivismo y su influencia en los siglos XIX y XX

Así como en los siglos XVII y XVIII se inicia la contribución a la objetivación de los fenómenos, en épocas más recientes, la concepción positivista del conocimiento científico ejerció un claro dominio en las maneras de entender la medición y la naturaleza de los datos empíricos, concepción que se enmarca en los siguientes supuestos básicos:

  • La ciencia es la “ciencia natural”, o sea aquella sustentada en principios experimentales que implican la manipulación de variables independientes y la medición de variables dependientes.
  • La ciencia se basa en leyes universales que establecen regularidades entre variables, las que se fundan sobre bases probabilísticas y estadísticas.
  • La ciencia se edifica sobre esquemas observacionales que posibilitan tanto la identificación de las regularidades descritas en las leyes, como su puesta a prueba. Esto conlleva aceptar que la ciencia se corporiza en dos momentos diferentes, el contexto de descubrimiento y el contexto de justificación.

Los principios precedentes no sólo son discutibles en cuanto a su alcance, sino de dudoso logro cuando se recurre a la historia para contrastarlos con hechos científicos del pasado. Aunque las ciencias naturales parecen adscribirse mejor a este modelo, las ciencias sociales muestran numerosas dificultades a la hora de enmarcarse en dichos cánones, pues no toda ella se sustenta en principios universales, regulares ni experimentales.

La ciencia positiva fundada en los principios antes mencionados, supone que todo dato  científico es, por lo tanto, aquello que aparece como indubitable ante nuestros sentidos, pues surge de la observación de las regularidades.

En consonancia con lo señalado antes, se supone un dato científico constituido por tres  elementos: las unidades de análisis, las variables y los valores, los que conforman una estructura a la que se denomina matriz de datos (Galtung 1978).

La estructura de dato según lo concibe Galtung parece dar cuenta de elementos observables (los componentes de la matriz), que al menos en principio no darían lugar a discusiones en  torno de ellos, pues tanto las unidades de análisis (objetos por naturaleza), como las variables (las propiedades de los objetos) y los valores (las diferentes manifestaciones de las propiedades), están sin más ante los sentidos del observador. Dicha tesis obvia cualquier proceso de mediación entre lo dado directamente a los sentidos, y los significados implicados en las atribuciones hechas sobre las unidades de análisis, variables y valores.

La matriz como estructura invariante del dato científico

A diferencia de Galtung, puede verse la estructura del dato no como mera información sensorial, sino como una construcción del sujeto epistémico, construcción que supone la puesta en juego de procesos conectores entre “lo sentido” y “lo percibido”. Dicha conexión se establece merced del devenir histórico del contexto en que se inserta el investigador, tesis que se deriva en la negación de la existencia de un observador ingenuo o aséptico.

Pareciera que las afirmaciones de Galtung refieren a datos sin sujetos ni marcos históricos definidos. Asumir la existencia de una historia constructiva implicaría echar por tierra con la fidelidad de los sentidos, y el servicio de éstos a la mentada objetividad.

La historia en la construcción del dato se hace patente a la hora de generarlo, pues aquello que parece sólo información, no es más que el producto final de una operación cognitiva, tan obvia y naturalizada, que ni el propio sujeto epistémico alcanza a tomar conciencia de ella.

Desde otras perspectivas, puede imaginarse un cuarto elemento participante de la estructura del dato científico, el indicador, elemento que resume en sí su historia constructiva. Éste consta de dos componentes, la dimensión y el procedimiento. El primero como los significados o sentidos operantes en la variable en estudio, y el segundo como las técnicas necesarias para tornar en observable las dimensiones. En este marco, el indicador posibilita dar cuenta de las propiedades (variables) de la unidad de análisis, a través de la identificación de diferentes estados de éstas (valores). En síntesis, el indicador (dimensión y procedimiento) es la “encarnación” del proceso histórico constructivo de un sujeto en un contexto definido, cuyo producto final es el dato científico consumado: unidad de análisis, variables y valores (Samaja 1995). Dicho de otro modo, el dato científico consta de dos partes diferenciadas netamente, una que refiere a un proceso, y que como tal es histórico e intersubjetivo, y otra que alude a un producto final y objetivo; si bien sólo este último es considerado habitualmente dato, consideración que implica la adopción de información dada como “evidente”, pero que soslaya su génesis.

Puede afirmarse que no existe una única matriz de datos, sino un sistema de matrices de datos. La matriz focal o central opera en un nivel que el autor denomina “nivel de anclaje” (Na), pues éste constituye la jerarquía en la cual se centran las operaciones necesarias para el logro de los objetivos. La matriz central se inserta en otra de mayor complejidad constituyente del “nivel supraunitario” (N+1), a la vez que da cabida a otra de menor jerarquía, la que forma parte del “nivel subunitario” (N-1). Las relaciones existentes entre los tres niveles citados se inscriben en los vínculos dados entre suprasistema, sistema y subsistema (Samaja 1995).

La lógica sistémica subyacente entre niveles de matrices difiere de la lógica conjuntista, en el sentido de que la primera supone que las propiedades de cada nivel emergen de la integración de los niveles inferiores, es decir cada propiedad emergente sintetiza las propiedades del nivel subyacente, síntesis resultante de las relaciones, y no de la mera agregación. Por su parte, la lógica conjuntista supone que el todo es suma de partes, por lo cual la totalidad sólo difiere de cada parte por sus propiedades cuantitativas, pero no cualitativas, dado que éstas permanecen inmutables a pesar de la variación numérica.

El dato numérico a la luz de las matrices de datos

No obstante la estructura compleja del dato científico, pareciera que en la mayoría de las investigaciones cuantitativas éste se reduce al valor de variable, o sea, al valor de la medición en sentido estricto, pues es sobre ellos que se calculan los estadísticos poblacionales y se realiza el mayor número de atribuciones. Esta forma de entender la cuestión obvia que el valor por sí no tiene sentido si no se lo enmarca en la propiedad estudiada, y en el objeto que detenta esa propiedad. Tal parece que la operación de medición se pondera como la más importante de todo el proceso de investigación, cuando en realidad es sólo una operación entre tantas. La diferencia fundamental entre ésta y otros procedimientos no radica en su complejidad, sino en la función que tendrá finalmente a la hora de validar la hipótesis sustantiva o falsar la hipótesis nula. Esto último no es un dato menor, ya que las metodologías cuantitativas, frecuentemente asociadas a las posturas hipotético-deductivas, valoran sobremanera dicho papel.

Según lo expresado antes, el dato cuantitativo resultante de la medición es un valor de variable. El término valor alude a la idea de número, de lo que se deriva habitualmente que dato cuantitativo es aquel expresado numéricamente, pero dicha afirmación de aparente sencillez, esconde una serie de supuestos discutibles, pues el uso de éste no siempre alude a una misma clase de operación (Bar 2000).

Las operaciones que se derivan en un dato numérico pueden ser tres, nominación, ordenamiento y medición, con lo cual queda claro que este último es sólo uno de los tres procedimientos posibles en términos de atribución numérica.

En la nominación, el número es un nombre o marca de identificación, operación relacionada con el mero uso de categorías sin cuantificación alguna, por ejemplo, listado de alumnos identificado por números.

El ordenamiento supone tal operación, es decir, la organización de los datos en una serie de números, pero en este caso éste sólo indica una posición en la escala, no una unidad de medida, por ejemplo, la escala de calificación.

La medición es la atribución de numerales a las propiedades de los sistemas materiales, según leyes que presiden esos atributos (Campbell 1928). Aquí el número se corresponde con unidades objetivas y constantes, las que admiten operaciones aditivas, y cálculos estadísticos y probabilísticos complejos, por ejemplo, la escala termométrica.

En cualquier caso que se use números, éstos se vinculan en una serie denominada escala, las que podrán ser según los casos, nominales, ordinales, o de medición (interválicas y proporcionales). En realidad sólo estas últimas constituyen verdaderas escalas, ya que además del orden, comparten otra propiedad de las series numéricas, la distancia (relación invariante entre una unidad de medida y su precedente o siguiente). Un caso particular lo constituyen las escalas interválicas que, si bien miden al poseer las dos propiedades nominadas anteriormente, no posen origen natural o cero (éste es sólo convencional) al no poder determinarse el punto de inicio, característica que imposibilita establecer proporciones.

Así, en términos de matrices de datos, un dato numérico está constituido por un número que indica una marca de identificación, orden o medida (valor) de una propiedad (variable) que refiere a una entidad o cosa (unidad de análisis). Dicha asignación sólo es posible a través del uso de un indicador que involucra ciertos instrumentos y operaciones (procedimientos) en función de conceptos identificados como relevantes (dimensiones).

Según lo expresado en el párrafo anterior, sin indicador no es posible la construcción del dato científico, pero para que éste sea tal hace falta que presente dos propiedades insoslayables, la validez y la confiablidad.

La validez alude al contenido de los conceptos en juego, por lo tanto está basado en el “qué” involucrado en los objetivos de investigación. Así, un indicador es válido si se construye en relación con los conceptos relevantes (dimensiones) implícitos en la variable. Ejemplo: una encuesta formulada en función de preguntas que dan cuenta de las nociones en estudio, es válida.

La confiabilidad, a diferencia de la validez, no se apoya en los contenidos de la variable, sino en los procedimientos que admiten el trabajo con éstos. Dicho de otro modo, la confiabilidad se sustenta en el “cómo”, o sea, en la forma o lógica que asume la tarea, forma que deberá ser consistente, es decir, presentarse de manera similar en contextos semejantes.

La confiablidad es una propiedad menos intuitiva que la validez, pues los procedimientos son más difícilmente evaluables que las nociones. Estas últimas están o no comprendidas en los instrumentos, en tanto que los procedimientos siempre están, aunque se podrá discutir sobre su grado de consistencia. Amén de ello, la confiablidad queda comprendida al menos en dos instancias del procedimiento, el instrumento y el observador. En el campo de las ciencias sociales puede agregarse un tercer elemento, el informante.

La confiabilidad del instrumento atañe al ordenamiento de las preguntas del cuestionario (comenzando por lo más conocido y general, y menos controversial; y terminando con lo menos conocido y particular, y más polémico), el léxico o jerga utilizada (adecuada a los actores), la significación de los términos en el que se expresan las cuestiones (unívocos), el tiempo necesario para ejecutarlo (suficiente para no agotar al respondiente), entre otras.

La confiabilidad del observador implica que éste deberá operar siempre del mismo modo en los mismos contextos, pues su interferencia puede alterar los datos que se recolecten.

En aquellos casos que se requiera informante, éste deberá ser consistente, es decir, no variar sus respuestas en caso de que los contenidos de las preguntas sean similares. En el campo de las metodologías cualitativas se los suele denominar informantes calificados, término que si bien no se utiliza en el marco de las estrategias cuantitativas, es un vocablo que da buena idea acerca de qué requisitos debe reunir éste. En estas últimas, suele calcularse el coeficiente de variación para saber cuál es el grado de variabilidad que presenta el respondiente a una encuesta. Si este valor supera el 50%, se considera que es demasiado variable y, por lo tanto, se lo desecha.

No es suficiente que el indicador se apoye exclusivamente en la confiabilidad o en la validez, ambas propiedades deben estar presentes a la hora de ponerlo en marcha, independientemente de la estrategia metodológica que se utilice. Si bien las alternativas cuantitativas las aprecian de manera superlativa, no es menos cierto que el abordaje cualitativo también requiere de ellas, aunque valoradas de modo más intuitivo y sin el rigor estadístico propio de la cuantificación.

Componentes y características comunes de las metodologías cuantitativas

Si bien las metodologías cuantitativas no son homogéneas, se pueden identificar en ellas una serie de supuestos básicos, a saber:

  • Centran su atención en la representatividad del dato, de modo de poder generalizarlos.
  • Asumen la regularidad de los hechos o eventos.
  • Relativizan la importancia de los contextos naturales.
  • Se interesan por lo repetitivo, frecuente y “normal”.
  • Ponen el acento en la predicción y la explicación.
  • Enfatizan sus acciones en pos de identificar las formas de distribución de la población.
  • Hacen uso de la clasificación, el conteo y la medición como operaciones fundamentales que permiten la comparación de poblaciones o fragmentos de ellas.
  • Se orientan a los resultados, más que a los procesos.
  • Definen las cuestiones metodológicas a priori.
  • Parten de hipótesis e intentan validarlas.
  • Abogan por un observador externo, objetivo y “no contaminado”.

Los supuestos precedentes se corporizan en procedimientos y operaciones secuenciados a lo largo del desarrollo de la metodología. En dicho contexto, ésta se ocupa de establecer los criterios de selección y plan de muestreo en función del universo en estudio, adoptando las técnicas más adecuadas según los casos.

Habitualmente se define el universo como el conjunto de individuos u objetos de los que se desea conocer algo (Camel 1970), si bien las definiciones también suelen hacer hincapié sobre las características de los objetos, susceptibles de ser estudiadas (Polit y Hungler 1987).

El universo puede ser finito o infinito. En el primero de los casos, su estudio podrá hacerse a través de censos o muestras; cuando es infinito, sólo por el segundo método. Los conceptos de finito e infinito en la metodología tienen una carga relativa, pues en algunos casos no es posible definir plenamente los límites del universo. Para ciertos tipos de estudio, donde éste no es excesivamente extenso, el censo no sólo es posible sino a veces aconsejable, pero tiene la desventaja de los costos y tiempos implicados.

Del universo se extraen las muestras, de las cuales habrán de inferirse los resultados. Una buena muestra es una muestra representativa, no obstante que los criterios de representatividad no son unívocos. Habitualmente las metodologías cuantitativas se basan en criterios sustentados en la diversidad del universo, es decir, una buena muestra es aquella que puede dar cuenta de toda la diversidad existente, por lo tanto, cuanto más diverso sea el universo, mayor será la muestra. A la inversa, cuanto menor sea el nivel de error que el investigador esté dispuesto a aceptar, mayor será el tamaño muestral. Ambas propiedades, la diversidad (dada en el desvío standard) y el nivel de error, expresadas en valores numéricos, permiten calcular el tamaño mínimo de la muestra. Por debajo de dicho valor la muestra es inválida desde la perspectiva estadística, pero por encima de él, no obstante su validez, tampoco se agrega información relevante. 

En este contexto, las relaciones entre universo y muestra obedecen a la lógica conjuntista ya mencionada, pues se supone que esta última muestra la misma información que el primero. Dicho de otro modo, universo y muestra operan en un mismo nivel jerárquico (en término de matrices de datos), diferenciándose sólo en el número de elementos constituyentes. Por ejemplo, si las unidades de análisis del nivel de anclaje son algunos alumnos (los de la muestra), desde la lógica conjuntista el universo estará formado por todos los alumnos (aun los que no forman parte de la muestra).

Si se acuerda con lo expresado en el párrafo anterior, podría afirmarse que la investigación cuantitativa opera en el marco de una lógica conjuntista, y que no cabría forma sistémica alguna para captar la complejidad desde esta perspectiva. Sin embargo, sí es posible dicha forma de abordar la realidad, al tener en cuenta que las unidades de análisis constituyentes de la muestra son nada más que elementos de un complejo mayor que le otorga sentido. Por ejemplo, si las unidades de análisis del nivel de anclaje son algunos alumnos, y la unidad de análisis del nivel supraunitario es una institución determinada (privada o pública), conocer este contexto servirá de marco para entender el comportamiento de tales alumnos. Del mismo modo, dichas unidades de análisis podrán descomponerse en elementos de menor jerarquía, de las que éstas serán contexto (por ejemplo, las evaluaciones de los alumnos).

Nada impide que el abordaje cuantitativo se enmarque en perspectivas sistémicas de análisis de la realidad. De hecho, la teoría general de sistemas propicia la cuantificación de los fenómenos y sus propiedades a través de ecuaciones diferenciales u otros dispositivos matemáticos, sin despreciar los procedimientos analíticos, pero enmarcándolos en síntesis ulteriores, síntesis que posibilitan la reintegración de la totalidad en una única unidad de sentido. Una dificultad de la postura cartesiana a ultranza, sostenida a menudo en los diseños empírico-analíticos, es el excesivo énfasis puesto en técnicas que desagregan la realidad sin volver la mirada hacia los objetos o procesos sobre los cuales se formularon los objetivos de investigación.

En la metodología cuantitativa, la recolección y el análisis de los datos corresponden a instancias diferentes. Ambas se establecen a priori, y por lo general una vez proyectadas no se modifican, salvo en cuestiones de menor relevancia que no afectan la confiabilidad o validez del dato a producirse.

La recolección refiere al acopio de información, tarea que se lleva a cabo en dos contextos diferentes, el de campo y el experimental. El primero tiene la virtud de no hallarse afectado por la artificialidad del contexto, pero puede resultar menos válido y confiable al introducirse inadvertidamente variables que afecten sus resultados. El segundo puede valorar el nivel de sesgo al establecer el control de la situación, con lo cual mejora sustantivamente la confiabilidad y validez de la información, pero puede pecar de artificioso. La posibilidad de operar en uno u otro contexto depende e influye a la vez sobre los objetivos de investigación, la naturaleza del fenómeno, y las limitaciones metodológicas.

Los objetivos de investigación formulan de modo expreso lo que se quiere lograr en términos de conocimiento científico, si se apunta a identificar los modos que asumen las variables, o bien las clases de relaciones entre éstas, el trabajo de campo es lo habitual. Por el contrario, si lo que se pretende es la normalización de procedimientos, o la valoración estricta de la influencia de las variables independientes sobre las dependientes, el diseño experimental es lo corriente. El primero está más orientado al hallazgo de las regularidades y, por ende, al descubrimiento de las leyes que las prescriben, en tanto que el segundo, a la validación o justificación de las hipótesis.

La naturaleza del fenómeno también interactúa con el contexto de recolección de los datos. Aquellos que no admiten la manipulación material de las variables, o bien acontecen en ámbitos con poco margen para el control se realizan a campo. De modo opuesto, los que sí posibilitan la manipulación y el control, se efectúan experimentalmente.

Por su parte, las técnicas y procedimientos implicados en la metodología, se vinculan análogamente con las decisiones sobre la selección de los contextos de recolección de datos. Las técnicas no intrusivas como la observación espontánea, aunque pueden utilizarse en cualquier contexto, son aconsejables para el trabajo de campo, dado que afectan poco el desarrollo del fenómeno observado. Por su parte, los procedimientos que sí alteran los hechos, o bien los generan, se restringen exclusivamente al marco de la experimentación.
Los instrumentos que permiten la recolección de los datos en el marco de las alternativas cuantitativas son variados, las guías de observación, los cuestionarios (entrevistas y encuestas), y escalas. En general, salvo las entrevistas, se generan y codifican a priori, son de tinte estructurado y con escaso o nulo margen para modificarlos una vez que han sido elaborados. Dicho carácter se da en función de que los mismos, la mayoría de veces, han sido sometidos a rigurosos test de confiabilidad y validez, por lo cual, cualquier alteración de los mismos conlleva también alteraciones en ambas propiedades.

Otra característica de los instrumentos mencionados es su capacidad de centrarse sobre aspectos manifiestos (discursos y actos) y sin requerimiento de interpretaciones inmediatas. Un buen recolector de datos habrá de mantenerse neutral y objetivo si quiere captar lo que debe captar. Esta actitud genera sobre todo descripciones más o menos minuciosas, aunque sin posibilidades de explicar los estados de cosas ni las ocurrencias fenoménicas; para ello se requerirá de otros recursos que, aunque compatibles con las alternativas cuantitativas, provienen de perspectivas más propias de la cualificación.

Las guías de observación son apropiadas para obtener datos in situ, admitiendo a la vez posibilidades de análisis ricos y minuciosos luego de concluida su puesta en ejecución, pues permite tanto la observación de acciones como discursos. A diferencia de los demás instrumentos, aunque los sujetos hagan uso de expresiones verbales, éstas sólo sirven para categorizar el discurso, pues no son respuestas al observador, sino a los demás receptores de la comunicación. En este marco el observador es no participante, dada la posición neutral asumida.

Las encuestas y escalas operan básicamente como herramientas de recolección oral o escrita, pues rescatan los decires de los propios actores, en tanto informantes. Los instrumentos que se nutren de la oralidad, requieren de operadores que formulen las preguntas según el orden establecido (las que luego marcarán en el instrumento), en tanto que los de expresión escrita son autoadministrados. Aunque las entrevistas podrían admitir respuestas escritas y autoadministradas, no es común que sigan este formato, pues si bien no requieren necesariamente del rapport propio de las estrategias cualitativas, sí se producen en contextos menos impersonales.

Las encuestas consisten en cuestionarios cerrados, de opciones múltiples (por lo general exhaustivas y excluyentes); a veces con preguntas abiertas (la minoría). Por su parte, las escalas de actitudes presentan al informante una serie de proposiciones que afirman algo acerca del objeto de investigación, sobre la cual se expresará el acuerdo, el desacuerdo, o la neutralidad de la posición. Otra alternativa de escala es la de diferencial semántico, cuyas posibilidades están dadas por la opción entre dos respuestas polares, o por las posiciones intermedias entre ambas. Cualquiera de las escalas posee al menos cinco alternativas de respuesta (dos más cercanas a una postura, dos más alejadas y una neutral). El predominio de cada tipo de respuesta en relación con lo afirmado en la proposición, define el lugar que se le asigna al sujeto en la escala, la que da cuenta de su posición respecto del tema en cuestión.

Tanto en las entrevistas, como en el caso de las preguntas abiertas de las encuestas, la codificación se hace a posteriori, lo que incrementa el nivel de sesgo del instrumento por las dificultades a veces manifiestas al categorizar las alternativas de respuesta.

En las estrategias cuantitativas, el análisis de la información se realiza siempre luego de concluida la recolección de datos, a diferencia de la cualitativa, donde ésta se produce en simultáneo y ulteriormente a su obtención.

El uso de las observaciones y las entrevistas requieren en general, mayores tiempos de recolección y análisis que las encuestas y escalas, dado que estas últimas al normatizarse, posibilitan tratamientos estadísticos y mayor rapidez en la obtención de resultados.

Las técnicas cuantitativas en Latinoamérica

Las áreas del conocimiento que se nutren de estudios de tipo cuantitativo son variadas, entre las que se cuentan la administración pública, la demografía, el derecho, la economía, la educación, la agricultura, los estudios territoriales, la geografía, la historia, la lengua y la literatura, la política, la psicología, la salud, y la sociología.

En el área de Administración Pública, las temáticas más recurrentes se vinculan con la contaduría, la evaluación de políticas, las innovaciones, la política lingüística, los escenarios políticos, la gerencia y la gestión, la política exterior, las políticas públicas, y los negocios. Las revistas más frecuentemente citadas son: Estudios Gerenciales (Colombia), y Gestión y Política Pública (México), amén de otras como Contaduría y Administración (México), Boletín del Instituto Francés de Estudios Andinos (Perú), la Revista de Ciencias Sociales (Costa Rica), la Revista Venezolana de Gerencia (Venezuela), entre otras.

En el marco de la Demografía, Papeles de Población (México) reúne un importante número de artículos, seguido de Estudios Demográficos y Urbanos (México), y Población y Salud en Mesoamérica (Costa Rica).

En el contexto del Derecho, las dos líneas más trabajadas se enmarcan en el Derecho Constitucional y el Derecho Público. Para el primero se citan, el Boletín Mexicano de Derecho Comparado (México), y Estudios Constitucionales (Chile). En el segundo caso, las publicaciones más frecuentemente citadas se hallan en, Revista de Estudios Sociojurídicos (Colombia), Gaceta Laboral (Venezuela), y Revista de Derecho (Colombia).

En el área de la Economía, la Contabilidad ocupa un lugar preferencial, destacándose publicaciones como Revista de Economía Institucional (Colombia), Cuadernos de Desarrollo Rural (Colombia), Revista Mexicana de Agronegocios (México), Investigación Económica (México), y Economía, Sociedad y Territorio (México). Debe destacarse que parte de aquellos artículos no vinculados con la Contabilidad, se enmarcan en el ámbito de la Economía de la Educación, los cuales se publican en la Revista Electrónica de Investigación Educativa (México), Perfiles Educativos (México), y otras.

En el contexto de la Educación, la planificación estratégica, el aprendizaje, la investigación educativa, y la educación superior constituyen las temáticas más frecuentes. Las publicaciones que dan cuenta de ellas son, Revista Mexicana de Investigación Educativa (México), Revista Electrónica de Investigación Educativa (México), Revista Venezolana de Ciencias Sociales (Venezuela), Revista Interuniversitaria de Formación del Profesorado (México), Educación (Costa Rica), Educación Matemática (México), y Revista Electrónica Actualidades Investigación en Educación (Costa Rica).

Los Estudios Agrarios se expresan en revistas como, Agronomía Costarricense (Costa Rica), Agrociencia (México), Ciencia, Docencia y Tecnología (Argentina), y Agricultura Técnica en México (México). Si bien gran parte de los estudios agrarios se relacionan con el desarrollo de técnicas y metodologías propias de la Agronomía, no es menos cierto que una parte de éstos destina sus recursos en pos de temáticas de corte netamente social.

Los Estudios Territoriales se difunden fundamentalmente a través de la Revista INVI (Chile), seguidas por Economía, Sociedad y Territorio (México), Región y Sociedad (México), Frontera Norte (México), entre otras.

La Geografía hace conocer sus aportes a través de medios como Investigaciones Geográficas (México), Terra Nueva Etapa (Venezuela), Revista de Geografía Norte Grande (Chile), y otras.

La Historia se expresa por medio de publicaciones como, Estudios Sociales (México), Perfiles Latinoamericanos (México), Región y Sociedad (México), e Historia Crítica (Colombia).

Los estudios vinculados con la Lengua y la Literatura, asumen la forma de artículos publicados habitualmente en el Boletín de Lingüística (Venezuela) y la Nueva Revista de Filosofía Hispánica (México).

Las investigaciones en torno de la Política toman cuerpo en producciones publicadas en la Revista de Ciencias Sociales (Costa Rica), seguidas de Gestión Política y Pública (México), Cuadernos del CENDES (Venezuela), Revista Venezolana de Análisis de Coyuntura (Venezuela), Revista Mexicana de Ciencias Sociales y Políticas (México), entre otras.

La Psicología difunde sus trabajos a través de Enseñanza e Investigación en Psicología (México), Psicología y Salud (México), Psyché (Chile), Revista Colombiana de Psiquiatría (Colombia), Revista Latinoamericana de Psicología (Colombia), amén de otras publicaciones.

Los trabajos en vínculo con la Salud, se corporizan en dos áreas, la Epidemiología y la Salud Pública. La primera de ellas, a través de dos revistas, Salud Colectiva (Argentina) y Salud Pública de México (México). La segunda, lo hace por medio de Colombia Médica (Colombia), Salud Pública (México), Anales de la Facultad de Medicina (Perú), entre otras.

La Sociología por su parte hace conocer sus producciones por medio de los Cuadernos del CENDES (Venezuela), la Revista Venezolana de Ciencias Sociales (Venezuela) y Última Década (Chile).

Debe destacarse que la mayor producción latinoamericana en Ciencias Sociales se plasma en las unidades académicas y de investigación mexicanas, aunque también es pertinente aclarar que las referencias mencionadas no se corresponden con todas las líneas de investigación o temáticas que hacen uso de estrategias cuantitativas en la región, pues gran parte de la producción en países de habla hispana se concentra en revistas editadas en inglés, el idioma oficial de las revistas extranjeras, aun aquellas no sajonas.

Las perspectivas de análisis cuantitativo obrante en las temáticas y revistas mencionadas, si bien no homogéneas, muestran sobre todo tendencias de tipo evaluativas en general, de mediciones conductuales, del uso de tasas e índices como indicadores, y de análisis de frecuencias. Si bien no todas ellas realizan mediciones en sentido estricto, se observa una disposición hacia un análisis de tipo funcionalista, propio de la concepción positivista de la ciencia.

Bibliografía

Babini, J. 1986. Historia de la ciencia en la Argentina. Bs. As.: Solar Hachette.

Bar, A. R. 2000. Un aporte a la discusión sobre el status metodológico de las variables y escalas de medición. Cinta moebio 7: 121-126.

Bachelard, G. 1993. La formación del espíritu científico. Contribución a un psicoanálisis del conocimiento objetivo. México: Siglo XXI editores.

Camel, F. F. 1970. Estadística médica y de salud pública. Caracas: Universidad de los Andes.

Campbell, N. R. 1928. An account of the principles of measurement and calculation. London: Longmans Green.

Galtung, J. 1978. Teorías y técnicas de la investigación social. Bs. As.: Eudeba.

Lafuente, A. y Sala Catalá, J. 1992. Ciencia colonial en América. Madrid: Alianza Universidad.

López Piñero, J. M. 1979. Ciencia y técnica en la sociedad española de los siglos XVI y XVII. Barcelona: Labor.

Martínez, S. F. 1997. De los efectos a las causas. Sobre la historia de los patrones de explicación científica. México: Paidós.

Polit, D. y Hungler, B. 1987. Investigación científica en ciencias de la salud. México: Interamericana.

Samaja, J. 1995. Epistemología y Metodología. Elementos para una teoría de la investigación científica. Bs. As.: Eudeba.

 

Recibido el 21 Sep 2009
Aceptado el 4 Ene 2010

Home | Indice | Números Completos | Instrucción para Autores
Cinta de Moebio
Revista de Epistemología de Ciencias Sociales
ISSN 0717-554X