Cinta de Moebio: Revista de Epistemología de Ciencias Sociales

Acevedo, C. 2011. Acuerdos comunes de validez: diálogo entre la metodología cuantitativa y cualitativa. Cinta moebio 42: 276-287. doi: 10.4067/S0717-554X2011000300004

PDF


Acuerdos comunes de validez: diálogo entre la metodología cuantitativa y cualitativa

Consensus of validity: quantitative and qualitative methodology dialogue

Mg. Carlos Acevedo (desborde@gmail.com) Instituto de Estudios Internacionales, Universidad Arturo Prat (Iquique, Chile).

Abstract

This article is divided into three sections. First, we define the state of physical science and logical positivism, concluding the transit of both towards constructivism. Second, we outlined the Piaget constructivism. Third, with the intention of developing an example of this confluence in social sciences, we argue that few criteria of qualitative methodology validity are completely complementary to those contained in the statistics (paradigmatic technique used for quantitative analysis).

Key words: validity, methodology, statistics, logic positivism, physical.

Resumen

Este artículo se halla dividido en tres partes.En la primera, se define el estado de la ciencia física y del positivismo lógico, concluyendo el tránsito de ambos hacia el constructivismo.En la segunda, se realiza un esbozo del constructivismo de Piaget.Finalmente, en el tercer apartado, con la intención de desarrollar un ejemplo de esta confluencia en las ciencias sociales,se constata que ciertos criterios de validez defendidos para la metodología cualitativa se complementan totalmente con los contenidos en la estadística (técnica por excelencia usada en la metodología cuantitativa).

Palabras clave: validez, metodología, estadística, positivismo lógico, física.

Introducción

Este artículo(1) se divide en tres partes.Primero, argumentamos que tanto el paradigma newtoniano como el positivismo lógico han sido superados y se han acercado a los supuestos del paradigma constructivista.Segundo, con el propósito de esclarecer nuestras afirmaciones, realizamos un breve esbozo de la epistemología constructivista piagetiana.Tercero, afirmamos que a pesar de estos avances, en las ciencias sociales es común toparse con debates metodológicos en los que se hace abstracción del constructivismo que se comparte en las ciencias y, por ende, se recurre a imágenes provenientes del primer tercio del siglo XX.Es decir, se recurre a nociones ya superadas de la física newtoniana y del positivismo lógico.Para demostrar esta tesis, establecemos los criterios de validez que desarrollan dos autores (Maxwell y Bertaux) en relación a la metodología cualitativa y mostramos que no se diferencian con los criterios que se deben tener presente en la técnica por excelencia asociada a los métodos cuantitativos, a saber, la estadística.Si logramos sostener el argumento de que esta técnica descansa en los mismos criterios de validez que defienden connotados autores cualitativos, estaremos frente a una demostración de que ambas escuelas adhieren a un mismo paradigma científico.

El progreso de la física

El paradigma newtoniano desde mediados del siglo XX se encuentra superado por la teoría del caos así como por la física cuántica.A continuación realizamos un esbozo de cada escuela de pensamiento así como del proceso de superación mencionado.

El paradigma newtonianose construye sobre la basedelas tres leyes de movimiento contenidas en Philosophiae Naturalis Principia Mathematica de Newton:

“Todo movimiento persevera en su estado de reposo, o de movimiento uniforme en línea recta, a menos que éste sea obligado a cambiar su estado por fuerzas actuando sobre él”.
“La alteración del movimiento es siempre proporcional a la fuerza motriz actuante; y tiene lugar en la dirección de la línea recta en que esa fuerza actúa”.
“Para toda acción siempre se opone una misma reacción: o las mutuas acciones de dos cuerpos sobre cada uno son siempre iguales, y dirigidas a partes contrarias” (Newton 1846:83).

A partir de estas leyes generales, y resolviendo ecuaciones matemáticas (con diverso niveles de dificultad según sea el caso en cuestión) se puede predecir la totalidad delmovimiento que existe en nuestro universo (eso creía Newton).

Esta perspectiva da origen a una noción determinista que cobra forma en el demonio de Laplace.Un demonio, en tanto alcanza un nivel de conocimiento por el que puede explicar y predecir todo acontecer universal:“Una inteligencia que en un instante dado pudiera comprender todas las fuerzas por las cuales la naturaleza es animada y la posición respectiva de los seres que la componen –una inteligencia suficiente vasta para someter estos datos a análisis– podría abarcar en la misma fórmula el movimiento de los grandes cuerpos del universo y de aquellos átomos más pequeños; para ella, nada sería incierto y el futuro, como el pasado, serían presente ante sus ojos” (Marquis de Laplace 1902:4).

De este modo, la noción Newtoniana nos dibuja la imagen de un mundo determinista en el que a partir de unas cuantas leyes, y si contamos con la capacidad de resolver ecuaciones matemáticas complejas, podremos explicar y predecir cualquier acontecer.En consecuencia, se asume una realidad externa e independiente del individuo, en la que es posible establecer leyes generales para todo tiempo y espacio.

Bien, qué nos dicen la teoría del caos y la física cuántica y por qué destruyen tal visión determinista del universo.

Por su lado, la teoría del caos da cuenta de la existencia de sistemas caóticos.Estos sistemas se definen como caóticos en tanto cambios muy leves en las condiciones iniciales pueden generar transformaciones de enormes magnitudes en los resultados,lo cual, acaba con la predicción inicial.Ejemplos de estos sistemas van desde el comportamiento de los gases, la reproducción de los conejos, y para qué decir, la historia misma.De este modo, resulta imposible realizar cálculos exactos en torno a tales sistemas cambiantes.A lo más que podemos llegar es a concebir las probabilidades de las transformaciones caóticas, así como al cálculo de las tasas de crecimiento o de deceso, una vez ya realizado el cambio.

El mayor golpe contra el paradigma newtoniano se halla en la constatación de que este tipo de sistemas son mayoritarios en nuestra naturaleza: “Lo que pareció una vez un estado muy particular de unos pocos sistemas hoy lo vemos como algo más frecuente en la naturaleza que los movimientos ordenados”(Claro 2009:66).Los golpes que recibe a partir de la física cuántica son aún más intensos.

Como hoy sabemos, la física de Newton sólo funciona a velocidades menores a la velocidad de la luz y con relación a grandes elementos (como manzanas y planetas).La teoría de la relatividad de Einstein, si bien cubre el mismo ámbito de la física newtoniana, se expande, en explicación y predicción, a la física que se produce en el ámbito de velocidades cercanas a la velocidad de la luz. Además, si bien los postulados de Einstein como la curvatura del espacio y del tiempo, la velocidad constante de la luz y el rechazo del éter, corresponden a factores que anulan la física newtoniana; siguen correspondiendo a un paradigma determinista del universo.Por su lado, la física cuántica se hace cargo de los elementos muy pequeños de nuestro universo (átomos, núcleo del átomo, protones, electrones, etc.).

En el estudio de los elementos muy pequeños del universo, la física cuántica da cuenta de que estas partículas se comportan de una forma que niega el principio de causalidad determinística de Newton.Así lo afirma Planck, fundador de la física cuántica: “en el mundo de lo microscópico, la teoría de los cuantos ha enseñado que los sucesos en lo pequeño, pierden continuidad; y la causalidad que conocemos en las dimensiones medias, deja de cumplirse”(Citado en Caso 1941:103).

Las nociones de la física cuántica no sólo cuestionan el principio de causalidad newtoniana, sino que atentan contra la intuición humana.En este sentido,tenemos que una partícula puede estar en dos o más espacios a la vez.Más sorprendente aún, tal partícula aparece en un lugar específico únicamente al momento de ser medida (colapso de la función de onda).Entonces, lo único que podemos decir en relación al comportamiento de esta partícula es la probabilidad de que se halle en un lugar u otro, no podemos determinar su posición antes de medirla.

Un ejemplo bastará para que quede claro este comportamiento (sin tener nociones de física cuántica la idea se comprende perfectamente):“El hidrógeno es el átomo más simple que existe, formado por apenas un protón y un electrón.Está presente en diminuta proporción en la atmósfera terrestre (0,00005 por ciento, o cinco partes en diez millones), mayoritariamente en estado molecular, es decir, en parejas de protones, apartados entre sí y con dos electrones que los envuelven.A este conjunto es posible sacarle un electrón, de modo que lo que resta consiste en dos protones aún separados, compartiendo tan sólo un electrón.Porque tiene menos electrones que protones, se llama ‘ionizada’.Imaginemos ahora que tenemos una de estas moléculas y por algún procedimiento logramos separar sus dos protones a una buena distancia, de modo que, por ejemplo, uno permanece en la Tierra mientras el otro es llevado a la Luna.¿Quién se queda con el único electrón que compartían?Según la física cuántica, debido a la simetría de la situación lo comparten por igual.Pero, ¿cómo puede ser esto si el electrón es indivisible, no puede partirse en dos mitades, uno en la Luna y la otra en la Tierra? (…)En nuestro ejemplo, hoy creemos que mientras no se haga un experimento que define dónde se encuentra el electrón, éste se halla en una mezcla de las alternativas ‘Luna’ y ‘Tierra’ y permanece así, vigilante, ‘entrelazando’ ambas alternativas mientras no se haga la medición que colapsa la función de onda y define la situación hacia una de ellas”(Claro 2009:206).

Lo mismo sucede con el famoso LHC (Gran Colisionador de Hadrones).El propósito del LHC es colisionara grandes velocidades (9,999999% la velocidad de la luz)protones para que se produzcan partículas (la energía se transforma en materia y viceversa) conocidas observadas, supuestas no observadas (que predicen algunas teorías) y no conocidas. Lo que se sabe desde la física cuántica es la probabilidad de que se generen ciertas partículas. Se sabe que las partículas predichas no observadas nunca y las que no se saben que existen, tienen muy poca probabilidad de materializarse (y por muy poco tiempo).Entonces, produciendo millones de choques se espera dar con las mismas y analizarlas (Casas 2009).

Ahora, lo más relevante de estas nociones se basa en la idea de que mientras no existe alguna conciencia que realice la medición ninguna partícula se materializa, pues al no ser medida ésta se halla sólo en estado latente.Si no medimos, la partícula no se manifiesta en el mundo.En consecuencia, hoy es un lugar común aceptar que la misma conciencia es parte activa del mundo y en su manifestación: “La interpretación probabilística de la física cuántica junto con el postulado del colapso de la función de onda le otorgan a la realidad misma un extraña dependencia de la observación por un ser consciente”(Claro 2009:215).

Con base en estos avances, la concepción newtoniana es en gran parte cuestionada, y se establece una noción del mundo (al menos del mundo de lo pequeño) como azaroso que se deja aprehender por explicaciones únicamente de carácter probabilístico, a la vez que se agrega la agencia y percepción humana como elementos fundamentales a tener en cuenta en las explicaciones construidas.

Esto no quiere decir que se acabe con el principio de causalidad en la física, sino que significa que se comienza a hablar únicamente de probabilidades y a lo sumo de causalidad débil tal como lo señala Claro: “Podemos entonces hablar de una especie de ‘causalidad débil’, que asocia probabilidades a los diferentes escenarios de futuro sin definir cuál en particular tendrá lugar en un caso específico”(Claro 2009:199).En consecuencia, teniendo en consideración estos avances (que implican un acercamiento al paradigma constructivista), no es razonable argumentar que la ciencia, para justificarse, debe cumplir con principios deterministas contenidos en la física newtoniana.

Positivismo lógico

El argumento central en que se fundamenta el positivismo lógico consiste en que a partir de proposiciones simples y lógicas se puede realizar una correspondencia con la realidad fáctica (Carnap 1961:30).Por ende, la tarea de esta escuela consiste en alcanzar, mediante la contrastación empírica, proposiciones simples y lógicas que contengan únicamente facticidad sensorial (proposiciones verdaderas y con sentido).

Es este marco, el método del positivismo lógico consiste en que “cada palabra del lenguaje es retrotraída a otras palabras y finalmente a las palabras que aparecen en las llamadas ‘proposiciones de observación’ o ‘proposiciones protocolares’”(Carnap 1961:10).

En tal planteamiento, el significado de una palabra se define por lo que se denomina el“criterio de aplicación”, es decir, por su derivación a partir de proposiciones elementales; por sus condiciones lógicas de verdad (en qué condiciones es verdadera y en cuáles falsa); y por su criterio de verificación a partir de la empiria.En esta lógica es que debe entenderse el siguiente argumento de Carnap: “el sentido de una proposición descansa en el método de su verificación.Una proposición afirma solamente todo lo que con respecto a ella resulta verificable.Por ello una proposición, cuando dice algo, sólo puede enunciar un hecho empírico”(Carnap 1961:28).

Si profundizamos los supuestos ontológicos y epistemológicos de esta escuela tenemos que: se asume una realidad externa e independiente del individuo, en consecuencia, una relación de independencia entre sujeto y objeto; es posible establecer generalizaciones para todo tiempo y espacio; entonces, existe en la “realidad” causas que preceden a los efectos, que adquieren la apariencia de leyes generales(Cortés 2000).

Ahora bien, como ya señalamos, el pensamiento de esta escuela descansa en las proposiciones simples o proposiciones protocolares que corresponden a proposiciones de observación.El problema surge cuando se intenta ahondar sobre qué se entiende por un enunciado protocolar: “Para nuestros propósitos podemos dejar de lado el problema relativo al contenido y a la forma de las proposiciones primarias (proposiciones protocolares), el que aún no ha sido resuelto definitivamente.Se acostumbra decir en la teoría del conocimiento, que las proposiciones primarias se refieren a ‘lo dado’, pero no ha habido unanimidad en lo que respecta a qué es lo dado.A veces se ha sostenido que lo dado, en una proposición de este género, se refiere a las cualidades sensoriales más simples o a algún orden de sentimientos (por ejemplo ‘caliente’, ‘azul’, ‘alegría’ y así sucesivamente), en otras, el criterio se ha inclinado a la concepción de que las proposiciones primarias no pueden referirse sino a experiencias globales y a relaciones de semejanza entre ellas.Otra postura más sostiene que estas proposiciones primarias han de referirse ya a objetos”(Carnap 1961:10).Más grave incluso que esta falta de acuerdo sobre qué es “lo dado”, se torna laproblemática que surge a partir de la inmediatez de la experiencia que propone esta escuela, es decir,del postulado de que la experiencia de lo dado correspondería un registro inmediato de los datos sensoriales.En este sentido, si la experiencia que se tiene de los hechos es una experiencia sensorial individual, no queda más que dos opciones: o corresponde a una experiencia única, inverificable e irrepetible en los restantes individuos (el otro no puede percibir lo mismo que yo pues los datos sensoriales son privados), por ende, no sabemos cómo se pueden comunicar tales experiencias (Ayer 1993:23); o nos adentramos en el problema del solipsismo: “el problema de efectuar el traslado de las experiencias privadas del sujeto a las experiencias de los demás y al mundo público”(Ayer 1993:19).

Como salida a este problema se intenta realizar una diferenciación entre contenido y estructura de la experiencia, a saber; no se puede comunicar el contenido de la experiencia pero sí su estructura (por ejemplo, no se puede comunicar la sensación de color pero sí el nombre del mismo). Independientemente de las críticas que se le puedan realizar a esta concepción (como la inexistencia de enunciados que se refieran sólo a la estructura, o de cómo sabemos que significamos lo mismo con las mismas palabras), el hecho es que a partir de este momentonos acercamos a la noción de acuerdo intersubjetivo:“Debido a estas dificultades Neurath y más tarde Carnap, rechazaron esta concepción de los enunciados elementales en su conjunto y sostuvieron que si los enunciados elementales tenían que servir de fundamento para los enunciados intersubjetivos de la ciencia, ellos mismos tendrían que ser intersubjetivos; tenían que referirse, no a experiencias privadas, incomunicables, sino a acontecimientos físicos públicos”(Ayer 1993:25).En esta adhesión a la noción de acuerdo intersubjetivo queda en cuestión los supuestos ontológicos y epistemológicos que, según Cortés (Cortés 2000), se pueden desprender esta escuela.Es decir, se transita hacia un post-positivismo sobre la base de un entendimiento cada vez mayor de que toda observación depende del conocimiento previo que posea el individuo (Cortés 2000):paso fundamental para adoptar los supuestos del paradigma constructivista.

Debido al acercamiento delpositivismo lógico a los postulados del constructivismo afirmamos que no es razonable argumentarque la ciencia debe justificarse en sus principios.

Antes se seguir, y con la intención de que se entienda perfectamente qué queremos decir con constructivismo, es necesario detenernos brevemente en la epistemología piagetiana.

Constructivismo piagetiano

La epistemología de Piaget adquiere preeminencia en tanto en ésta se pasa de la pregunta esencialista de “qué es el conocimiento” a la pregunta –científica– de cómo se transita de un nivel inferior a otro superior de conocimiento.En este sentido, para Piaget la epistemología consiste en el “estudio del pasaje de los estados de menor conocimiento a los estados de conocimiento más avanzados”(Piaget citado en Gil Antón 1997:180).

La problemática así planteada se transforma en científica pues da cabida a la contrastación empírica de hipótesis (contrastación de supuestos basados teóricamente, en el conocimiento previo y en validaciones anteriores).

Desde esta problemática, el análisis piagetiano se construye sobre dos niveles, según García (2000:51).El primer nivel utiliza la metodología experimental y analiza el desarrollo del conocimiento por medio del estudio de los niños.En el segundo nivel, se remite al estudio del desarrollo de la ciencia y se utiliza el análisis histórico-crítico de las conceptualizaciones y de las teorías científicas.En este segundo nivel se contrastan hipótesis surgidas en el primer nivel.Estos niveles se conocen como psicogénesis el primero, y sociogénesis, o análisis histórico-crítico, el segundo.

El nivel más desarrollado por Piaget, y por lo mismo el más validado, es el primero. Subsisten muchas críticas sobre el paso del primer al segundo nivel, de todos modos, si bien se podría decir que el segundo nivel es muy semejante a la epistemología de Kuhn, no profundizaremos en el mismo.

Ahora bien, en la experimentación con el desarrollo cognitivo de los niños Piaget logra rechazar tanto el empirismo como el apriorismo, y prueba que el conocimiento no se construye únicamente con respecto al sujeto (apriorismo) ni al objeto (empirismo), sino en la relación entre ambos.Es decir, “el conocimiento surge en un proceso de organización de las interacciones entre un sujeto (‘el sujeto de conocimiento’) y esa parte de la realidad constituida por los objetos (‘el objeto de conocimiento’)”(García 2000:61).

Profundizando en el desarrollo del conocimiento por medio de esta relación, se plantean y confirman hipótesis como el de la continuidad funcional del proceso cognitivo (el conocimiento no tiene un origen absoluto, y los mecanismos cognitivos son los mismos en los niños y adultos así como en el conocimiento pre-científico y científico. Esta continuidad al ser funcional y no estructural se refiere a los mecanismos formadores de ideas, nociones, conceptualizaciones y teorías, no de sus contenidos); el proceso de equilibración cognitiva (se avanza en el conocimiento por medio de continuas desequilibraciones y re-equilibraciones, la cuales se vuelven más complejas y re-organizan elementos que se encuentran al inicio del conocimiento); y el origen común, en la relación sujeto-objeto, de las estructuras lógicas y de las inferencias causales(García 2000:60).Es decir, es en la relación sujeto-objeto donde se construyen las estructuras lógicas-matemáticas “de clasificación, orden y relación, así como las concepciones de número, espacio, tiempo y velocidad”(Gil Antón 1997:187).

Con respecto a este último elemento, se constata que es el mismo individuo, por medio de sus abstracciones reflexivas (reflexiona sobre la relación de él con el objeto que le ofrece resistencias), que logra pensar lógicamente sus acciones.De este modo, el individuo atribuye sentidos lógicos a las regularidades empíricas que constata en su relación con los objetos.Es en este proceso donde nace la noción de explicación causal (significación lógica de una regularidad empírica), en tanto lo que cambiaría con el progreso cognitivo es la complejidad del esquema lógico utilizado para explicar las regularidades empíricas (los esquemas más complejos surgen en el quehacer científico).

En consecuencia, el individuo, por medio de la propia naturaleza de su relación con el mundo, busca constantemente explicaciones causales.En este sentido, las explicaciones causales no serían más que el proceso de otorgar una significación lógica a las regularidades que se producen en el enfrentamiento del individuo con el mundo (en la construcción de realidad).Dado que estas significaciones lógicas varían de complejidad y de contenido, se puede establecer que el individuo siempre está “interpretando”, es decir, con base en su aparato conceptual interpreta las regularidades que se producen en su relación con el mundo, y con ello se pueden obtener realidades diversas:“Las explicaciones causales (es decir, la búsqueda de razones en las relaciones causales inferidas) consisten en atribuir a la realidad empírica una contraparte ontológica de las relaciones lógicas establecidas en la teoría con la cual explicamos esa realidad”(García 2000:62).

De este modo, podemos decir que la realidad se deja aprehender de muchas formas, empero, no de todas las formas: la propia interacción sujeto-objeto en la generación del conocimiento, mantiene el peso del objeto (la resistencia que ejerce)en las construcciones teóricas que posteriormente el individuo va construyendo (con distintos niveles de complejidad).

Sobre esta base, el investigador debe aclarar (más bien que negar o pretender hacerlo) los marcos lógicos y las interpretaciones desde las que dota de significación a las regularidades.En consecuencia, las realidades que se producen en su relación con el mundo se deben someter a prueba, empírica e intersubjetiva, esclareciendo la validez o falsedad de las proposiciones que se desprenden de sus esquemas teóricos.

Validez ¿cualitativa?

A continuación,establecemos los criterios de validez que desarrollan dos autores (Maxwell y Bertaux) con relación a la metodología cualitativa.Tal desarrollo tiene el objetivo de hacer patente que estos autores se enfrentan contra la visión de una estadística entrampada en supuestos deterministas ya superados, por ende, no tienen conciencia de que los argumentos por ellos elaborados, corresponden a criterios de validez que en el día de hoy son expresión de un consenso en torno al paradigma constructivista.Por este motivo, la estadística sigue al pie de la letra los criterios por ellos defendidos.

Maxwell diferencia entre validez descriptiva, interpretativa, teórica, generalizadora y evaluativa.Dentro de esta categorización nos interesan la validez teórica y la generalizadora.Nos centramos en estas categorías pues un argumento común desde los investigadores cualitativos es que, al no poder generalizar sus resultados a una población, la generalización que éstos establecerían es de corte analítica, es decir, teórica.Por ende, el objetivo es buscar la concreción y saturación de ciertos elementos explicitados en la teoría y no en el diseño de una muestra aleatoria, la aplicación de un cuestionario, y en establecer correlaciones estadísticas a nivel poblacional.

En esta lógica, Maxwell argumenta que el objetivo del muestreo teórico es doble: “asegurarse quese ha entendido adecuadamente la variación del fenómeno de interés en el escenario, y probar las ideas desarrolladas acerca del escenario seleccionando fenómenos que son cruciales a la validez de esas ideas”(Maxwell 1992:293).

En este mismo sentido, y siguiendo a Yin, afirma que la investigación cualitativa “está basada normalmente en el supuesto que esta teoría puede ser útil en hacer sentido a personas o situaciones similares, más que sobre un proceso explícito de muestreo y el esbozo de conclusiones acerca de una población específica a través de inferencias” (Yin citado en Maxwell 1992:293).

Ante afirmaciones de este tipo, podemos pensar que el autor argumenta que únicamente es la generalización analítica la que establece generalizaciones teóricas, pues la muestra aleatoria realizaría únicamente inferencias hacia una población.

Bien, primero que todo, debemos especificar que la estadística no está limitada a realizar inferencias poblacionales.La diversidad de técnicas estadísticas, como análisis factorial, de conglomerados, de correspondencias, regresión lineal, logística, etc. (2), se pueden utilizar en grupos no representativos, y no sólo en datos provenientes de cuestionarios, sino que se pueden utilizar datos provenientes de muestras intencionales, y en análisis de textos, palabras, discursos, etc.Claro, tal uso debe corresponder a un cierto ordenamiento mínimo, como es la generación de una matriz de datos (cuadros y columnas con los nombres de las variables y sus datos).De este modo, “el investigador que ha utilizado instrumentos cualitativos para recopilar su información, que ha seleccionado muestras intencionales y que ha generado una matriz cualitativa de datos podría, si así lo deseara, utilizar los métodos que le proporciona la estadística.No habría razones conceptuales que se lo impidieran”(Cortés 2000:99).

Segundo, señalamos que la visión crítica que plantea Maxwell corresponde a un mal uso de la estadística, a un uso empirista que no tiene en cuenta el desarrollo científico que hemos esbozado.En consecuencia, para que estas críticas sean útiles se debe explicitar que se dirige hacia el empirismo.

En contra del empirismo, se debe dejar claro, como se señala desde el constructivismo, que todo investigador parte de concepciones teóricas que le ordenan su mirada mediante hipótesis que dan cuenta de interpretaciones específicas de la realidad social.El problema, entonces, tanto para investigadores cuantitativos como cualitativos, consiste en no explicitar estos elementos y pretender que se puede tener un acceso directo a la realidad social.Es decir, independientemente de las técnicas utilizadas, todo investigador aprehende la realidad a partir de interpretaciones que le vienen dadas desde su construcción conceptual fundamentada en su interacción con el mundo (o con el fenómeno estudiado).

Maxwell plantea que estas interpretaciones que desprendemos de la teoría, no tienen por qué estar limitadas a las inferencias causales, que se pueden desarrollar “por otras cosas además de la explicación causal –por ejemplo, para las relaciones semánticas, estructura narrativa, y sigue…” (Maxwell 1992:292).Sin embargo, es evidente que Maxwell tiene presente la noción de inferencia causal a-teórica y empirista (de leyes newtonianas), pues cuando, siguiendo al constructivismo,aprehendemos la causalidad como imputación teórica, pierde relevancia distinguirla dela interpretación: cuando se asume que la realidad siempre es dependiente de la relación sujeto-objeto y por tanto la objetividad se aprehende como un acuerdo intersubjetivo, la diferenciación entre causalidad e interpretación pierde consistencia, “la explicación causal, como atribución o imputación de sentido construida a través de modelos teóricos, hace difícil plantear una distinción paradigmática entre causalidad e interpretación. Sólo podríamos justificar dicha diferenciación si se supone que el sentido de la acción surge desde la realidad, es decir, si se adscribe a la teoría de la correspondencia que los pioneros del empirismo rechazaron por razones de consistencia” (Cortés 2000:94).Desde tal acercamiento entre causalidad e interpretación, resulta evidente que únicamente podemos hablar de posibilidades o de probabilidades sobre los eventos estudiados.A diferencia de la posibilidad, la probabilidad corresponde a un suceso que se puede medir estadísticamente.

De cualquier manera, la problemática se puede pensar como un asunto de flexibilidad en las interpretaciones teóricas.Tal flexibilidad vendrá dada por la teoría que utilicemos, y la validez de nuestro uso teórico se establece mediante el consenso dentro de la comunidad científica en relación a los términos usados para caracterizar el fenómeno de estudio.

En este sentido, en la investigación social siempre debe estar presente y hacerse explícita la idea de que se buscan atribuciones o imputaciones de sentido (se interpreta).Junto a las técnicas cualitativas, las técnicas estadísticas son una herramienta poderosa para constatar la existencia de tales o cuales interpretaciones teóricas, independientemente de que se utilicen o no muestras representativas.Más bien, ciertas técnicas serán útiles para constatar únicamente ciertas clases de interpretaciones.

Por otro lado, no tiene sentido alguno generalizar a una población si no es con el propósito de generalizar ciertas imputaciones teóricas, o, en palabras de Maxwell,con el propósito de “asegurarse que se ha entendido adecuadamente la variación del fenómeno de interés en el escenario, y probar la ideas desarrolladas acerca del escenario seleccionando fenómenos que son cruciales a la validez de esas ideas”(Maxwell 1992:293).  Desde otro ángulo, también se pueden utilizar estrategias como el de la saturación aplicando técnicas estadísticas a diversos casos cruciales para asegurar la validez de las ideas teóricas.

El empirismo, expresado en supuestos como el llegar desnudo al trabajo de campo o en la idea de la generalización poblacional a-teórica, presentatanto un engaño epistémico (siempre se observa la realidad social por medio de teorías e hipótesis), como un debate sin la posibilidad de establecer criterios de validez, pues se puede demostrar fácilmente que los datos, ya sea que provengan de fuentes cualitativas o cuantitativas, se pueden interpretar de formas muy diversas según la teoría y las imputaciones que estén presentes en la perspectiva del investigador.En consecuencia, no podemos llegar a consensos comunes si no se hacen explícitas nuestras teorías y la interpretación que guía nuestra mirada.

En la misma lógica de consideración de un enemigo estadístico empirista, positivista y anacrónico, se encuentra Bertaux.Este autor, nos habla de las tres etapas (de ida y vuelta) que conlleva toda investigación social: exploración, el análisis-verificación y la síntesis.A partir de estas etapas, el autor intenta demostrar que “es posible conducir una investigación empírica del principio al final (es decir incluyendo el momento de la ‘prueba’ y el de la redacción) sin pasar bajo las horcas caudinas de la encuesta por cuestionario. Quisiéramos demostrarlo a propósito de una forma particular del enfoque cualitativo, a saber la utilización de relatos de vida en el marco de una perspectiva etnosociológica, es decir tomando por objeto de estudio las relaciones socioestructurales, y no las representaciones simbólicas”(Bertaux 1989:3).

En el intento de argumentar tal postura, y sobre la base de una técnica tan característica de la metodología cualitativa como es el relato de vida, el autor (sin proponérselo) nos entrega bases sólidas de validez comunes a la ciencia.

En este sentido, argumenta que la perspectiva exploratoria nos introduce, mediante tanteos, a la problemática.En la fase analítica-verificativa, nos dedicamos a analizar.“Ello comprende dos ‘momentos’ que a menudo se solapan parcialmente: el momento de la comparación de los fenómenos, del esbozo de tipologías, del paso de ‘ideas’ a hipótesis, en resumen de la construcción de una ‘teoría’ es decir, de una representación mental de lo que ocurre en la ‘realidad social’ (el referente): y el momento de la verificación, o más bien de la consolidación empírica de las proposiciones descriptivas y de las interpretaciones avanzadas” (Bertaux 1989:5).

En esta fase, “una vez delimitado claramente el carácter de lo que se encuentra en numerosos casos, parece que se trata de un ‘objeto sociológico’ –una norma, una obligación social, un papel a desempeñar, un proceso, el efecto de una relación estructural, etc.–, es decir que se trata de algo que se desprende de lo social y no de lo psicológico, de lo colectivo y no de lo individual, entonces puede afirmarse que se ha alcanzado un primer nivel de saturación”(Bertaux 1989:7).

Luego de este momento, discutida nuestra representación mental del fenómeno con el grupo de pares, es decir, discutiendo con la comunidad científica las imputaciones teóricas que planteamos, en una lógica estricta de falsación popperiana, Bertaux argumenta que ahora se llega al momento de destrucción sistemática.O en otras palabras, el objetivo de la fase analítica-verificativa es el establecimiento y falsación de hipótesis:“Se trata de dar otra vez a lo social la ocasión de hacer oír su voz. Se intentará, pues, sistemáticamente encontrar ‘casos negativos’ (en el enfoque biográfico, estos casos son personas) que pongan en contradicción el modelo”(Bertaux 1989:7).

Este proceder, de un proceso de ida y vuelta de construcción de hipótesis, de sistematizarlas, discutirlas con la comunidad científica (acuerdo intersubjetivo) e intentar destruirlas (el peso de la prueba empírica guiada teóricamente), es común a toda la ciencia, independientemente de los métodos y técnicas utilizados.Desde este marco, creemos que cualquier quehacer investigativo que logre exitosamente enmarcarse en este proceso, podrá sostener sobre fundamentos universales de la ciencia la validez de sus hallazgos.

Por lo tanto, Bertaux no debería estar luchando con una técnica empirista encuadrada en la lógica newtoniana y positivista, sino que debería hablar en el nombre de los criterios de validez comunes a la ciencia en su amplia extensión, y en nuestro caso, de la ciencia social en particular.

Conclusión

Ahora bien, a partir de nuestro argumento, no queremos dar la impresión de que ambas metodologías no se diferencian de forma alguna en los criterios de validez y que sean igual de útiles.Es evidente que tanto las técnicas cuantitativas como cualitativas tienen ventajas y desventajas entre sí. Creemos que una de las características y aportes principales del método cualitativo es que nos permite aprehender, por medio de nuestras teorías e hipótesis, la estructura social “observando a la gente en acción” (Whyte 1971:344). Aunque no se pueda cubrir toda la comunidad, se puede fabricar “la estructura y el funcionamiento de la comunidad, por medio del examen intensivo de algunas de sus partes en acción” (Whyte 1971:423). Con este propósito es que podemos seguir a Whyte cuando argumentaba que “me encontraba relacionando las partes entre sí observando sucesos entre grupos y entre los líderes de grupos y los miembros de las estructuras institucionales mayores (de la política y de los rackets). Estaba buscando construir una sociología basada en acontecimientos interpersonales observados. Esto es para mí el significado metodológico y teórico principal de El barrio bajo italiano de Cornerville”(Whyte 1971:423).

Sin embargo, ambas son complementarias y se encuentran en función del problema de nuestro interés.Como un elemento que se tiende a olvidar en algunos estudios cualitativos que estudian un caso por sí mismo, es que siempre se debe situar a grupos e individuos en posiciones de la estructura social. Y tal como nos dice Whyte, nuestro trabajo consiste en buscar las uniformidades que se insertan en la estructura: “El estudio de un grupo de esquina no era suficiente, cierto, pero si un examen de varias más mostraban las uniformidades que esperaba encontrar, entonces esta parte de la tarea se hacía manejable” (Whyte 1971:386).

Hecha esta aclaración, debemos decir que los criterios de validez que hemos desarrollado corresponden a un consenso mínimo que se ha provocado por el acercamiento de las ciencias en general, y de las ciencias sociales en particular, hacia el paradigma constructivista.Tales acuerdos de validez se basan en: toda interpretación-explicación es una atribución conceptual a la realidad, por ende, deben hacerse explícitas estas atribuciones; la construcción de hipótesis es un proceso que surge de una ida y regreso constante de teoría-empiria, en consecuencia, se debe esclarecer este proceso y discriminar las hipótesis con mayores grados de verosimilitud, es decir, que logren (por su propio peso) el mayor acuerdo intersubjetivo (la falsación es una de estas formas).

El desarrollo de la ciencia nos puede estar plasmando el posicionamiento del paradigma constructivista como un paradigma ampliamente aceptado.Esto se demuestra en el avance de la física y en la superación del positivismo lógico.

En las ciencias sociales, tal proceso se puede observar en el hecho de que diversas metodologías de investigación anteriormente consideradas como antagónicas (finales del siglo XVIII y principios del XIX), hoy se hallan en completa complementariedad y comparten criterios de validez.Desde este sentido, nos oponemos rotundamente al debate académico entre los métodos que no tiene en cuenta tal progreso científico, pues de este modo, el debate se torna totalmente anacrónico e infructuoso.En consecuencia, proponemos un nuevo debate de metodologías que se delimite al ámbitoconstructivista.

Nota

(1) Este artículo fue financiado por El Colegio de México y CONACYT, mediante la convocatoria de becas mixtas en el extranjero 2010-2011.

(2) El modelo de regresión logística, modelo más complejo de los mencionados, supone una relación entre la variable dependiente (VD) con las variables independientes (VI) en forma de S volteada, no lineal. Ambas variables, corresponden a variables categóricas. Esta función expresa que el mayor efecto se da en el lugar medio de la S no en los extremos. Por ejemplo, si nuestra VD fuese el riesgo de padecer una enfermedad y la VI fuese edad, el riesgo de adquirir la enfermedad no cambiaría mucho de pasar de 10 a 15 años o de 60 a 65 años, sí plasmaría un cambio fundamental de pasar de 15 a 60. El modelo de regresión logística de cierto modo mide el grado en que ayuda una VI en sufrir la característica contenida en la VD. Cuando la VD es dicotómica (la variable dependiente sólo tiene dos valores), los coeficientes se miden en términos de momios (probabilidad de éxito/probabilidad de fracaso), cuando es politómica (la variable dependiente tiene más de dos valores), los coeficientes se miden en términos de riesgos relativos (probabilidad de X/probabilidad de Y). Con desarrollos algebraicos simples, en ambos modelos podemos realizar una interpretación en términos de probabilidad. Para una introducción a esta técnica, véase Silva y Barroso (2004).

Bibliografía

Ayer, A. J. (comp.). 1993. El positivismo lógico. México, D.F.: Fondo de Cultura Económica.

Bertaux, D. 1989. Los relatos de vida en el análisis social. Módulo Virtual: Memorias de la Violencia.

Carnap, R. 1961. La superación de la metafísica por medio del análisis lógico del lenguaje. México, D.F.: Cuadernos del Centro de Estudios Filosóficos. UNAM.

Casas, A. 2009. El LHC y la frontera de la física. Madrid: Catarata.

Caso, A. 1941. Positivismo, neopositivismo y fenomenología. México, D.F.: Centro de Estudios Filosóficos de la Facultad de Filosofía y Letras, UNAM.

Claro, F. 2009. De Newton a Einstein y algo más. Santiago: Ediciones UC.

Cortés, F. 2000. Algunos aspectos de la controversía entre investigación cualitativa e investigación cuantitativa. Revista Argumentos 36: 81-108.

García, R. 2000. El conocimiento en construcción. De las formulaciones de Jean Piaget a la teoría de sistemas complejos. Barcelona: Editorial Gedisa.

Gil Antón, M. 1997. Conocimiento científico y acción social. Crítica epistemológica a la concepción de ciencia en Max Weber. Barcelona: Editorial Gedisa.

Marquis de Laplace, P.S. 1902. A philosophical essay on probabilities. New York: John Wiley & Sons.

Maxwell, J.A. 1992. Understanding and validity in qualitative research. Harvard Educational Review 62: 279-300.

Newton, I. 1846. Mathematical principles of natural philosophy. New-York: Daniel Adee.

Silva, L. y Barroso, I.  2004. Regresión logística. Madrid: La Muralla.

Whyte, W. F. 1971. La sociedad de las esquinas. México: Editorial Diana.

 

Recibido el 15 Mar 2011
Aceptado el 4 Jul 2011

Home | Indice | Números Completos | Instrucción para Autores
Cinta de Moebio
Revista de Epistemología de Ciencias Sociales
ISSN 0717-554X