Cinta de Moebio: Revista de Epistemología de Ciencias Sociales

Saltalamacchia, H. 2008. Casuística y subjetivismo: falsos estigmas de la investigación cualitativa. Cinta moebio 33: 109-126. doi: 10.4067/S0717-554X2008000200003

PDF


Casuística y subjetivismo: falsos estigmas de la investigación cualitativa

Casuistic and subjectivism: false stigmas attached to qualitative research

Dr. Homero R. Saltalamacchia (hsaltalamacchia@yahoo.com) Universidad Nacional de Tres de Febrero (Buenos Aires, Argentina)

Abstract

Qualitative research has been stigmatized as subjective and incapable of generalizing knowledge. This article refutes both charges by presenting the main elements of a “data theory” and a “theory on the production of empirical universals”, both of which challenge the foundations of the above-mentioned critique. It, moreover, critically discusses: 1) the premises behind the theories that assert the existence of “objective” data; and 2) the foundations of the deductive-nomological tradition. It concludes sketching a different strategy to produce universals, where case studies and comparisons play the main role.

Key words: qualitative research, data, empirical universals, objectivity, case studies

Resumen

Para refutar los estigmas de subjetivismo e incapacidad de generalización de la investigación cualitativa, se presentan los principales rasgos de una teoría del dato y de una teoría de la producción de universales empíricos que cuestionan los fundamentos en que se basó esa crítica. Al mismo tiempo, se discuten: 1) los supuestos en que se basa la teoría de que existen datos “objetivos” y 2) los fundamentos de la tradición nomológico deductiva. Se esboza un modo diferente de generar universales donde los estudios de caso y sus comparaciones cumplen un rol fundamental.

Palabras clave: investigación cualitativa, datos, universales empíricos, objetividad, estudio de casos.

Introducción

Pese a que ha ido mermando, la desvaloración de la “investigación cualitativa” ha sido usual en los círculos académicos hegemónicos. Para fundamentar esa opinión despreciativa se adujeron dos razones convertidas en estigmas: su falta de objetividad y su incapacidad para generar leyes o universales empíricos. El propósito de este artículo es una refutación de ambos argumentos. Sintéticamente sostendré que:

a) el conocimiento “objetivo” es un mito inalcanzable por los seres humanos,

b) la concepción en que se asienta la producción de universales empíricos en las diversas tradiciones occidentales tiende a:

b1) producir una reducción en la que los rasgos, primero aislados y luego sumados, reemplazan la sistematicidad de las relaciones, impidiendo comprender que cada uno de esos rasgos solo se definen dentro de un sistema y no por sí mismos,

b2) convertir esos rasgos en base de comparación y generalización ignorando el contexto en el que cada uno de ellos se redefine sistémicamente; reducción puede ser utilizada como técnica en el comienzo del análisis pero no como metodología tendiente a la comprensión, predicción o explicación de los fenómenos sociales.

Conclusiones a las que trataré de llegar dividiendo el artículo en dos secuencias. En la primera discutiré algunos supuestos en que se fundó la creencia sobre la posibilidad de que los humanos seamos capaces de producir conocimientos “objetivos”; es decir, capaces de reproducir el objeto (1) evitando que la fidelidad de dichas reproducciones sea alterada por nuestras humanas limitaciones sensoriales y los filtros de nuestros conocimientos y creencias. Convencimiento basado en la convicción de que existe identidad u homología entre la razón que organiza el cosmos y la razón humana. Concepción inaugural de la modernidad, que ya puede encontrarse en Galileo, quién, suponiendo que las leyes de la naturaleza son leyes matemáticas, confiaba en ellas para reproducir la lógica de lo real.

Terminada esa primera secuencia argumental, dedicaré el resto del trabajo a discutir el cómo y el por qué del segundo de los estigmas, que encuentra apoyo en la filosofía mecanicista que predominó desde el siglo XVII en adelante y que dejó huellas profundas aún en otros sistemas de pensamiento. Filosofía que, pese a sus variaciones, tendió a coincidir en que: 1) la materia en última instancia está constituida por corpúsculos o átomos y son el último peldaño al que se puede llegar en el análisis (supuesto que desde ya revela que esos términos poca semejanza tenían con los que actualmente ocupan la atención de las teorizaciones sobre las partículas elementales) y 2) dichos corpúsculos están en permanente movimiento y sus relaciones están reguladas por leyes que permiten prever o explicar el modo en que un ente o el rasgo de un ente se relaciona con otro (sin tener en cuenta el modo en que cada uno de ellos es redefinido en el interior del sistema en el que cobran sentido). Tales supuestos fueron los que, desde el siglo XVII, llevaron a pensar que todo trabajo científico debía encontrar dichas leyes (convicción que ya puede encontrarse en autores como Hobbes, Descartes, Leibniz, Huygens, Gassendi, Boyle, Hooke y Newton). Mientras que las transformaciones ocurridas en siglos posteriores, si bien alteraron raíces importantes de esas creencias, no eliminaron la hegemonía de dos de sus aspectos sustanciales: a) el reduccionismo a entes elementales, definibles fuera de todo contexto relacional y b) la tendencia a generar leyes o universales empíricos basados en tres principios: 1) la identidad de cada elemento; 2) la sumatoria, que genera conjuntos y 3) la covariación, asumida como forma privilegiada de relación entre esos entes o clases de entes.

Discutir sobre la incapacidad explicativa de esos universales me permitirá impugnar el segundo estigma y, por consecuencia, me obligará a esbozar otra posible vía para la construcción de universales, en la que los estudios de caso, la comparación entre ellos, la inducción y las inferencias analógicas cobran un papel principal.

I. Objetividad y estigma

En el pensamiento occidental, las valoraciones sobre las posibilidades del conocimiento sensible variaron de manera significativa desde los orígenes del pensamiento griego. Frente a la opinión de los sofistas, que consideraban que las cuestiones relativas a la moral y a la verdad podían ser percibidas de distintos modos, Platón sostuvo que el conocimiento objetivo es garantizado por el logos (término que ha ido gozando de diversas significaciones, entre ellas la de “ley”, “principio” o “norma”, que es la acepción a la que me refiero en este caso). De allí es que el sabio griego pudiese concluir que, si bien la percepción sensible no permite conocimiento verdadero, tal conocimiento es garantizado en su objetividad por ideas preexistentes al propio acto de intuir. Aristóteles, por su parte, si bien le atribuía un papel mucho más activo y útil a las sensaciones, consideraba que sólo constituyen el punto de partida. Dadas esas sensaciones, la inteligencia debe organizar sus productos mediante un proceso de conceptualización que las torne inteligibles. Por lo que la certeza en el conocimiento es asegurada por el razonamiento, que opera con “universales racionales”.

Así, pese a sus diferencias, ambos filósofos nunca pusieron en duda que la intuición fuese capaz de una reproducción di­recta e inmediata (objetiva y verdadera) de algún aspecto de la realidad. Pues para asegurar dicha coincidencia entre intuición y realidad, de un modo u otro combinaban dos tipos de intuición: a) la sensorial que produce el conocimiento de lo singular y b) la racional que permite abstraer de las intuiciones sensoriales lo que es universalmente verdadero.

Ahora bien, si es pertinente remontarse a esas primeras épocas de la filosofía occidental es porque, pese a las variantes en los encuadres teológicos o filosóficos, dicha creencia en la capacidad de la intuición para captar el objeto predominó hasta el siglo XX y, con variaciones, aún se mantiene como pensamiento instituido en prestigiosas academias. Para Descartes, por ejemplo, la intuición permite forjar ideas que son las cosas mismas sin alteraciones. Idea también sostenida en el otro extremo por Locke, al caracterizar al cerebro como una hoja en blanco en la que la intuición marca las huellas del mundo exterior (Ferrater Mora 1964:988). Lo que indica que, sobre este tema, racionalismo y empirismo no se encaminaron por huellas diferentes. Certezas que, por otra parte, son comprensibles al recordar que hasta el siglo pasado reinaban: a) una absoluta incapacidad tecnológica para investigaciones sobre el proceso neurofisiológico implicado en la percepción y b) una profunda fe en las capacidades cognitivas de la Razón humana. Posteriormente, la negación de la mayor parte de los epistemólogos del siglo pasado a incluir en la epistemología los resultados de otras ciencias impidió subsanar dichos errores, lo que facilitó que aquellas concepciones no sufriesen radicales alteraciones en el pensamiento en la epistemología hegemónica. Convicción que ni siquiera cambió sustancialmente cuando autores como Carnap incorporaron las conclusiones de la Gestalt, ya que lo hicieron de modo tal que no llegaron a romper con los supuestos principales de la filosofía mecanicista a la que ya hiciera referencia.

Llegados a este punto (esto es, no poniéndose en duda ni la verdad de las intuiciones ni la de los enunciados observacionales) no hay obstáculo alguno para creer en la posibilidad de un conocimiento verdadero u objetivo. Reproducción fiel y completa del objeto que puede obtenerse siempre que se consiga anular las influencias perturbadoras o falsificadoras del sujeto que conoce; tarea para la cual la lógica y las matemáticas proveen los instrumentos adecuados. Dicho de otro modo, no se duda sobre la posibilidad de que un sujeto introduzca errores en la presentación de sus datos. Pero ellos únicamente pueden ser atribuidos a una incorrecta aplicación de las reglas lógico–matemáticas o de un vocabulario equívoco; desviaciones que pueden ser evitadas, por una parte, examinando la rigurosidad del lenguaje y de la coherencia discursiva y, por otra, aplicando las conocidas pruebas estadísticas de confiabilidad y validez. Ideas que, si se las piensa con detenimiento, demuestran una injustificada confusión entre la rigurosidad del razonamiento lógico (y/o la exactitud del razonamiento matemático) con aquello que es anterior a ellos, esto es, la percepción y su capacidad de reproducir lo real sin limitaciones.

Como toda regla implica excepciones, afirmar lo anterior no implica desconocer la existencia de filósofos que durante este período se acercaron de un modo u otro a la postura de los sofistas, quienes desde el principio supieron que “la verdad tiene forma humana” según la frase atribuida a Protágoras.

Pero no fueron ellos los que predominaron ni, cuando fueron tomados en cuenta, fueron esos aspectos de sus teorías los que se incorporaron al pensamiento de las comunidades científicas hegemónicas. Por eso es que cobra importancia lo antes afirmado; ya que, al confiar en que el juicio lógico matemático pudiese ser el árbitro para decidir entre conocimiento subjetivo u objetivo, la cuestión se trasladó desde el campo de la percepción hacia el de las pruebas antes aludidas. Distinción que, además de otros desaciertos a los que haré alusión, dio lugar a que se consolidase una extravagante diferenciación entre dos tipos de datos y dos tipos de investigación (la cualitativa y la cuantitativa), lo que supone que hay investigadores que trabajan sobre cualidades e investigadores que trabajan sobre cantidades. Confusión que, apoyada en la ya comentada mezcolanza entre la rigurosidad de las matemáticas y la fidelidad de las percepciones, afianzó el estigma al que ahora estoy refiriéndome.

Pero, ¿es posible pensar en datos que no sean cualidades? Dejando fuera de la cuestión a aquellos pensadores cuya tarea es la de examinar la teoría de los números ¿son los números la materia prima con la que trabajan quienes pretenden obtener conocimientos sobre el mundo, incluyendo a la sociedad humana y sus productos?, ¿acaso no son los rasgos de cada objeto lo que se procura conocer? Pensemos en un objeto en el que los números parecieran ser la principal materia prima, como cuando se pregunta sobre la cantidad de habitantes de un país. ¿Acaso dicho interrogante se refiere a un número o se refiere a la “dotación” como cualidad de la clase “población de tal región”?

El procesamiento puede ser cuantitativo, pero el resultado buscado es una cualidad.

Evidencia que se repite en otros ejemplos. Así, al poner en relación la cantidad de pobladores con el producto bruto interno (PBI) lo que se procura es cualificar una coyuntura; y otro tanto ocurre cuando se afirma que “Tal sociedad es machista y es por ello que a las mujeres se les paga menos en tanto se las juzga como menos calificadas o menos necesitadas”.

Las variables “machismo”, “salarios bajos”, “calificación laboral”, “necesidad” y “PBI” son todas cualidades y esto no depende de que se hayan utilizado o no rutinas estadísticas al procesar los resultados de sendas encuestas. Siendo así, al distinguir entre “cuanti” y “cuali” lo que únicamente hacemos es distinguir entre distintos modos de construir y procesar los datos. Afirmación que se sostiene si se recuerda que en todos los datos las cualidades aparecen en dos momentos: 1) en el momento en que se capta un rasgo, que siempre es cualidad de un objeto y 2) en el momento en que los datos se agrupan formando conjuntos, pues siguiendo lo afirmado en teoría de los conjuntos, el número de integrantes de ese conjunto también es una cualidad: es la cualidad de esa clase. Dicho lo cual es claro que no hay datos cuantitativos: toda investigación se propone conocer cualidades y es el modo en que ellas son procesadas lo que hace a la distinción; por lo que la cuantificación es un modo de procesar datos y no su esencia. Siendo así, afirmar que es posible o no un conocimiento objetivo sobre las cualidades de nuestro mundo tiene consecuencias para todo tipo de investigación, sea “cuantitativa” o “cualitativa”.

En este sentido es importante la opinión de J. Schwartz, citada por Ferrater Mora (1964:149). Según dicho autor, “en su relación con la ciencia, la matemática depende de un esfuerzo intelectual llevado a cabo fuera de la matemática para la especificación de la aproximación que la matemática va a tomar literalmente”. Para ello, el matemático tiene que considerar situaciones bien definidas —o convertir cualesquiera situaciones dadas en situaciones bien definidas, séanlo o no en los hechos. De ese modo, “el matemático convierte en axiomas —y trabaja con ellos tal como si en verdad lo fueran, todo aquello que para cualquier otro hombre de ciencia son supuestos teóricos”. Es justamente cuando tal cosa sucede que la matemática resulta perniciosa, porque introduce una confusión. Conviene pues, concluye Schwartz en la cita de Ferrater Mora, no confundir lo que dice el físico con una interpretación literal de las fórmulas matemáticas de que se vale. Ejemplo de tal situación, dice el autor comentado, es la ecuación de Schrödinger para el átomo de hidrógeno. Esta ecuación “no es una descripción literalmente correcta del átomo, sino una aproximación a una ecuación algo más correcta que tenga en cuenta el spin, el dipolo magnético y los efectos relativistas; ecuación que es a la vez una aproximación mal comprendida a un conjunto infinito de ecuaciones cuánticas relativas al campo”. Por ello el autor concluye que lo que corresponde es considerar que la matemática es un lenguaje y que, por consiguiente, su relación con otras ciencias consiste, a la postre, en la relación que exista, o pueda existir, entre el lenguaje matemático y el de otras ciencias.

Es así como, apoyados en lo enunciado por un representante de las ciencias “duras”, logramos incluir un nuevo ángulo desde el cual visualizar las limitaciones que poseen la lógica y las matemáticas para transmitir entidad cuantitativa u objetiva a un dato.

Pero considerar que todo dato es una cualidad y descubrir que la exactitud lógica-matemática no provee objetividad, si bien permiten desterrar prejuicios confusos, ninguno de esos enunciados resuelven la pregunta sobre la objetividad del conocimiento en general. Niegan algo, pero no afirman nada en su lugar respecto al tema. Por lo que es preciso retomar el camino antes comenzado viendo las cosas desde un nuevo ángulo.

Si no es posible fundar la objetividad del conocimiento en la efectividad de las pruebas lógico matemáticas ¿es de todos modos posible hablar de “conocimiento objetivo”, definiendo objetividad como la identidad entre el objeto y el sujeto del conocimiento?

Hacer frente a esta pregunta me conduciré a buscar respuestas allí donde no las buscaron quienes postularon la posible objetividad cognitiva. Esto es, dejar de pensar que es en la lógica donde encontraré todas las respuestas e indagar en ciencias que se ocupan de todo aquello que es anterior a la organización lógica en el proceso cognitivo y que, en los hechos, afecta su auto asignada universalidad, negando otras posibles lógicas (2) asociadas a organizaciones cognitivas diferentes a las que emergieron en la tradición judeo/greco/cristiana. Debo preguntarme sobre nuestras capacidades perceptivas; y, como toda idea clara y distinta requiere exhaustividad y exclusividad, hacerme dos preguntas referidas a dos aspectos de una misma cuestión: 1) si nuestros órganos sensoriales logran una captación exhaustiva respecto a la integralidad del objeto percibido y 2) si en la percepción solo interviene la capacidad sensible o ésta se integra y cualifica, de manera peculiar, según los conocimientos, creencias, valores y actitudes de quienes perciben.

Sobre todo a partir de la segunda mitad de este siglo, los aportes de diferentes disciplinas fueron haciendo posible una teoría sobre la percepción que ha permitido confirmar que el sujeto solo percibe algunos, pero no todos, los estímulos que existen en lo Real. Limitación y conformación fijada por las capacidades de los sentidos bio/psico/socialmente organizados (3).

La participación del sujeto en la investigación

Toda percepción es el producto de sentidos conceptualmente organizados. Dada esa proposición, la percepción puede ser analizada en dos partes: en relación al modo en que actúan los sentidos y al modo en que actúan los conceptos en el proceso cognitivo.

Los sentidos y la objetividad cognitiva

La coincidencia interdisciplinaria a la que hiciese alusión confirma que la percepción no puede ser caracterizada como “la visión di­recta e inmediata de una realidad” o “la comprensión directa e inmedia­ta de una verdad”. De hecho, cada uno de nuestros sentidos posee un rango de capacidades. Fuera de su alcance no captan ningún estímulo aún cuando en lo Real existan formas de energía que pudiesen, en cambio, ser percibidas mediante otros aparatos sensoriales o mediante instrumentos aun no conocidos.

Eso es lo que, por ejemplo, sucede con ciertos sonidos que son imperceptibles para el oído humano pero no para los perros. Por lo que esos sonidos que forman parte del mundo conocido en el que el perro habita (y frente a cuyos estímulos responde) no conforman nuestro mundo. Afirmación que no es negada sino confirmada cuando nuevos instrumentos amplían esas capacidades perceptivas. Al hacerlo, podemos darnos cuenta de que antes existían cosas o aspectos de las cosas que no percibíamos y que eso puede seguir siendo así, pues los nuevos instrumentos también son limitados respecto a la inmensidad de aspectos desde los cuales pueden considerarse cada uno de los objetos, aun los más pequeños.

Dadas esas limitaciones se puede concluir que, aun si enfocamos el tema considerando únicamente nuestras capacidades sensibles, ya podemos ir produciendo dos conclusiones: 1) que el objeto, tal como lo llegamos a conocer, siempre es el producto de un sujeto y 2) que la absoluta identidad entre la cosa y su conocimiento únicamente puede ser adjudicada a Dios (exista o sea una mera ficción cognitiva que sirve para indicar lo que no somos). Para los seres humanos, lo percibido no es todo lo real sino aquello que los sentidos pueden captar, el intelecto conceptualizar y la acción probar el monto o alcance de su eficacia. Razones por las que el conocimiento objetivo, entendido como reproducción del objeto sin interferencias subjetivas, es una mera ilusión.

Teniéndolo en cuenta podemos decir que los datos (cualquiera sea el modo en que luego se los procese) siempre son un compuesto en el que participan, por una parte, las específicas capacidades y conformaciones de los aparatos sensibles del sujeto y, por otra, aquellos rasgos del objeto que el sujeto cognoscente pudo asimilar. Compuesto que, como veremos, nuevamente debe ser cualificado al examinar el efecto de las cosmovisiones, representaciones sociales o habitus, que también producen posibilidades cognitivas diferenciales: tema del próximo apartado.

Conocimiento anterior y objetividad

Si bien es posible analizar la percepción encarando sólo el desempeño de los aparatos sensoriales, el resultado es una representación parcial del asunto pues, como dijera, toda sensación (salvo raras excepciones) es una actividad conceptualmente organizada.

Ciertamente, tanto las teorías del conocimiento como la práctica de los investigadores siempre han tenido en cuenta que existe una relación importante entre el conocimiento acumulado y el nuevo conocimiento. Esa es la razón por la que toda investigación es precedida por una revisión bibliográfica a la que se le atribuye al menos dos funciones: 1) asegurar que no habrán de repetirse investigaciones ya terminadas satisfactoriamente y 2) aprovechar los descubrimientos ya obtenidos con el propósito de partir desde ellos y avanzar un escalón más en el progreso del conocimiento.

Esta forma de encarar la relación entre viejo y nuevo conocimiento resulta útil. Pero es insuficiente debido a que no incluye otra de las formas en que ella debe ser planteada: me refiero al grado y a la forma en que el viejo conocimiento crea las condiciones de posibi­lidad para la aparición de un conocimiento nuevo. Ese es el tema que abordaré a continuación. El propósito es introducir uno de los aportes del  “constructivismo”: el conocimiento anterior produce el marco que condiciona y hace posible la organización cognitiva de las sensaciones.

Pero antes recordaré el aporte pionero de Charles Pierce, quien intuyó esa diferencia al proponer, tanto en su teoría de los signos como en su teoría de los “hábitos mentales”, un modelo que puede servirme como introducción a la idea que iré desplegando.

Diferente a la conocida versión saussureana, según la cual en el signo lingüístico puede diferenciarse un significado y un significante, Peirce distingue analíticamente tres elementos en la conformación de un signo. El primero es aquella parte de lo real que es percibida y que, cuando ello ocurre, es instantánea e indisolublemente acompañada por un segundo elemento: la imagen mental que da cuenta de esa percepción. Refiriéndose a esta relación, Pierce dice: “El signo está en lugar de algo, su OBJETO. Está en lugar de ese objeto, no en todos los aspectos, sino sólo con referencia a una suerte de idea, que a veces he llamado el FUNDAMENTO del representamen” (1967:228). Como resulta evidente, aunque la distinción es analítica, incorpora un progreso respecto a otras versiones, pues permite introducir lo imaginario como momento del proceso cognitivo (4).

Sin embargo, lo imaginario, aunque consiga integrarse en nuestros recuerdos y activar en nosotros sus cargas afectivas, por si solo no puede incorporarse ni en una secuencia reflexiva ni en el devenir social del discurso. Por lo que esa relación únicamente es el primer paso en la formación de un signo, que aún se mantiene como potencia y que, por ende, podría no llegar nunca a serlo si no se produce un segundo movimiento tendiente a su simbolización, ya que con lo imaginario todos tenemos una relación  “inmediata”, difícil de transmitir sin recurrir a la palabra. Dicho de otro modo, esa imagen aun no es un signo y únicamente pasará a serlo cuando se le adjudique un representante o, en palabras de Peirce, un interpretante. Ese representante puede tomar varias formas, pero es en la palabra donde obtiene su expresión más adecuada para la reflexión y la comunicación. Esa palabra es un signo.

Ahora bien, ¿es suficiente que aparezca una palabra para que interpretemos su significado? No lo es. Por el contrario, cada signo es a la vez interpretante del que antecede e interpretado por el que le sigue. Por lo que cada palabra, para ser interpretada, requiere del conocimiento de la lengua, sus reglas y de una gran cantidad de otros elementos con los que comparte la escena. Eso es justamente lo que demuestra Voloshinov (1995:203-207) tomando el ejemplo de una palabra neutra como /esto/, que cobra significado únicamente cuando se la relaciona con otras informaciones contextuales y cotextuales; del mismo modo que constituye la razón por la que Umberto Eco (1997 y 1974) puede demostrar la inutilidad de recurrir solo a la deducción o a la inducción para comprender un significado. Si la palabra en cuestión es desconocida por un receptor, para comprenderla éste debe recurrir a sus conocimientos del lenguaje y de los usos habituales del grupo humano en el que la comunicación se produce. En ese acto, como en muchísimos otros, dicho conocimiento anterior es una condición indispensable para arriesgar una hipótesis sobre un significado; hipótesis que puede ser corroborada o ir precisándose mediante todos los ensayos y errores que sea necesario. Así, al diferenciar la secuencia  “conocimientos preexistentes / hipótesis / investigación / rectificación o corroboración”, Peirce pone de manifiesto la existencia de una forma de razonamiento que no es estrictamente inductiva ni deductiva, pese a que fuese clasificada por Aristóteles entre los silogismos inductivos (ver, entre otros, Debrock 1998). Si bien es complementaria con las otras dos formas, su cualidad principal es la de situarse en el primer estadio en la producción de un probable nuevo conocimiento dando lugar a una hipótesis cuya investigación dará por resultado conclusiones que sólo podrán primero ser aceptadas y luego inductivamente generalizadas una vez ocurridos varios experimentos exitosos.

Diferencias entre formas de silogismo que se pueden apreciar aun mejor si consideramos cuál es la distinción que el pragmático norteamericano postula respecto a los modos en que actúa el conocimiento anterior en la deducción, en la inducción y en la abducción. En la primera, las premisas son conocidas y la adecuada combinación entre ellas permite adjudicar, a un determinado ente incluido en la premisa menor, los rasgos sintetizados en la premisa mayor, que forzosamente contiene a los entes que han sido aludidos en la segunda de las premisas. Siendo así, en la deducción se parte de un conocimiento preexistente pero con dos limitaciones: 1) en el proceso no se puede determinar cómo es que se llegó a ese conocimiento y 2) lo que se produce no es nuevo conocimiento sino, en todo caso, una toma de conciencia, por parte de quien lo ejercita, sobre aquellos conocimientos preexistentes incluidos en la premisa mayor. Por el contrario, tal como clásicamente es presentada, en la inducción nada hace suponer que exista un conocimiento anterior a aquel en que el razonamiento inductivo comienza. Fiel a su cultivo por los filósofos empiristas, la inducción es concebida por éstos como el acopio de conocimientos sobre una clase de entidades, de rasgos o de relaciones a partir de la “tabula rasa” (Locke 1956). Formulación que permite postular, probabilísticamente, la existencia de otros entes o de otros rasgos similares a los ya conocidos.

Así pues, tal como se puede apreciar en lo afirmado en el párrafo precedente, tanto la deducción como la inducción presentan limitaciones que las hacen insuficientes para representar cualquier proceso cognitivo.

Al menos, no lo pueden hacer sin recurrir a uno de dos supuestos: 1) una entidad trascendente que provea certezas sobre la veracidad, y sobre lo modo en que a ella se puede arribar, propio de los deductivistas o 2) la pureza infinita de las percepción sensible que captura el objeto y permite la aparición del signo que lo identifica, proceso que deja de lado, como vimos, todo estudio de los empiristas sobre el complejo proceso que es aplastantemente simplificado por esa fórmula.

Así, dados los limites de ambas formas de silogismos, se abre una brecha que impulsa hacia la producción de una nueva figura que permita comprender el modo en que el viejo y el nuevo conocimiento se interrelacionan. Es en esa encrucijada donde la propuesta de Peirce cobra su mayor mérito, no únicamente porque completa el abordaje lógico sobre el proceso de construcción cognitiva sino, también, porque supera el habitual intento de los lógicos por sustraer a esa disciplina de toda relación con las otras que versan sobre lo humano.

El modo en que Peirce relacionó las tres formas del silogismo fue el siguiente: cuando la abducción sugiere una teoría, empleamos la deducción para deducir a partir de esa teoría ideal una promiscua variedad de consecuencias a tal efecto que si realizamos ciertos actos, nos encontraremos a nosotros mismos enfrentados con ciertas experiencias. Cuando procedemos a intentar esos experimentos, y si las predicciones de la teoría se verifican, tenemos una confianza proporcionada en que los experimentos que aún no se han intentado, confirmarán la teoría (CP 8.209, c.1905).

Así pues, de los diversos conocimientos anteriores seleccionamos algunos que se relacionan de algún modo con el problema a resolver. A partir de ellos deducimos y seleccionamos la(s) hipótesis más creíbles. Tales hipótesis son investigadas y el conocimiento adquirido permite iniciar un proceso inductivo que conducirá a generalizaciones empíricas que sostendremos mientras no se compruebe su falsedad o ineficacia.

Por lo que el conocimiento preexistente, cuyos orígenes se pierde en los recodos de nuestra ignorancia sobre nuestra historia como especie (o, aun más, sobre la historia de la vida) es el que proporciona las canteras desde las cuales extraer dichas hipótesis y su importancia es tal que, si tales hipótesis no existiesen, la búsqueda de nuevos conocimientos se emprendería sin rumbo fijo; por lo que podría ser inacabable y aún imposible, pues ningún concepto se crea desde la nada.

Pero nada indica que, en algún momento, alguien (empirista o no) haya partido de ese momento cero del saber. Así pues, la  “abducción” completa el proceso al que Oldroyd (1986) diese en denominar arco del conocimiento. Incorporada la percepción sobre el proceso abductivo, dicho arco ya no lo podemos ver comenzando en la inducción. Por el contrario, el arco, obtiene sus fundamentos en la abducción (que implica hipótesis e investigaciones), dadas esas investigaciones es posible acumular inductivamente clases de entes, de rasgos de entes o de relaciones entre cualquier combinación que podamos encontrar entre los entes y sus rasgos. Dicha acumulación es lo que da origen a generalizaciones empíricas (a las que en otros campos del saber podemos simplemente denominar acumulación de experiencias). Enriquecido el campo de las experiencias, cuando nos enfrentamos con una nueva entidad o situación que se aparte de nuestras expectativas, ella podrá ser investigada mediante un proceso formalmente parecido, esto es: <saberes acumulados / abducción / experimento(s) / inducción / universales incorporados en el saber existente>.

Dado ese aporte, lo que ocurre durante el denominado “contexto de descubrimiento” dejó de ser ese acto al que epistemólogos como Reichenbach (1938 y1954) y Popper (1973) habían ubicado en el reino de lo inexplicable e irracional.

Más tarde, el aporte del pragmático norteamericano fue radicalmente enriquecido con el perfeccionamiento de los estudios neurofisiológicos y los aportes de la investigación psicosocial sobre la percepción. Así es como lo confirman las abundantísimas investigaciones que se hicieron en el siglo pasado y en lo que va de éste, la participa­ción de los sentidos (entre otros ver, Gombrich 1995 y Kanizza 1986), se suma a la participación de las creencias, de los valores y de los esquemas de actuación habituales en la conformación de todo nuevo proceso cognitivo (entre otros, ver Simon 1980 y 1989, Piaget 1985, Varela 1992, Moscovici 1993, Carretero 1997, García 2000). Son ellos, convertidos en canteras heurísticas, los que hacen posible la novedad cognitiva y, al mismo tiempo, la selección, organización y atribución de sentido que ocurre tanto si se contempla la per­cepción desde su cariz meramente orgánico y fisiológico como desde su cariz conceptual.

Para ilustrar algo más lo expuesto en párrafos anteriores recurriré al análisis y la narración que hiciese Carmen Viqueira (1977) sobre las investigacio­nes hechas por científicos como Cohn, Rivers, Myers, Woodworth y Brummer. Según la autora, ya en su época dichos investigadores detectaron que las heterogeneidades en los umbrales sensoriales no correspondían a características raciales ni a diversos grados de “evolución”. Por un lado, las diferen­cias entre diversas etnias no eran destacadas y, por otro, eran más atribuibles a diferen­ciaciones en los géneros de vida que a características biogenéticas. Esas opiniones fueron revalidadas cuando, hacia los años 30 del siglo XX, se reactivaron las investigaciones sobre el tema (esta vez impulsadas por el renovado interés en la herencia racial como base de las diferencias en el género humano). En este último caso, tal como lo recuerda la autora recién citada, los trabajos de Goode­nough, Thouless, Schwtzgebel y Hudson permitieron dar credibilidad a dos supuestos: a) las diferencias en la sensibilidad perceptiva pueden relacionarse con las necesidades típicas que impone el medio –sea este natural o cultu­ral–, por lo que es razonable apostar a que esas diferencias se deban a proce­sos experimentales acumulativos y b) esos procesos acumulativos tienen su centro en la herencia cultu­ral de cada una de esas poblaciones –aunque, podría agregarse, no es imposible que, en el largo plazo, esas diferencias se conviertan en diferencias genéticas.

Como dice Viqueira (1977:302-303), “nuestros hijos tienen que aprender a ver dibujos; tienen que aprender a adoptar una determinada actitud que les permita una organización tridimensional del espacio representado en superficies bidimensiona­les. Hacen cubos de cartulina, dibujan esos cubos, aprenden que para dibujar un plato no hay que hacer un círculo sino una elipse: los hijos de un pigmeo cazador tienen que aprender a ver otras cosas y en otras condiciones: Tienen que descubrir a los animales ocultos entre la maleza; tiene que aprender a distinguir una plantas de otras; es bastante evidente que con el aprendizaje que reciben nuestros hijos difícilmente podrían sobrevivir en la selva tropical”.

Tener en cuenta esas diferentes formas de adaptación al medio (que es una de las más poderosas razones para la producción de cultura) permite comprender el rol de los conceptos y su relación con los textos y contextos culturales en los que ellos cobran sentido.

En situaciones como las presentadas por Viqueira, es recién cuando existen conceptos tales como “pájaro”, “ramas”, “hojas”, “flores”, etc., en que pueden distin­guirse los rasgos de cada uno de esos elementos, aún cuando ellos estén entremezclados con otros rasgos del paisaje.

Así pues, como bien saben los traductores, cada tradición cultural ha creado aquellos conceptos que le permiten expresar matices o distinguir fenómenos que, por no serles necesarios, no produjeron otros grupos humanos. Eso es lo que habilita a que significantes diversos aludan a una misma cosa o que en una tradición exista un concepto mediante el que se diferencia un fenómeno que en otra tradición no ha sido diferenciado. Por lo tanto, cuanto menos hayan interactuado esas tradiciones culturales, mayor será la diferencia existente entre sus vocabularios y representaciones del mundo.

Tales divergencias son un producto histórico que, si bien no es fácil trascender, tampoco es imposible superar; ya que la inconmensurabilidad proclamada por Kuhn (1971) no existe. Por el contrario, cuando se producen los primeros intercambios entre culturas o subculturas (incluyendo las de las comunidades académicas) se engendran interpenetraciones que obligan a los representantes de cada tradición a ampliar el propio horizonte lingüístico, debido a la imperiosa necesidad de comprender a los otros; trabajo que exige una delicada tarea de comparación, rupturas, reelaboraciones y búsquedas de analogías con lo conocido; tareas indispensables para lograr un ajuste entre los esquemas conceptuales del aprendiz (el antropólogo o quien ocupe ese lugar) y los del maestro (el aborigen de un país o de un ámbito cultural específico). Claro está que, según sea el tipo de cuestión, esas distancias no siempre serán siempre evidentes, pero es necesario recordar su inevitabilidad para no caer en la falsa ilusión de que la comunicación llega a un momento de total transparencia. Dificultad no siempre bien comprendida por quienes creen en la pureza objetiva de los datos. Por el contrario, es a partir de comprender el efecto del saber o representaciones sociales que Gombrich (1995) pudo afirmar que las representaciones realistas dependen del grado en que el artista y su crítico comparten las mismas convenciones respecto a la manera en que se producen las representaciones. Por lo que “lo realista” no refiere únicamente a la capacidad de representar lo real, sino a la mayor o menor semejanza en los modos en que el emisor y el receptor producen e interpretan cada mensaje.

Nada de esto niega que en algunos casos, un observador agudo pueda llegar a percibir fenómenos que produzcan en él una imagen o sensación diferente a las conocidas; sólo que dichas imágenes o sensaciones, más allá de sus posibles efectos psíquicos, no podrán convertirse en conocimiento mientras el observador no cree, o alguien le proporcione, un concepto que le de forma simbólica a tal imagen. Efecto al que la teoría de los signos de Peirce dio un lugar apropiado para su comprensión, tal como lo viéramos anteriormente, pues esa formación de imágenes es un primer estadio en la formación de un signo (CP 2.281, 285 y 297-302).

Como entonces vimos, gracias a que hay un momento en que se forma una imagen de lo real que puede no poseer un signo que la represente, ocurre una disonancia. Tales disonancias pueden disolverse por no lograrse un signo que la represente o puede constituirse en el detonante de nuevas construcciones conceptuales, sea porque alguien nos provea del concepto adecuado, sea porque lo inventemos, investigando y acudiendo a otros conocimientos que, por analogía, permitan producir una nueva conceptualiza­ción. Es con ella que lo nuevo es convertido en conocimiento e incorporado en la experiencia y en el discurrir de las relaciones sociales convertido en un aspecto más de aquello que Moscovici (1993) denominase representaciones sociales, Bourdieu (1984) habitus, Schütz (1972 y 1974) y en general los interaccionistas simbólicos esquemas. Formaciones que actúan como filtro en la percepción e interpretación del mundo externo.

Filtros que, dicho sea de paso, indican que es justamente esa común socialización (que comienza en determinadas sociabilidades primarias y culmina, para los científicos, en las comunidades dentro de las que ellos actúan) lo que impide que el juicio intersubjetivo sea suficiente para producir objetividad. Afirmación cuya justificación ya fue expuesta e indica la relativa homogeneización sobre la conformación de saberes que se presentan en cada una de las comunidades en que el individuo participa. Siendo así, en las comunidades académicas, que son comunidades de ese tipo, el control y la constante comunicación entre pares produce representaciones sociales semejantes. Dada esa comunidad que es diariamente cultivada (Merton 1980), la crítica intersubjetiva permite superar ciertos sesgos personales, pero nunca anula ese componente de subjetividad ya comentado que forma parte de cualquier dato (aunque en estos casos las representaciones que intervienen en su conformación son sociales). Por lo que, si bien la objetividad puede ser atribuida a Dios, no lo puede ser a los seres humanos, en quienes los datos siempre son un compuesto de elementos “externos” y posibilidades subjetivas.

II. La investigación cualitativa y las generalizaciones

Ya en los albores de lo que sería el cualitativismo, sus cultores plantearon que si bien las ciencias naturales deben recurrir a leyes para explicar o predecir, no ocurre lo mismo con las histórico-sociales, cuyo objetivo es comprender la individualidad de los productos culturales y de las acciones históricas que les dieron origen; por lo que las leyes (en tanto generalizaciones que suprimen lo idiosincrásico) le son innecesarias e inconvenientes (una síntesis de estas posiciones puede encontrarse en (Rossi 1975:50-132). Tendencia que no cambió hasta ahora pues, aunque hayan aparecido escuelas que son divergentes en otras cuestiones, la tradición cualitativista sostuvo una férrea continuidad en su pretensión de conocer objetos singulares.

Sin embargo, en un contexto en que únicamente se consideraba ciencia a todo conocimiento mediante el que por medio de leyes o generalizaciones empíricas se pudiese explicar o predecir, todo trabajo tendiente a una investigación en profundidad de casos individuales (o de un número limitado de casos) no entraba en la definición de ciencia. Por eso es que, tal como ocurrió con el primer estigma (el de  “subjetivista”), el segundo estigma de la investigación cualitativa fue el de agotarse en una mera casuística, sin otro valor que ilustrar el modo en que suceden ciertos fenómenos o aportar descripciones sobre cuestiones poco conocidas. Postura a tal punto hegemónica que en cierta época fue compartida, de un modo u otro, hasta por quienes hacían investigación cualitativa. Es por ello que para fundamentar mi desacuerdo, debo presentar argumentos que, pese a los límites estrechos de este artículo, me llevan a reconstruir algunos momentos de la alcurnia de esa noción sobre la ciencia.

Herencias de la filosofía mecanicista

Hacia el siglo XVII se fue fortaleciendo la vigencia de una concepción de la materia según la cual ésta era una suma mecánicamente articulada de cuerpos infinitesimales, cuyas propiedades primarias eran la forma, el tamaño, la magnitud, la disposición y el movimiento. Dicha filosofía, denominada mecánica o corpuscular, fue el medio ambiente en el que se produjeron múltiples y fundamentales descubrimientos y cosmovisiones (entre otros, ver Oldroyd 1986 y Koyré 1984).

Entre los más destacados filósofos, físicos y matemáticos que sustentaban diversas versiones de esta filosofía pueden encontrarse Nicolo Galileo, Francis Bacon, René Descartes, Pierre Gassendi, Christiaans Huygens, Thomas Hobbes y, peculiarmente, Isaac Newton, cuyos aportes a la ciencia hicieron de esa filosofía un referente prácticamente indiscutido; al menos antes de la teoría de la relatividad y, sobre todo, de la teoría sobre las partículas cuánticas (5).

Según esta filosofía, todo lo real está conformado por corpúsculos que son el último escalón alcanzable en el proceso analítico. Mediante adición, dichos corpúsculos conforman totalidades mayores y sus movimientos son regidos por dos fuerzas, la de posición (que implica atracción o rechazo) y la de movimiento.

Dados dichos supuestos, Francis Bacon propuso una metodología que permitiese clasificar inductivamente tales partículas de modo tal que pudiesen construirse conceptos y taxonomías (Remmling 1982 y Oldroyd 1986); método que posteriormente John Stuart Mills (Mills 1948) elaboró extendiendo su uso, ya que su pretensión no sólo fue la de construir categorías, sino detectar aquellas relaciones constantes entre elementos a las que pudiese dársele la alcurnia de leyes.

Se perfiló así un camino que marcó a la epistemología de los siglos XVIII, XIX y XX y que, aunque debilitándose, sigue marcando la epistemología predominante en este siglo. Sus dos constantes fueron: 1) pensar cada rasgo de un objeto como una entidad cuyo concepto permite distinguirla de otras entidades (principio de identidad); 2) concebir las relaciones entre esos rasgos de dos formas: a) como relación aditiva capaz de producir conjuntos o b) como relación de covariación o articulación funcional entre conjuntos. Dado el primer supuesto, las totalidades son pensadas como suma de partes en las que cada una de ellas conserva su propia identidad; por lo que, aunque la suma produzca una nueva entidad, ésta no altera la identidad de sus componentes. Mediante el segundo, se piensa a la covariación como el modo privilegiado de comprender las relaciones entre entidades, sea en movimientos espaciales o temporales. Transportado a la lógica, este atomismo fue retomado por Bertrand Russell, para quien el discurso podría describirse como algo compuesto de átomos lógicos, esto es, de elementos que, como los corpúsculos newtonianos, ya no pueden ser descompuestos o subdivididos; cada elemento es idéntico a sí mismo y todos los elementos que poseen las mismas identidades pueden ser agrupados en clases; de allí la denominación de “lógica conjuntivo-identitaria” que le atribuye Edgard Morin (Morin 1994).

Pese a otras diferencias, este aspecto corpuscular nunca fue cuestionado durante las épocas de esplendor del positivismo lógico y del empirismo lógico; como tampoco lo sería en las diversas versiones del individualismo metodológico. Por otra parte, tales suposiciones contaban con la ventaja de ser congruentes con el modo en que se habían desarrollado la lógica y la matemática. En efecto, siendo el núcleo elemental unidades tales como un ente o alguno de sus rasgos (que compartían el principio de identidad y aditibilidad), la traducción del dato al número es inmediata y, por ende, dicho supuesto hizo de la estadística un instrumento que incrementó el valor atribuido a este modo de elaborar productos cognitivos. Percepción confirmada por la psicología asociacionista, por entonces preponderante en Europa, que consideraba a la percepción como la suma de estímulos simples, ligados de manera directa a los aparatos sensoriales. Conjunción de tendencias que, alentadas por el entusiasmo ocasionado por los descubrimientos realizados entre los siglos XVII y XIX, produjesen tanto el afianzamiento de ciertos rasgos de la filosofía mecanicista como un fuerte impulso hacia la especialización; que tendía a reducir las entidades a aspectos abstraídos e independizados, para estudiarlos más a fondo, dejando de lado toda búsqueda de una metodología que permitiese el movimiento inverso.

Por entonces parecía evidente que, tal como ocurre con una máquina, para reconstruir cognitivamente totalidades mayores es suficiente con recurrir a la sumatoria o articulación de partes cuyo estudio y producción esta cargo de un especialista; por lo que, aceptado dicho supuesto, no podía pensarse en otras relaciones que no fuesen la asociación, la causalidad o la policausalidad. Pensamiento incapaz de producir conceptos adaptados a situaciones o fenómenos complejos. Por lo que los resultados obtenidos engendran una imagen de la realidad que en algunos casos sigue siendo útil, pero que es incapaz de representar, en forma adecuada, objetos tales como las relaciones sociales, los eco-sistémicas y una gama muy grande de cuestiones relacionadas con problemas con que actualmente se enfrenta un espectro de ciencias que va desde la neurofisiología, la psicología, la sociología, la meteorología y hasta la física, por citar sólo algunas.

Así es que, cuando los filósofos encuadrados en dichas escuelas pensaron en el modo en que se producen las leyes, siguieron el mismo camino. Esto es, caracterizaron la conformación y los cambios sociales mediante una sumatoria de atributos o de sujetos, recurriendo a diferentes fórmulas de covariación para determinar relaciones que, experimentalmente repetidas, daban lugar a la creación de universales empíricos. De ese modo, tales generalizaciones están formadas por una o más clases de eventos (a los que se hace alusión mediante conceptos designativos) relacionados entre sí por conectivos lógicos y teóricos (como los de causalidad, asociación, etc.) que establecen relaciones entre aquellos conjuntos mediante algún modo de covariación o de distancia/proximidad con la curva normal, también basada en las probabilidades de que se presenten, de una u otra manera, elementos o rasgos de un conjunto.

Debido a esos atributos, la capacidad generalizadora de estos universales hereda las virtudes y/o los defectos del modo en que se produjeron los conceptos designativos y el modo en que se conceptualizaron sus relaciones. Por ejemplo, eso es lo que se detecta en los estudios en que se ponen en relación atributos tales como “NBI”, “preferencias políticas”, “estatus socioeconómico”, “capital cultural”, “edad”, “sexo”, etc. Cualidades que fueron y son tratadas como unidades, agrupadas en clases e incorporadas en leyes en las que se establecen covariaciones entre unas y otras. De tal modo, cualquiera sea el grado de sofisticación del procesamiento al que se recurra (tabulaciones cruzadas, correlaciones más o menos simples o técnicas multivariadas muy ingeniosas) lo que siempre se obtiene son conjuntos de propiedades o de individuos, covariaciones entre propiedades o entre individuos y/o desviaciones de la distribución de estos respecto a la curva normal.

Ahora bien, este es un modo de concebir la teoría que, si durante mucho tiempo fue satisfactorio en muchos campos de la ciencia, siempre mostró su límite para el estudio de fenómenos histórico-sociales.

La razón es simple: los objetos de este tipo de ciencias no sólo son complejos, por el contrario, llegan a un grado de híper complejidad que deja pálido cualquiera de nuestros trabajos pues, al mismo tiempo, se entrecruzan y reinstituyen infinidad de rasgos de individuos, de acontecimientos y/o líneas causales, multicausales o sobredeterminadas (6), cuya conjugación es extremadamente difícil representar. Dada esa infinidad de conjunciones posibles, explicar un caso desde el mecanicismo y el especialismo pasa a ser una tarea empobrecedora, no solo porque desde esas posturas no se pueden pensar en relaciones de sobredeterminación sino, además, porque tales teorías no proveen criterios que permitan elegir y fundamentar por qué se seleccionaron ciertos recortes cognitivos y/o ciertas relaciones y no otras.

Para dar solo un ejemplo simple de una de las deficiencias a las que aludo: es útil conocer cuáles son las NBI en determinado país o región. Pero no bien, con ese dato, queramos formular y aplicar alguna política social, nos encontraremos con que son diferentes los recursos, las representaciones y los modos de interlocución de cada una de las sociabilidades en las que se aplica el plan; por lo que, como ocurre con frecuencia, un plan formulado desde caracterizaciones reduccionistas resulta en un éxito no sostenible en el tiempo. Posiblemente, si se hiciese una evaluación de resultados con las técnicas cuantitativas habituales el resultado daría positivo; pero ello normalmente se debe a que aún el contexto es gobernado o influenciado por el equipo encargado del plan. En cambio, si regresamos a los cuatro o cinco años, cuando tales equipos ya dejaron el lugar, habremos de constatar que aquellos éxitos fueron perdiéndose en el tiempo; y las costumbres, duraderas por excelencia, volvieron a recobrar su antiguo cauce, habiendo resignificado lo hecho a tal punto que las huellas originales de aquel plan pueden ser difícilmente percibidas.

Ejemplos habría otros, sin embargo, como supongo que podemos acordar fácilmente en que es demasiado obvia la incapacidad del método nomológico deductivo para generar una teoría sobre relaciones complejas, no creo oportuno seguir abundando en ello. En cambio, por su grado de influencia en medios académicos, conviene comentar la manera en que uno de sus principales exponentes entiende el modo en que se pueden solucionar esas múltiples e infinitas combinaciones potenciales y el alcance al que pueden llegar las explicaciones nomológicas en el caso de las ciencias sociales.

Hempel (1965), por ejemplo, no ignora esa multiplicidad a la que antes hiciera referencia y comprende (lo afirma explícitamente en uno de sus textos) que es imposible determinar cuáles son todas las características repetibles de un dato particular o todas las condiciones iniciales y leyes que puedan explicar o predecir un caso, ya que explicar todos los aspectos de un objeto equivale a explicar cada hecho concreto del universo, pasado, presente y futuro.

Es así que, pese a su intento de unificar el modo de explicación de las ciencias histórico sociales con el de las ciencias físicas, concluye que, en las primeras, a lo sumo se puede llegar a un “esbozo de explicación” (Hempel 1965 y 1979). Por lo que, con sus propios argumentos, es posible afirmar que, al menos en las ciencias histórico-sociales, el método nomológico deductivo no puede producir, tal como se lo propuso, una teoría global desde la que deducir hipótesis singulares. Imposibilidad que, entre otras razones, emerge del ya enunciado carácter abstracto con el que se consideran los elementos; de tal modo que cada uno de ellos, lejos de pertenecer a un caso, pertenece a una clase universal y abstracta. Imposibilidad, por otra parte, que se acrecienta exponencialmente en sistemas cuya peculiaridad, entre otras, es la de encontrarse en permanentes movimientos (entre los que inciden la misma presencia del investigador); razón por la cual las caracterizaciones de cada uno de los “estados” o “momentos” de una identidad cualquiera sólo son pertinentes si se recurre a modelos complejos, en el que se detecten las identidades, sus relaciones y sus emergentes. Únicamente en ese caso podemos hablar de definiciones y efectos contextuales y únicamente en ellos podremos encontrar razones que nos permitan justificar cuáles son los criterios que debemos utilizar para comprender, en un cierto nivel, su dinámica.

Como afirmase en otro trabajo (Saltalamacchia 2005), para que esa pretendida deducción fuese aplicable se debería suponer que los casos singulares (con los que siempre se enfrenta el investigador) son elementos de una clase, lo que supone la serialidad de los procesos e identidades y, por ende, la posibilidad de pen­sarlos como idénticos a los ya conocidos. En cambio, pensar en sistemas complejos es suponer que las identidades se reinstituyen al entablar relaciones con aquellas otras con las que forman el sistema, lo que dificulta que la serialidad sea el principal modo de abordaje cognitivo. Reinstitución propia de totalidades en las que suelen producirse: 1) secuencias causales simples (la puesta en práctica de una acción es causa de otra); 2) secuencias condicionantes (ciertas relaciones crean un medio sistémico en el que se facilita la ocurrencia de ciertas secuencias, simples o concurrentes, que producen las relaciones, identidades o emergentes); 3) secuencias concurrentes, que pueden producir policausalidad o sobredeterminación.

Por lo tanto, aunque los científicos proclamen que su objeto de investigación es una estructura social, mientras no se aparten de este tipo de epistemología, lo que resulta de sus trabajos no se parece en nada a aquello implicado estrictamente en los conceptos “estructura” o “sistema”. La razón es simple: para que cualquiera de ambos conceptos cobre sentido es indispensable aceptar que cada uno de sus elementos no sólo se conecta sino que se redefine en el contexto de sus relaciones con los otros.

Complejidad, estudios de caso e inferencias

El apartado anterior se propuso demostrar que la filosofía mecánica y las principales manifestaciones de las teorizaciones nomológico-deductivas no cumplen con requerimientos básicos que permitan comprender lo social por su incapacidad de trascender los límites de la lógica conjuntivo-identitaria. Sintetizando los argumentos presentados podemos afirmar que, desde ese paradigma, el investigar produce leyes a costa de la descontextualización de los elementos que se ponen en relación. Es dicha peculiaridad lo que la torna incapaz de deducir, desde aquellas leyes, las peculiaridades de un elemento (o de partes o momentos de la evolución de un sistema) que, por pertenecer a un sistema, toma rasgos peculiares dada sus relaciones con los restantes elementos y con los emergentes de tales relaciones. De elementos descontextualizados y luego relacionados del modo ya comentado solo emergen generalizaciones abstractas.

Generalizaciones incapaces de comprender casos específicos, debido a que cada concepto cobra sentido preciso dentro de una teoría que es un sistema y refiere a un sistema. Entendiendo “sistema” como una entidad que puede ser distinguida porque en ella puede detectarse un cierto grado de auto organización mediante el que se logra regular los conflictos que pueden provenir de su interior o desde el exterior, ya que todo sistema vivo es un sistema abierto, esto es, sometido a diversas relaciones de las que depende (por ejemplo, para su alimentación) (7).

Así es como podrían entenderse los siguientes párrafos en los que Marx comienza a entrever otro tipo de construcción cognitiva: “Cuando consideramos un país desde el punto de vista económico-político comenzamos por su población, la división de ésta en clases, la ciudad, el campo, el mar, las diferentes ramas de la producción, la exportación y la importación, la producción y el consumo anuales, los precios de las mercancías, etcétera.

Parece justo comenzar por lo real y lo concreto, por el supuesto efectivo; así, por ejemplo, en la economía por la población que es la base y el sujeto del acto social de la producción en su conjunto.

Sin embargo, si se examina con mayor atención, esto se revela [como] falso. La población es una abstracción si dejo de lado, por ejemplo, las clases de que se compone. Estas clases son, a su vez, una palabra vacía si desconozco los elementos sobre los cuales reposan, por ejemplo, el trabajo asalariado, el capital, etcétera. Estos últimos suponen el cambio, la división del trabajo, los precios, etc. El capital, por ejemplo, no es nada sin trabajo asalariado, sin valor, dinero, precios, etc. Si comenzara, pues, por la población tendría una representación caótica del conjunto y, precisando cada vez más, llegaría analíticamente a conceptos cada vez más simples: de lo concreto representado llegaría a abstracciones cada vez más sutiles hasta alcanzar las determinaciones más simples. Llegado a ese punto, habría que reemprender el viaje de retorno, hasta dar de nuevo con la población, pero esta vez no tendría una representación caótica de un conjunto, sino una rica totalidad con múltiples determinaciones y relaciones” (Marx 1977:57).

Este es el método cuyo desarrollo permite comprender lo complejo. Porque para que se especifiquen los significados de cada concepto se requiere conocer el modo en que se relacionan con otros dentro de un sistema que les provee de un plus de significado, “emergente” de la teoría en la que se inscriben; la cual también debe ser entendida como sistema de relaciones que refieren a entidades que son a su vez sistemas en los que se producen las condiciones dentro de las cuales dichos conceptos especifican sus respectivos significados (entre otros ver Saussure 1945, Barthes 1990, Voloshinov 1995). Por eso es que todo aquel que suponga que cada caso constituye un sistema complejo no puede menos que mostrarse escéptico sobre el mérito de las leyes o universales empíricos construidos de la manera antes indicada. Y es asombroso contemplar cómo es justamente en la inferencia (esto es, allí donde estas tradiciones fincaron sus máximos esfuerzos y creyeron haber conquistado sus mayores logros) donde se ocasiona su fracaso de la manera más rotunda. Fracaso que, como bien advierte Morin (1994), no corrieron la mayor parte de los literatos, siempre proclives a reproducir la complejidad de todo el escenario, con todas sus insuficiencias, indefiniciones, y aperturas a lo impredecible; escenarios que son los que debe recrear la investigación cualitativa si pretende lograr la misma capacidad comprensiva.

Como el lector advertirá, lo afirmado en esta segunda parte pone en discusión la eficacia de las leyes o generalizaciones empíricas producidas por la tradición conjuntivo-identitaria desde la que se estigmatizó a la investigación cualitativa. Tal como siempre se afirmó, ésta última no logra ese tipo de generalizaciones empíricas. Pero dados los anteriores argumentos ello no es sorprendente si se comprende que aquel tipo de generalizaciones de poco sirve para deducir proposiciones o conjeturas sobre casos concretos en los que, al menos, es indispensable caracterizar: a) las representaciones, normas y costumbres que regulan las interacciones entre sus miembros; b) los procesos de alianzas, negociaciones y conflicto que permiten definir sus fronteras (el “nosotros” y el “los otros”); c) el modo en que se producen o confluyen sus elementos; d) las relaciones que dicha organización guarda con otras identidades dentro de un sistema mayor, etc., en un marco de relaciones de sobredeterminación, redefinición de identidades y aparición de emergentes.

Siendo así, el segundo de los estigmas atribuidos a la investigación cualitativa cae (si bien tropezando con los resistentes resabios de la tradición que acabo de discutir). Razón, entre otras, para entender por qué la investigación cualitativa ha conseguido concitar una atención creciente, al menos en todas aquellas tareas investigativas en las que de un modo u otro se debe incluir a “la condición humana”. Esta reivindicación ha ido produciendo conciencia sobre la importancia de los estudios de casos y no de variables, salvo en investigaciones en las que nos interesa detectar una o varias propiedad(es) de cierta población (como, por ejemplo, su nivel de pobreza).

Sin embargo, esa reivindicación y sus justificaciones no cierran el problema que dejó abierto el rechazo de los universales empíricos positivistas; ya que si no son aceptables aquellas leyes o generalizaciones empíricas ¿cómo pensar el modo en que actúa el conocimiento anterior en la producción de nuevos conocimientos?, ¿es posible aceptar que en el estudio de cada caso se comience desde cero? Por cierto que no: todo lo dicho hasta ahora tiende a negar esa posibilidad. Si tales generalizaciones no existieran sería imposible la reducción de información que hace factible su manejo y, con ello, sería imposible tanto el conocimiento como el lenguaje mismo. De hecho, tales generalizaciones son una de las principales vías que tenemos los humanos para acumular el producto de nuestras experiencias y, posteriormente, lograr en ellas un apoyo que, habilitando la producción de conjeturas, faciliten nuevas investigaciones.

Por eso es que lo que rechazo no son los universales sino el modo limitado en que, desde Bacon en adelante, se pensó el modo en que ellos se construyen. Rechazado ese modelo, corresponde averiguar de qué otra manera pueden producirse y conceptualizarse tales universales.

Primeras Conclusiones: Los universales analógicos

Producir un nudo que termine el tejido de pensamientos antes esbozados solo se justifica, y es interpretable, como un punto desde el que habrán de comenzar nuevas texturas. De allí que, al menos para mi propio uso futuro, indicaré algunas preguntas y respuestas conjeturales emergentes de lo expuesto anteriormente.

La pregunta que queda sin contestar es la siguiente. Si cada caso es único y, por ende, sus caracteres no pueden ser deducidos de las leyes o de los universales empíricos a los que hace alusión el método antes criticado: ¿cómo habrán de engendrarse y cuál es el papel que juegan los universales en cada nueva investigación?

Lo hasta ahora afirmado es que los estudios de casos (Scheff 1997, Plaff 1992 y Hamel 1992) permiten teorías bien fundadas que, por ende, hacen posible efectuar acciones con mejores capacidades de éxito. Pero ¿existe alguna otra ventaja que pudiese proveernos ese tipo de estudios?, ¿qué ocurre si complementamos el trabajo mediante comparaciones entre los casos estudiados?

Al referirse a la “analogía”, Peirce afirma: “Una analogía es la inferencia que permite proponer que una colección no muy grande de objetos que coinciden en varios respectos pueden muy probablemente coincidir en algún otro. Por ejemplo, la Tierra y Marte coinciden en tantos respectos que no parece improbable que puedan coincidir en estar habitados” (CP 1.69, 1896) (8).

En esa definición, lo que se comparan son rasgos. Pero si, en cambio de reducir la comparación a ciertos rasgos, extiendo el significado hasta incluir en él no solo las semejanzas entre sus componentes o rasgos sino incluso las semejanzas en las lógicas relacionales, puedo superar la lógica conjuntivo identitaria. Operación que me permitirá proponer que sea la analogía la base que hace posible construir inductivamente universales mediante la comparación entre los resultados de investigaciones sobre dos o más casos.

Dicho de otro modo. Si desde los estudios de casos transitamos hacia estudios comparativos será viable: a) reconocer si existen o no analogías entre los casos comparados b) pensar sobre el modo en que se articulan entre si esas semejanzas y diferencias y c) con dicho resultado generar, por vía inductiva, otro tipo de universales: los universales analógicos.

De lo que se desprende que el estudio de casos, y el estudio comparativo entre casos, son dos momentos mutuamente indispensables en un proceso en el que lo que se concibe como teoría y lo que se concibe como la relación entre teoría y casos, cobran una substancia teórica muy diferente a aquella postulada por el método nomológico deductivo.

Hasta ahora, es esa la propuesta que considero adecuada. Pero en absoluto creo que ella sea original. Muy por el contrario, creo que esa es la vía por la que el conocimiento humano ha ido produciendo ese capital desde el que se generan las hipótesis que hacen posibles predicciones, explicaciones o nuevas hipótesis ante casos que, por ser desconocidos, merecen una investigación. También en la vida cotidiana es la generalización analógica de conocimientos lo que forma el capital abductivo indispensable. Dado ese capital, en cada nueva investigación se comienza averiguando el grado y tipo de semejanza entre los casos conocidos (que dieron lugar a la elaboración de universales analógicos existentes) y el nuevo caso. Si en algún grado ellas existen es posible utilizar aquellos conocimientos para formular conjeturas que guíen la nueva investigación.

Así pues, el proceso enunciado se diferencia de la inducción elementalista porque: 1) no deja en el olvido el contexto del que se infiriere aquello a lo que se atribuye el carácter de común (y, por ende, perteneciente a una clase) y 2) por consecuencia, tampoco permite que el investigador se vea eximido del correspondiente estudio sistémico del nuevo contexto en el que la variable o tipología ha de ser aplicada. Por lo que el estudioso deberá siempre cuidarse de cualquier deducción simple y, por el contrario, utilizar la generalización solo como conjetura inicial: aquella que le permite establecer relaciones que lo guíen hacia la determinación de posibles analogías mediante un estudio comparativo inicial. Si dichas analogías fuesen encontradas, ellas permitirán conjeturas sobre el nuevo caso. Terminada esa investigación tanto lo semejante como lo que no lo es se incorpora en el capital abductivo.

Si acordáramos en que ese es el proceso, podríamos pensar que el razonamiento que lleva a la selección y utilización de aquellos universales es condicional. Esto es, responde a la fórmula /si…entonces/. Donde el condicionante “si” alude a la caracterización sistémica global en el interior de la cual la generalización empírica cobraría fuerza interpretativa (o, al menos, utilidad heurística en tanto permite establecer analogías que sirvan para elaborar las primeras hipótesis). Mientras que el “entonces”, que autoriza el recurso a tales conocimientos acumulados para la formulación de las conjeturas que orientaran nuevas investigaciones o acciones, será legítimo únicamente cuando se haya comprobado la existencia de tales analogías.

Por ende, lo peculiar de estos universales es que no pretenden ser premisas para una deducción descriptiva, explicativa o predictiva. No porque en el proceso no operen ni deducciones ni inducciones. Por el contrario, ellas serán necesarias como parte del proceso de construcción y aplicación de universales analógicos. Pero la función desempeñada por los universales analógicos es heurística: por vía abductiva dan lugar a la formulación de hipótesis antes y durante la investigación.

Es en dicho contexto que se puede afirmar que en la investigación de los “casos”, lejos de aplicar, probar o refutar leyes, las generalizaciones se utilizan como apoyo heurístico (y sus resultados pueden constituirse en base para la producción, perfeccionamiento o ampliación de otras generalizaciones) con el objeto de producir teorías individuales que, luego de los correspondientes estudios comparados, den lugar a la aparición o enriquecimiento de anteriores universales contextualizados (9). Logro para nada inesperable si sabemos que son las propias sociedades las que van a conformar comunidades que, para serlo, deben respetar ciertas lógicas de acción compartidas que implican diversas formas comunes de memorización y de conocimientos. Lo que tampoco es original, ya que esa es justamente la ruta seguida por muchos científicos al teorizar sobre las formas de asociación; y, particularmente, lo que dio lugar a conceptos tales como “representaciones sociales”, “hábitus” o “los esquemas” (en las versiones de Piaget o de Shütz) a los que antes hiciera referencia. Por lo tanto, es la existencia de tales formas de sociabilidad, culturalmente unificada, el humus desde el que cada uno de sus miembros produce cotidianamente las abducciones necesarias para decidir uno u otro camino.

Notas

1) Para comprender cómo y por qué el término objeto se ha derivado en una peculiar connotación sobre la objetividad es importante leer Ferrater Mora (1964:310), cuál ha sido, en la tradición occidental, la etimología de “objeto”, “objetivo” y sus derivados.

2) Sobre la diversidad de lógicas, ver Ferrater Mora 1964:69 y Hoffmann 1997:1.

3) Dicha conclusión generó la aparición del constructivismo que, pese a sus variantes, coincide en este postulado inicial. Sobre éste y los temas que siguen he presentado el producto de una investigación bastante exhaustiva en Saltalamacchia 2005 (capítulos tercero y cuarto del tomo primero).

4) Para una revisión general del pensamiento de Peirce ver, entre otros, Deladalle 1996.

5) Es de hacer notar que entre Descartes y los restantes, por ejemplo, existían diferencias respecto a cómo considerar esos cuerpos y sus relaciones. La posición predominante fue la corpuscular.

6) Retomando un concepto freudiano (que hiciera famoso Althusser) mediante el cual se puede concebir que dos o más líneas causales produzcan resultantes en las que emergen rasgos que no poseían aquellas y que lo que queda de aquellas queda redefinido mediante agregado o represión de sus las peculiaridades que poseyeron en otros sistemas.

7) Sobre el modo en que entiendo las identidades y sus redefiniciones en un sistema complejo, ver Saltalamacchia 2005 (capítulo 2).

8) Sobre la(s) definiciones de este concepto ver Ferrater Mora 1964:179.

9) Sobre el modo de entender los conceptos “descripción”, “explicación” y “comprensión” ligadas a este tipo de teoría, ver Saltalamacchia 2005.

Agradecimientos

Proyecto: Santiago del Estero: estructura, coyuntura y tendencias PAE 22617. Agencia Nacional de Promoción de Ciencia y Tecnología de Argentina.

Bibliografía

Barthes, R. 1990. La aventura semiológica. Barcelona: Paidós.

Bourdieu, P. 1984. Distinction a social critique of the judgment of taste. Cambridge: Harvard University Press.

Carretero, M. 1997. Constructivismo y educación. México: Progreso.

Debrock, G. 1998. El ingenioso enigma de la abducción.

Deladalle, G. 1996. Leer a Peirce hoy. Barcelona: Gedisa.

Eco, U. 1994. Signo. Bogota: Labor.

Eco, U. 1997. Segno e Inferenza. Torino: Piccola Biblioteca.

Ferrater Mora, J. 1964. Diccionario de filosofía. Bs. As.: Editorial Sudamericana.

García, R. 2000. El conocimiento en construcción. De las formulaciones de Jean Piaget a la teoría de sistemas complejos. Barcelona: Gedisa.

Gombrich, E. 1995. Arts and illusion. London: Phaidon.

Hamel, J. 1992. On the status of singularity in sociology. Sociologie 40(1): 99-118.

Hempel, C. 1965. Aspects of scientific explanation. New York: The Free Press.

Hempel, C. 1979. La explicación científica. Barcelona: Paidos.

Hoffmann, M. 1997. ¿Hay una “lógica” de la abducción? En 6º Congreso de la IASS-AIS. International Association for Semiotic Studies. Guadalajara, México. Julio 13-18.

Kanizza, G. 1986. Gramática de la visión. Barcelona: Paidos.

Kuhn, T. 1971. La estructura de Las revoluciones científicas. México: Fondo de Cultura Económica.

Koyré, A. 1984. Estudios de historia del pensamiento científico. México: Siglo XXI.

Locke, J. 1956. Ensayo sobre el entendimiento humano. México: Fondo de Cultura Económica.

Marx, K. 1977. Introducción general a la crítica de la economía política. Buenos Aires: Ediciones Pasado y Presente.

Merton, R. 1980. Teoría y estructuras sociales. México: Fondo de Cultura Económica.

Mills, J. 1948. A system of logic. London: Longmans.

Morin, E. 1994. Introducción al pensamiento complejo. Barcelona: Gedisa.

Moscovici, S. 1993. Pensamiento y vida social. Barcelona: Paidós.

Oldroyd, D. 1986. El arco del conocimiento (Introducción a la historia de la filosofía y metodología de la ciencia). Barcelona: Crítica.

Peirce, C. 1967. The collected papers of Charles Sanders Peirce. Cambridge: Harvard University Press.

Piaget, J. 1985. Psicología y epistemología. Barcelona: Planeta-Agostini.

Plaff, J. 1992. Case study in American methodological thought. Sociologie 40(1): 17-48.

Popper, K. 1973. La lógica de la investigación científica. Madrid: Tecnos.

Reichenbach, H. 1938. Experience and prediction an analysis of the foundations and the structure of knowledge. Chicago: The University of Chicago Press.

Reichenbach, H. 1954. Nomological statements and admissible operations. Amsterdam: North-Holland.

Remmling, G. 1982. Hacia la sociología del conocimiento. México: Fondo de Cultura Económica.

Rossi, P. 1975. Il problema della spiegazione sociologica. Torino: Loescher Editore.

Saltalamacchia, H. 2005. Del proyecto al análisis: Aportes a una investigación cualitativa socialmente útil. Buenos Aires: El Artesano.

Saussure, F. 1945. Curso de lingüística general. Buenos Aires: Losada Editorial.

Scheff, T. 1997. Part/whole morphology: Unifying single case and comparative methods. Sociological Research Online 2(3).

Schütz, A. 1974. Estudios sobre teoría social. Buenos Aires: Amorrortu.

Schütz, A. 1972. Fenomenología del mundo social. Buenos Aires: Paidos.

Simon, H. 1989. Models of thought. New Haven: Yale University Press.

Simon, H. 1980. Memory as environment for thought. CIP Working Paper No.417, Pittsburgh: Carnegie-Mellon University, Department of Psychology.

Varela, F. 1992. De cuerpo presente. Barcelona: Editorial Gedisa.

Viqueira, C. 1977. Percepción y cultura (Un enfoque ecológico). México: Ediciones de la Casa Chata.

Voloshinov, V. 1995. Antología del formalismo ruso y el grupo de Bajtin (Semiótica del Discurso y Posformalismo Bajtiniano). Madrid: Fundamentos.

 

Recibido 18 May 2008
Aceptado 27 Ago 2008

Home | Indice | Números Completos | Instrucción para Autores
Cinta de Moebio
Revista de Epistemología de Ciencias Sociales
ISSN 0717-554X