Cinta de Moebio: Revista de Epistemología de Ciencias Sociales

Scribano, A. 2000. Reflexiones epistemológicas sobre la investigación cualitativa en ciencias sociales. Cinta moebio 8: 128-136

PDF


Reflexiones epistemológicas sobre la investigación cualitativa en ciencias sociales

Epistemological thoughts about social sciences qualitative research

Adrián Scribano. Doctor en Filosofía (Universidad de Buenos Aires). Licenciado en Sociología Política (ILADES) y Licenciado en Ciencia Política (U. Católica de Córdoba). Becario en Università degli Studi di Milano. Profesor de la Universidad Nacional de Villa María (Córdoba, Argentina).

Abstract

It is usually supposed qualitative research is an alternative to quantitative / positive social science and is much easier to apply. This essay says there are no arguments for that beliefs. From this point, it describes what computer analyzes can say qualitative research in the social sciences.

Key words: qualitative research, quantitative research, social science methodology.

Introducción

En las Ciencias Sociales existe una estrategia metodológica que ha cobrado un especial auge en los últimos años denominada generalmente como investigación cualitativa. Particularmente en Argentina, más allá de que el material estrictamente metodológico publicado es muy poco, existe una especie de consenso académico implícito, al menos en sociología y politología, sobre dicha estrategia, que puede ser explicitado del siguiente modo: a) que lo cualitativo es la "alternativa" a una ciencia social positivista y cuantitativa, y b) que dadas las condiciones de trabajo y formación reinantes, dicha alternativa es más fácil de enseñar y de aplicar. Si bien estas dos características deberían ser revisadas con algún detenimiento, desde mi punto de vista ambas parten de y arriban a conclusiones erróneas. De manera sintética mi argumento tendría la siguiente forma: no tenemos ninguna seguridad que un abordaje cualitativo no sea positivista, no hay ninguna razón epistémica que permita oponer aporéticamente cuantitativo a cualitativo, y finalmente los conocimientos teóricos-metodológicos necesarios para hacer investigación cualitativa no son ni tan fáciles de transmitir ni muchos menos de ejecutar fácilmente.

En base a este diagnóstico, este trabajo pretende destacar algunos tópicos de la discusión metodológica respecto a la investigación cualitativa, con especial referencia al lugar de la informática en la misma, que permitan observar los problemas epistémicos que de ello emergen. Mi objetivo es mostrar, al menos parcialmente, que la estrategia en cuestión implica una pluralidad de técnicas y teorías, que, por su peso específico, trascienden los rasgos propuestos en el diagnóstico realizado y evidencian que su "progreso" implica discusiones que van más allá de la mera referencia alegórica al subjetivismo. Para lograr este objetivo seguiré el siguiente camino argumentativo: en primer lugar mostraré sintéticamente la situación actual de las diversas estrategias cualitativas desde donde se presenta una suerte de periodización de la relación cualitativo y cuantitativo. En segunda instancia, señalaré el lugar que hoy ocupa la informática en la investigación cualitativa a través de la presentación de dos artículos que pueden resumir algunas de las discusiones en torno a esto y, finalmente, esquematizaré las discusiones epistémicas que afloran de este contexto, señalando algunos temas para debatir que van más allá de una simplificada visión sobre lo cualitativo.

I. Estrategias Alternativas para la Investigación Cualitativa

Una de las confusiones más comunes entre los investigadores recién iniciados respecto a la investigación cualitativa, es la asimilación de las técnicas cualitativas con las estrategias metodológicas. Esta confusión acarrea muchos problemas de diseño para la investigación, de igual dimensión que los que ocasiona realizar una encuesta creyendo que en la aplicación del instrumento se agota el estudio cuantitativo de la sociedad. Sumado a esto, existe un prejuicio teórico muy arraigado sobre las diferencias entre estrategias cuantitativas y cualitativas tomadas como paradigmas rivales e inconmensurables. Por lo tanto, he creído conveniente sintetizar muy brevemente cuál es la situación actual de estas dos temáticas para que la presentación que se hará sobre el lugar de la informática, pueda ser ubicada a un nivel satisfactorio de discusión.

Si bien una de las características de los enfoques cualitativos de la investigación en ciencias sociales es la íntima relación existente entre diseño, técnicas, análisis y construcción teórica, que en la práctica invalida una separación tajante de las etapas de la misma, es lícito y además conveniente intentar mostrar cómo se puede reagrupar dichas prácticas según alguna orientación dominante que las asemeje y diferencie.

La siguiente es una síntesis y reelaboración de una lista construida por Renata Tesch, donde la autora ha esquematizado lo que ella denomina "tipos de investigación", proveyendo de una definición de lo que entiende son los propósitos de los mismos, con la particularidad de que estas últimas son tomadas directamente de la literatura más usual en cada temática, lo que la hace aún más interesante. De esta manera se pueden visualizar 12 enfoques diversos para llevar adelante una investigación cualitativa, que están agrupados de acuerdo a diversos criterios, entre los cuales predominan el metodológico y el teórico. Dichos enfoques son:

1. Análisis de Contenido (Clásico)

"Realizar inferencias válidas y replicables desde los datos hacia sus contextos" (Krippendorf 1990:21).

"Descripción objetiva, sistemática y cuantitativa del contenido manifiesto de la comunicación" (Berelson 1952:489).

"Realizar inferencias mediante una identificación sistemática y objetiva de las características especificadas dentro del texto"(Stone et al.1966:5).

2. Análisis de Contenido (Etnográfico)

"Análisis reflexivos de los documentos" (Altheide 1987:65).

"Usar el documento y comprender el sentido de la comunicación, tanto como verificar las interrelaciones teoréticas" (Altheide 1987:68).

3. Análisis del Discurso

"Análisis de lo naturalmente ocurrido conectado por discursos hablados o escritos" (Stubbs 1983:1) proveyendo "una introducción dentro de las formas y mecanismos de la comunicación humana y de la interacción verbal" (van Dijk 1985:4).

4. Estudios de Documentos, Historias de Vida e Historia Oral

Un enfoque "no estructurado y no cuantitativo" usando documentos personales (Bailey 1978:273) que generalmente terminan en tipologías, o "a través del cual se examina y analiza la experiencia subjetiva de los individuos y de sus construcciones del mundo social" (Jones 1983:147).

5. Etnografía (clásica, holística, reflexiva)

"Describir y analizar toda o parte de cultura o comunidad por la descripción de las creencias y prácticas del grupo estudiado y mostrar cómo las diversas partes contribuyen a la cultura como un todo consistente unificado" (Jacob 1987:10).

6. Etnografía (estructural)

"Clasificar e iluminar la organización y distribución social de las significaciones subjetivas como campos de la realidad originarios y diversos" (Gumbrium 1988:26), estando "en relación con ... catalogar sus formas e interrelaciones en el tiempo y en el espacio" (Gumbrium 1988:26) donde se "piensa la cultura como un mapa cognitivo" (Spradley 1979:7) y donde "a la vez, la cultura tácita y explícita son reveladas a través del habla" (Spradley 1979:7).

7. Etnografía de la Comunicación (microetnografía)

Consiste en focalizar "los patrones de interacción social entre miembros de un grupo cultural o entre miembros de grupos culturales diferentes" en orden a "especificar el proceso de interacción y entender como estos ‘micros’ procesos están relacionados con unos más amplios ‘macros’ problemas de cultura y organización social" (Jacob 1987:18).

8. Etnometodología

Que es definida de las siguientes maneras: "estudiar cómo los miembros de la sociedad, en el curso de la realización de la interacción social, producen el sentido de expresiones ‘indexicales’. Indexicales son términos cuyo sentido no es universal, pero es dependiente del contexto" (Bailey 1978:249) o "cómo los miembros de una situación ensamblan razonablemente comprensiones de las cosas y eventos que les conciernen a ellos y, por lo tanto, realizan estas como objetos de la vida cotidiana" (Gubrium 1988:27) o finalmente "cómo la gente en sociedad organiza sus actividades de un modo tal que ellos producen un sentido mutuo, cómo la gente hace cosas de maneras tales que los otros pueden reconocerlos por como ellas son" (Sharrock y Anderson 1986:56).

9. Etnociencia (antropología cognitiva)

Que desde una perspectiva se define como: "comprender las categorías culturales de los participantes e identificar los principios organizativos que fundamentan esas categorías ... a través del estudio de los sistemas semánticos" (Jacob 1987:22); o también como "definir sistemáticamente el significado de las palabras, o etiquetas -en síntesis los nombres de las cosas en el contexto de su uso" (Werner y Schoepfle 1987:38) en orden a "construir los campos lexicos-semánticos de conexión de las proposiciones" (Werner y Schoepfle 1987:38).

10. Análisis de la Estructura de Eventos

Que puede ser conceptualizada como: "examinar y presentar series de eventos como estructuras lógicas, es decir, como elementos y sus conexiones (incluyendo los supuestos que gobiernan estas conexiones) que pueden servir como modelos explicativos para interpretar secuencias de eventos actuales o folklóricos" (Heis and Lewis 1980).

11. "Grounded theory construction"

De particular interés para este trabajo, puede ser sintetizada diciendo que consiste en "descubrir la teoría desde los datos a través de un método general de análisis comparativos" (Glaser y Strauss 1967:1).

12. Interaccionismo Simbólico

Cuya conceptualización es: "ver cómo los procesos de designación e interpretación [los participantes definen e interpretan recíprocamente sus actos] es la sustancia, devalúa, re-direcciona, y transforma los modos en los cuales los participantes organizan juntos sus líneas de acción" (Blumer 1969:53); o también "comprender cómo los individuos son capaces de tomar otra perspectiva y aprender significados y símbolos en instancias concretas de participación" (Jacob 1987:29).

La pluralidad es innegable. En cada uno de estos enfoques las unidades de registros y de análisis cambian o son entendidas de otro modo, el lugar de la natural textualidad de lo cualitativo es diferente, las técnicas pueden o no ser las mismas, pero por lo general unas se adecuan más que otras y los puntos de partida teóricos son los que se transforman radicalmente. Esta enumeración nos autoriza sólo a constatar dos elementos útiles para nuestro objetivo aquí: por un lado saber que existen diferentes técnicas y diversas formas de hacer investigación cualitativa y por otro que sólo a través de sus conceptualizaciones se puede observar que la relación cuantitativo/cualitativo no es aporética como suele pensarse. Para ilustrar este último punto, parece conveniente resumir lo que Ray Pawson a denominado "fases de la relación cuantitativo/cualitativo".

La primera fase se caracteriza por permanecer dentro del puritanismo metodológico, donde la actividad de investigación podía relacionarse dicotómicamente con uno u otro enfoque. Se relaciona con la así llamada "guerra de los paradigmas" metodológicos y las discusiones son "métodocentradas".

La segunda fase hace referencia al surgimiento de un pluralismo pragmático como reacción a la metodolatría, teniendo a las estrategias de "triangulación". Es una fase centrada en la elaboración y resolución de problemas donde se acepta que existen diversas vías metodológicas para lograr este objetivo.

La tercera fase, que aún hoy se desarrolla, consiste en la superación de la relación cualitativo/cuantitativo desde un punto de vista dicotómico diluyendo un tratamiento aporético de la misma. Centrada en lo relacional, apunta a que la discusión se desplace hacia la mejor articulación entre estrategias que puedan dar cuenta de la conexión entre mecanismos, contextos y agentes.

Finalmente, este apartado nos respalda para introducir, sin malos entendidos, algunas discusiones sobre el lugar de la informática en la investigación cualitativa. Fundamentalmente por que ante la pluralidad de enfoques y las nuevas relaciones entre lo cuantitativo y lo cualitativo dichas discusiones no pueden entenderse como un intento de cuantificar lo cualitativo, ni tampoco como la idea de disolver la intrínseca pluralidad de la investigación cualitativa.

El procesamiento y análisis de datos asistido por computadora tiene un lugar especial en este campo disciplinar y muchos son los avances que se han realizado en su aplicación. Justamente sobre algunos de los problemas epistemológicos que esto trae aparejado es sobre lo que se intenta reflexionar en el próximo apartado.

II. Nuevas Experiencias de Gabinete y Formas de Razonamiento en la Investigación Cualitativa

En el contexto reseñado hasta aquí y junto al desarrollo de las estrategias cualitativas desde finales de la década de los ‘70 y principio de los ‘80 se consolidó la utilización de la informática en la investigación cualitativa. En principio como una vía más eficiente para codificar y recuperar la inmensa cantidad de registros acumulados por las diversas técnicas de observación, la asistencia de la computadora se pensó simplemente como algo meramente instrumental. Este puesto para la asistencia de la computadora se fue modificando hasta llegar al nivel del análisis de esos datos otrora irrecuperables, dada la complejidad de su inserción sistemática. En este sentido, dando un paso más la informática asistió al investigador en la delicada tarea de interpretar ayudando en la construcción inductiva de "micro-teorías" sobre la base de datos que se le había proporcionado. Esta estrategia de análisis básicamente tomada del enfoque de Glasser y Strauss (al menos de su primer libro) se popularizó, como así también se amplió la oferta de paquetes estadísticos que podían asistirla. Los noventa son los años de consolidación de esta relación afianzada por la popularización de lo multi-mediático en el mercado de las computadoras personales. En el marco de dicha consolidación se han llevado adelante algunos debates sobre la posibilidad de que esta "instalación" de la informática en el campo de los estudios cualitativos sea el comienzo de una nueva visión paradigmática que pretenda agotar la pluralidad y narratividad propia del abordaje cualitativo en alguna especie de sobre-cuantificación de los registros y en la creación de la ilusión de formalización del momento de análisis de las investigaciones. Un dato curioso de dicho debate, por lo menos desde los autores a que se hace referencia aquí, es que ninguno pretende descalificar el rol de la asistencia de la computadora en los trabajos de tratamiento, procesamiento y análisis cualitativo. Un análisis de la discusión aludida puede ser realizado siguiendo el siguiente camino.

II.1 Pluralidad de Voces y la Utilización de Hipertextos

En principio se puede partir de la presentación de Coffey, Holbrook y Atkinson llamada "Qualitative Data Analysis: Technologies and Representations" cuya estructura argumentativa es la siguiente. La investigación cualitativa se caracteriza por la pluralidad de interpretaciones que generan una multiplicidad de relatos asociados a la existencia de una pluralización de mundos. Las dos vías que identifican como predominantes son: aquellas que separadamente aceptan por un lado la consolidación de lo narrativo-literario aceptando el "desafío" post-moderno de la diferencia y la multiculturalidad, y por otro, aquella que construye un texto desde un enfoque que denominan "realismo narrativo" caracterizado por la construcción de un relato en tercera persona desde donde afluye el llamado problema de la "crisis de representatividad" que se basa en la eliminación de la intrínseca pluralidad de voces en la constitución del mundo social. Los autores señalan, por un lado, la generalización de las técnicas de codificación y recuperación de datos "cualitativos" asistido por computadora, como el centro de la conformación de una nueva ortodoxia ligada directamente al "realismo narrativo"; y por otro lado, la estructuración de una heterodoxia conectada a la retórica y los desafíos post-modernos. En este contexto, postulan como una posible vía alternativa que permita una síntesis de estas dos tendencias para el análisis y la representación de la investigación etnográfica, a los desarrollos generados alrededor del uso de hipertextos e hipermedios. Citando a Nielsen afirman: "podemos decir que el hipertexto fue concebido en 1945, nació en los ‘60, nutrido lentamente en los ‘70, y finalmente incorporado al mundo real en los ‘80 especialmente con un rápido crecimiento en 1985, culminando con el establecimiento de un campo definitivo durante 1989" (Coffey et al. 8.2). En esta larga historia de la consolidación del uso del hipertexto se visualiza a la presentación del texto de un modo no secuencial, como un principio que juega el rol de hilo conductor en la búsqueda de un tratamiento más eficiente de los textos (Coffey et al. 8.3). Si bien el escritor o lector asistido por un procesador de texto podía desplazarse de diversas maneras por un documento, dicho desplazamiento era siempre secuencial y este modo de leer y re-escribir no se condecía con las operaciones que en la vida real se realizaban. En este sentido es que Coffey y sus colegas sostienen que "el texto mismo está fijado en forma lineal. De tal modo, trabajar con archivos de textos en la computadora, implica del mismo modo una estructura lineal" (Coffey et al. 8.3). El uso de hipertexto involucra la posibilidad de diferentes vías de lectura determinadas por el lector, dado que el autor provee de distintas alternativas para explorar el texto en cuestión. Si bien los autores aceptan que ésta no es un idea nueva, señalan una mayor versatilidad que las referencias cruzadas, por ejemplo. La clave está en la mayor capacidad de interactividad desde donde aparece una más amplia gama de posibilidades de relación entre texto y lector. "Los lectores pueden, en un sentido, devenir autores de sus propias lecturas; ellos no son simple recipientes pasivos de una forma textual determinada" (Coffey et al. 8.4).

Básicamente, la utilización del hipertexto consiste en la utilización de botones para establecer links entre referencias cruzadas que apunten a una misma temática o tópicos relacionados, pudiendo también desplazarse a fuentes de información distinta como los son bases de datos cuantitativas u otras formas de almacenamiento de datos. "Tales links constituyen ‘nodos’ y el analista puede crear una red densa de esos links los cuales pueden ser luego ‘navegados’ en distintas exploraciones de datos" (Coffey et al. 8.6).

Por otro lado, se usan botones de "expansión" que permiten agregar comentarios, incorporar otro tipos de textos como registros de campo, notas y comentarios. Se abre así también la posibilidad para el lector de introducirse en el texto. Las limitaciones de estas posibilidades son justamente las capacidades cognitivas humanas de encontrarse frente a la creación de un "hiperespacio de lectura y escritura", donde las vías de recorrido y expansión de la textualidad son prácticamente indefinidas. Para Coffey y sus colegas es en este marco en que nace una de las particularidades más llamativas de la introducción de estos medios informáticos para la lectura y escritura etnográfica, que es justamente la probabilidad que esa diferencia colapse, en tanto procesos separados de leer y escribir. El hipertexto conserva el sentido de complejidad, intertextualidad y no linealidad que una narración sobre el mundo social tiene en sí misma.

Si la utilización del hipertexto abre estas posibilidades, su combinación con las tecnologías multimedia las potencializa aún más. Con la articulación entre imagen, sonido y otros tipos de textos para nuestros autores, se puede pensar "la reconstrucción de los mundos sociales a través de múltiples representaciones" (Coffey et al. 8.11). Citando el trabajo de Kersenboom, ellos muestran que la aparición de monografías en CD ofrecen la posibilidad de presentar los registros de palabras, música, escritos y conversaciones en "sus condiciones existenciales" (Coffey et al. 8.11), lo cual permite a su vez manejar los contextos interpretativos, también explorar lecturas alternativas y modos complementarios de representación de los registros originales. Para Coffey y sus colegas, hipermedios e hipertexto posibilitan un manejo instantáneo y simultáneo de formas distintas de representar las múltiples voces de la realidad del mundo social.

Estos autores ofrecen como ejemplo su estudio sobre las consecuencias de la genética en nuestros días, donde aplicaron el etno-drama como medio de reconstruir la toma de decisiones de los genetistas, junto a las formas de decisiones de las personas respecto a la reproducción, grabaciones de conferencias científicas, datos contextuales y entrevistas de familias enteras, usando las posibilidades del hipertexto e hipermedia, conjuntamente con investigaciones sociológicas más tradicionales. La propuesta de este equipo es justamente la de articular el realismo narrativo y las posibilidades de representar múltiples y simultáneas voces, sugiriendo que de este modo se hace innecesario optar por un enfoque postmoderno o caer en la "nueva ortodoxia" de la investigación cualitativa asistida por computadora.

II.2 Hacia una Lógica del Razonamiento Hipotético en Investigación Cualitativa

En un artículo que intenta responder la caracterización de la "nueva ortodoxia" en la investigación cualitativa asistida por computadora, realizada, entre otros, por Coffey y sus colegas en el artículo al que se ha hecho alusión, Udo Kelle señala que dicha caracterización proviene de interpretar mal algunos puntos metodológicos de la investigación cualitativa. Kelle, para estructurar su argumentación, se desplaza a la discusión de las estrategias metodológicas y a sus bases epistémicas. Es en este marco que propone una interrelación entre uso de la informática y la aplicación de la inducción cualitativa y la inferencia abductiva como modo de coordinar una vía alternativa para la investigación cualitativa.

Kelle plantea el problema desde la base misma de lo que se ha dado en llamar la "construcción de teoría" en la investigación cualitativa asistida por computadora. Genéricamente hablando, la discusión sobre dicha base tiene dos facetas: su sustento teórico-metodológico representado por la "Grounded Theory" y su procedimiento elemental conocido como "codificar y recuperar". Como lo reconoce el mismo Kelle, dada la estructura de su artículo, ambas facetas si bien no agotan el lugar de la informática en la investigación cualitativa, son el punto de partida de una adecuada discusión de la supuesta instauración de una nueva ortodoxia en investigación cualitativa. Sin hacer justicia a la complejidad de la grounded theory se puede decir que representa desde 1958 y 1967 una estrategia inductiva de construcción de teoría que ha sufrido diferentes reformas. En lo sustancial consiste en la idea que se puede obtener una red de conceptos que emergen de los registros cualitativos a través de un procedimiento de codificación y "etiquetamiento" de las principales dimensiones de dichos registros. Este procedimiento se basa en "descubrir" desde los registros grupos analíticos de datos, conformados por la construcción de lo que Glaser y Strauss llamaron códigos, categorías y memos. La idea central es que de esta manera se evitaba dar una forma teórica a los registros, ofreciendo la posibilidad de que justamente el tratamiento analítico de los datos dieran forma a una teoría particular emergida desde los datos mismos.

Por otro lado, codificar y recuperar es un procedimiento para clasificar datos que parte de la identificación, sistematización y comparación de segmentos de textos que contienen los registros. Muy esquemáticamente hablando, una vez establecidas las diferencias y semejanzas se procede a construir índices de segmentos de textos sobre tópicos identificados con palabras claves. Por otro lado se construyen referencias cruzadas que permitan relacionar los segmentos de textos entre sí y con otras fuentes de información. Estos procedimientos tan antiguos como los de la exégesis textual se ven acelerados y mejorados por los medios informáticos para su recuperación y tratamiento.

Si bien esta sucinta presentación puede ser muy esquemática, nos ayuda a comprender por qué Kelle se preocupa en mostrar que no todo proceso de codificación y recuperación está basado en la grounded theory, por qué codificar puede ser un proceso más creativo de lo que se piensa y cómo pueden ser pensadas alternativas metodológicas para conservar la creatividad en el marco del desarrollo de los paquetes informáticos, sin caer en un inductivismo ingenuo pero tampoco en una posición excesivamente relativista.

Como es obvio, dada la síntesis realizada entre la grounded theory y el proceso de codificar y recuperar, hay aires de familia innegables; más allá de la terminología que usen los diversos programas, las coincidencias entre los códigos de Glaser y Strauss y los índices de los programas son muy grandes. Por esto, Kelle muestra cómo existen diferentes paquetes de tratamiento informático de textos que se basan en la fenomenología, en los tipos ideales de Weber o directamente en las ideas falsacionistas de Popper, y cita también una revisión realizada de los programas usados que indica que el 70% de ellos no tienen como base a la grounded theory. Una vez realizada esta tarea de esclarecimiento, Kelle se concentra en tres temas: las formas de codificar y recuperar que implican la llamada tercera generación de programas, las confusiones que provienen de tratar de aplicar una estructura hipotético deductiva en base a la grounded theory y la propuesta de la abducción como una forma adecuada para evitar el dualismo.

Para mostrar que codificar y recuperar no se basan necesariamente ni en una idea inductiva ni en las confusiones con la grounded theory, señala los avances producidos a través de los hiperlinks que no sólo están a disposición en los programas especializados sino también en las versiones más actuales de Windows. Esto transforma básicamente el proceso de interrelación entre los textos y otros tipos de materiales, pero especialmente se abandona la idea de que un segmento de texto debe ser "comprendido" subsumiéndolo en una categoría creada desde esos mismos registros. Esto ocasiona varios resultados colaterales entre los cuales se pueden mencionar los siguientes: se aumenta la capacidad de recuperación selectiva, pueden ser cruzadas referencias en un "mismo espacio textual" cuya distancia en los registros es considerable, los segmentos de textos pueden ser conectados sin códigos previos y los códigos pueden ser subdivididos en varias categorías nuevas. Codificar y recuperar, vista de esta manera, es una tecnología abierta que brinda un gran número de posibilidades para la interpretación. Esta idea de codificar Kelle la analiza desde dos dimensiones: desde la definición del proceso de codificación y desde la noción de testear hipótesis a través de este procedimiento, cuestiones ambas que nos llevan a su segundo tema.

Por un lado, Kelle señala las diferencias entre la codificación cuantitativa y la cualitativa y la importancia de preservarse de la ingenua idea de poder partir a codificar sin teoría previa alguna; pero por otro lado subraya la confusión existente por el uso ambiguo de la expresión "testear hipótesis". En el primer caso, es claro que la codificación cuantitativa funciona bajo una lógica deductiva en base a hipótesis previamente establecidas, mientras que la cualitativa se basa en un proceso de lectura de los registros una vez efectuados, actúan como marcas que permiten que una cierta cantidad de información sea agrupada y manejada constituyéndose en representantes de algunas perspectivas desde donde mirar los datos por parte del investigador. En relación a esto es que Kelle plantea el problema sobre el testeo de hipótesis. Para él, los códigos de la investigación cualitativa "no son muy utilizables para testear proposiciones empíricas respecto a la exacta relación entre dos variables definidas" (Kelle 1997 3.9), como así tampoco permiten representar claramente eventos empíricos determinados. Para Kelle en la investigación cualitativa "la aplicación del paradigma de la codificación o de ‘códigos teoréticos’ sobre datos empíricos se basa en una lógica del descubrimiento que no es ni inductiva ni deductiva" (Kelle 1997 4.3), por lo que dicha aplicación representa el uso de una especial lógica del razonamiento, donde "las premisas son un set de fenómenos empíricos y la conclusión es una hipótesis, la cual puede dar cuenta de esos fenómenos" (Kelle 1997 4.3). Según él, se puede denominar a esta operación razonamiento hipotético basado en las dos formas de inferencia lógica que Peirce llamara inducción cualitativa y abducción. Estos es así, porque en una inducción cualitativa un fenómeno empírico específico es descripto o explicado subsumiéndolo bajo una categoría o regla existente y porque la abducción permite encontrar conceptos o reglas no conocidas en base a un evento sorpresivo o anómalo. Al parecer, la clave para Kelle consiste en que "la inferencia abductiva combina de una manera creativa nuevos e interesantes hechos empíricos con conocimiento teorético previo" (Kelle 1997 4.3). Estas formas de inferencia se condicen de alguna forma con el trabajo de la investigación cualitativa, en tanto se necesita revisar permanentemente pre-concepciones y prejuicios teoréticos y además posibilita entender de qué manera se usan en investigación cualitativa los marcos de referencia heurísticos, que permiten al investigador concentrarse en ciertos fenómenos de su campo de estudio. Para Kelle con la utilización de la inducción cualitativa y la abducción se puede dar cuenta del trabajo creativo de la investigación cualitativa como así también del uso del conocimiento disponible para el área de estudio.

III. A Modo de Conclusión: Problemas Epistemológicos Emergentes de la Investigación Cualitativa Asistida por Computadora.

Aparecen de esta manera dos grupos de problemas o desafíos epistemológicos basados en las sugerencias sobre el rol de la utilización de hipertextos y multimedios, y en la propuesta de aplicar el razonamiento hipotético a la investigación cualitativa. Dos temas centrales parecen emerger de estos desarrollos: en primer lugar podríamos estar en frente de una nueva noción de experiencia de gabinete en ciencias sociales, y en segundo lugar se podrían explorar alternativas a las estrategias deductivas e inductivas aplicadas a la investigación cualitativa.

Sin pensar que se asemeja a un concepto de simulación y sin tomarla como solución definitiva, en algún sentido, la utilización del hipertexto y la tecnología multimedia crea una nueva situación de gabinete que al menos necesita ser analizada en los siguientes niveles: la redefinición de la noción de lo que se podría llamar "experiencia de laboratorio de la interpretación", el lugar del conocimiento conceptual en relación al sensitivo, como por ejemplo el visual, la posibilidad de interacción indefinida entre observador y los sujetos sociales analizados. Esto nos indica una forma de comprensión de lo social que puede ser reconstruida a través de la computadora en situación de interactividad o aislamiento, el escritorio del analista no es sólo una computadora y miles de salidas de computadora, es en algún sentido un mundo social a escala.

La conexión entre hipertexto e hipermedia posibilitaría, dada la potencialidad para relacionar hipótesis previas, descubrimientos y "realidad virtual", la recreación multimediática de la pluralidad de voces. Esto es importante porque permitiría redefinir la noción de generalización empírica extendiendo posiblemente su utilidad y alcance. También de este modo se presenta la interesante oportunidad para la re-utilización de los estudios de caso como estrategia de comprensión de la realidad social.

Además, la asistencia de estas tecnologías a la investigación cualitativa permitiría hacer manejable la complejidad propia de la conformación textual de los registros, pudiéndose de esta manera disponer de un texto que, si bien presenta mayor variabilidad, dada la interactividad y la simultaneidad, posibilita explorar con mayor fuerza la búsqueda de una estructura básica para los análisis. Esto trae aparejado que además de las tradicionales tareas de registrar, escribir, leer e interpretar, se agregue la de editar como mecanismo de reconstrucción del mundo social en la computadora. La confluencia de información cualitativa e información cuantitativa de diversos orígenes, permite "fijar" con mayor detenimiento las condiciones contextuales de la interpretación. Por otro lado, si se hace pie en los desarrollos anteriores, no sería para nada difícil pensar en la propuesta de Kelle, dado que se tendría la oportunidad de estructurar una forma de razonamiento que permita partir de y crear hipótesis para la argumentación sobre el nivel de adecuación de la realidad recreada en la computadora.

Para finalizar, sólo resta afirmar que en el campo de la investigación cualitativa, como al menos se pretende haber insinuado, existen problemas epistémicos que trascienden las argumentaciones a las que tradicionalmente se las asocia. Lo que llama a salir de un tratamiento aporético de la relación cualitativo-cuantitativo y sumergirse en la posibilidades de nuevas racionalidades y narraciones sin perder de vista la construcción científica de conocimiento sobre el mundo social.

Referencias Bibliográficas

Ball, W. 1994 "Using Virgil to Analyze Public Policy Arguments: A System Based on Toulmin´s Informal Logic." En Social Science Computer Review, 12:I, Spring. pp. 26-37.

Coffey, A., Holbrook, B. y Atkinson, P. 1996. "Qualitative Data Analysis: Technologies and Representations" en Sociological Research Online, Vol.1 Nº1.

Coffey, A. y Atkinson, P. 1996. Making Sense of Qualitative Data. Complementary Research Strategies. Sage Publications. London.

Cook, T. D. y Reichardt, CH. 1986. Métodos Cualitativos y Cuantitativos en Investigación Evaluativa. Introducción, Cap. I y II. Morata. Madrid.

Gallino, L. 28/3/96 "La Costruzione della Conoscenza Scientifica in Netropolis: Aspetti Sociali e culturali della ricerca scientifica in rete". Torino Internet. pp. 1 a 5

Goetz, J.P. y LeCompte, M.D. 1988. Etnografía y Diseño Cualitativo en Investigación Educativa. Cap. II, V, VI, VII. Morata. Madrid.

Forni, F.; Gallart, M.; Vasilachis de Gialdino, I. 1993. Métodos Cualitativos II. La práctica de la Investigación. CEAL. Nº 57 Bs. As.

Holstein, J. y Gubrium, J. 1995. The Active Interview. Sage. California.

Kelle, U. 1994. Ethnographic Research and Logic of Discovery. Recent Developments in Analytic Philosophy of Science and their Impact on the Debate on the Epistemological Foundations of Qualitative Research. Paper presented at the XIII World Congress of Sociology. Bielefeld. RC 33. Sess. 14.

Kelle, U. 1997. "Theory Building in Qualitative Research and Computer Programs for the Management of Textual Date." En Sociological Research Online, vol.2, Nº2.

Marshall Magan, J. 1994. "Research Report: Using a Database Management System to Support Qualitative Research" en Social Science Computer Review, 12:I, Spring. pp. 114-121.

Marshall, C. y Rossman, G. 1995. Designing Qualitative Research. 2º Edition. Sage. California.

Rodriguez-Alamo, E. 1995. "The conflict Between Conceptual and Visual Thought and the Future of Science" en Social Science Computer Review 13:2 Summer. pp.: 207-221

Vasilachis de Gialdino, Irene. 1993. Métodos Cualitativos I. Los problemas teóricos-epistemológicos. CEAL .Nº 32 Bs. As.

Home | Indice | Números Completos | Instrucción para Autores
Cinta de Moebio
Revista de Epistemología de Ciencias Sociales
ISSN 0717-554X