Cinta de Moebio: Revista de Epistemología de Ciencias Sociales

Lima, G. 2003. El renacimiento de la sociología. Cinta moebio 17: 86-107

PDF


El renacimiento de la sociología. Consecuencias epistemológicas de las metodologías informáticas para una nueva sociología contemporánea

Sociology reborn

Gilson Lima (glolima@bage.unisinos.br) Professor do Centro de Ciências Humanas da UNISINOS. Rio Grande do Sul (Brasil)

Recibido el 7 Ene 2003.

Abstract

The potential of the computer methodologies for the sociology becomes more and more evident, as well as it is more and more evident that the same sociology is more and more immerse in a society of the knowledge whose main fuel is the information and its reflexive structuring and communicative. The investigation methodologies and production of sociological knowledge linked to the world of the computable digital information imply a range of present and future challenges, mainly, before new modeled of discovery and production of knowledge that have like support the computers. Our social realities are more and more wrapped up in the reflexivity of the knowledge and to solve the enigma of this computer sphinx can end up being, presently, the great contribution that the sociology can offer to the contemporary social life. This will allow, also that the sociology reborns of the ashes of its death secular tradition that it almost always maintained it reduced to decipher and to only solve the problems that emerged of the more and more decadent industrialized society.

Key words: methodology, computer science, contemporary sociology

Resumen

El potencial de las metodologías informáticas para la sociología se hace cada vez más evidente, así como es cada vez más evidente que la sociología misma está cada vez más inmersa en una sociedad del conocimiento, cuyo combustible principal es la información y su estructuración reflexiva y comunicacional. Las metodologías de investigación y de producción de conocimiento sociológico vinculado al mundo de la información digital computable implican una gama de desafíos presentes y futuros, sobre todo, ante nuevos moldeados de descubrimiento y producción de conocimientos que tienen como soporte las computadoras. Nuestras realidades sociales están cada vez más envueltas en la reflexividad del conocimiento y resolver el enigma de esta esfinge informática puede llegar a ser, en el presente, la gran contribución que la sociología pueda ofrecer a la vida social contemporánea. Esto permitirá, también, que la sociología renazca de las cenizas de su agónica tradición secular que la mantuvo casi siempre reducida a descifrar y resolver sólo los problemas que emergían de la cada vez más decadente sociedad industrializada.

Palabras clave: metodología, informática, sociología contemporánea

1) Presentación

El análisis y la construcción de conocimiento complejo están cada vez más comprometido en un proceso de sintetización digital de la realidad que, a su vez, se desdobla en simulaciones de hiper-representación del mundo vital ante una variedad de soportes heterogéneos (softwares, rutinas digitales, máquinas cognoscitivas diversas) que comprenden manipulación compleja de bases de diferentes modalidades de datos numéricos, de imágenes estáticas o en movimiento, de sonidos, de narrativas simétricamente estructuradas o asimétricamente compuestas, textos, documentos, o sea, de datos brutos primarios o secundarios que están cada vez más disponibles e integrados a ese proceso de sintetización digital de la realidad.

Podemos entonces hacer dos preguntas a propósito de este proceso en la investigación sociológica:

1) ¿La sintetización digital, presente cada vez más también en la construcción del saber sociológico, incide o incidirá sólo en la aceleración y mejoría del rendimiento de los viejos procedimientos clásicos de la investigación?

2) ¿O, por el contrario, esa sintetización incide o incidirá en el surgimiento de nuevos procesos y nuevas sensibilidades y moldeados sutiles y heterogéneos, generando nuevos desdoblamientos metodológicos y nuevas técnicas de captación, acopio, recuperación y análisis sociales?

Creemos que la respuesta para esas dos cuestiones es sí. Una vez que la sociología sea capaz de sacar provecho y ganancias cualitativamente intensas de la sintetización digital de la realidad para la construcción de su saber sociológico y de sus explicaciones sobre esta misma realidad cada vez más sintetizada por la información digital. Sin embargo, para que eso acontezca, es necesario que la sociología pase por una reformulación profunda ante a un abordaje transdisciplinar de lo social y, consecuentemente, por una aproximación simbiótica y aplicada con la teoría de la información.

Esta reformulación no debe limitarse únicamente a los programas avanzados de postgrado en sociología, sino que debe estar presente desde la génesis de la formación de los graduandos en las nuevas generaciones de sociólogos, incidiendo tanto en la integración de nuevos contenidos formativos y metodológicos, como en un aprendizaje de la investigación y en una perspectiva de competencia (1) múltiple de dominio teórico y aplicado en ambientes propicios a la experimentación y, sobre todo, con nuevos procesos de aprendizaje y descubrimiento de conocimiento en la enseñanza de la investigación y producción del saber sociológico.

Vivimos en una sociedad en la cual el conocimiento, su producción y comunicación asumen cada vez más un papel central en el seno de la sociedad, de donde resulta la necesidad de una sociología cada vez más reflexiva para explicar una realidad cada vez más reflexiva y, para eso son necesarios nuevos moldeados metódicos y metodológicos que sean también reflexivos (2).

2) Sobre el Concepto de Información

Hoy, cuando pensamos en informaciones, recordamos periódicos, noticias emitidas por redes de transmisiones de radio y TV. El término información, actualmente, tiene una trayectoria muy vaga, seguida paralelamente de utilizaciones pragmáticas en un universo técnico-instrumental. También, prácticamente, vemos casi como natural, en nuestro cotidiano, la existencia de informaciones provenientes de una compleja logística significativa de producción y transmisión de noticias, hechos, imágenes, eventos captados por el tratamiento de informaciones por todos los medios de comunicación contemporáneos. Sin embargo, estas informaciones poseen y están cargadas de sentido y jamás pueden ser independientes de la emisión de sentido. Algunos procesos pueden, incluso, tener un tratamiento material y estar técnicamente desprovistos de sentido, pero el ciclo general de transmisión y de conquistas de la visibilidad de audiencia en el flujo informativo de los mass media está, por el contrario, contaminado totalmente por sentidos.

La idea de información desde su origen está relacionado con la idea de forma, que es de raíz latina, "informatio" y no tiene etimología griega. Es entendida como la acción de modelar, o sea, de dar forma. En el Siglo XIII, sin embargo, la palabra información sufrió una nueva comprensión. Fue forjada por el francés arcaico como: enformer, que significa instruir. Así, para un latino de influencia francesa, informar pasó a ser instruir en el sentido de educar, de dar forma al espíritu. Posteriormente, por el avance de las teorías contractualistas, informar, pasó a tener un destino, y en grande parte se ligó al ámbito judicial, de donde proviene la expresión instruir un proceso.

En primer lugar, es importante tener claro que nos estamos refiriendo a una información de tipo nuevo, o sea, hablamos de la noción de información digital computada. La información digital computada no tiene solamente las características de la información oral y de la escrita, sino que las amplifica, pues está vinculada a un nuevo tipo de procesar, guardar y recobrar datos, sonidos, contextos.

Nos referimos, así, a un tipo específico de la expresión informativa, diferente de la que se encuentra contenida en el abordaje de la escritura impresa en átomos, consolidada por el pagus (la página estática) y dotada de secuencia lineal y de posibilidad de reproducción (3), aun cuando la escritura lineal impresa en átomos haya conquistado, por la universalización totalizante, una profunda potencialidad expresiva a punto de permitir desvincular la lectura de la información (el acceso informativo) de los lazos de la dependencia de su contexto generador, o sea, del contexto presencial donde esa propia información fue producida, conquista y potencialidad que la información oral, sin registro físico, no es y no fue capaz de realizar. Aún así, esa modalidad informativa no puede ser concebida sin la independencia de sentido.

Sería demasiado injusto afirmar que la información oral sin registro físico, no haya adquirido históricamente, ya por las sociedades orales antiguas, ya por comunidades orales más recientes, dominios mnemotécnicos que permitiesen reproducirla, independientemente de los contextos presenciales generadores de la información. Por ejemplo, la constitución de flujos orales repetitivos (como las historias contadas por sabios narradores) siempre fue una técnica utilizada por las comunidades de tradición oral, sin escritura, para trasmitir su herencia civilizadora a otras generaciones. También en los monasterios de la Edad Media se enseñaba retórica apuntando a la precisión de la reproducción oral, utilizando para eso muchas técnicas suplementarias para la recuperación de informaciones asimiladas por vía oral como la conexión de flujos orales con índices de términos o definiciones aprendidas al pie de la letra o hasta las conocidas técnicas de memorización de lugares.

Con todo, es importante destacar que la reproducción de historias, hecha únicamente mediante tecnologías de memorización (información oral), para ser nuevamente reproducidas, necesitaba siempre un nuevo contexto presencial (narrador) para su realización. Las incidencias de la dependencia presencial, que sólo tiene la débil memorización cerebral como recurso para recuperar información, sobre todo en lo relativo al almacenamiento de largo plazo y la imposibilidad de su expresión de forma independiente de un nuevo contexto presencial, determinan una dinámica circular y repetitiva para la información oral (eso es más explícito en el caso de los flujos repetitivos orales tomados como historias, como stock de información).

Por el contrario, la información impresa en registros de átomos conquista universalidad, al margen del contexto presencial para su reproducción, asumiendo la característica totalizante, pero su trámite depende siempre de la dinámica lineal y, sobre todo, el sentido o sentidos hermenéuticos múltiples son inseparables de su expresión formal (4).

Sin embargo, la información digital computada de que se trata no es, entonces, la que encontramos únicamente en libros tradicionales o en la impresión periodística cuyos contenidos están vinculados a soportes físicos (en átomos) que conquistó, a través de su expresión universal, una totalidad integrada independiente del contexto narrado. Esa esfinge informática a la que nos estamos refiriendo tiene como combustible central de su realización específica un concepto de información, cuya principal especificidad es dotar sus expresiones, separando de modo independiente, nunca antes experimentado por la producción del conocimiento, el tratamiento informático de la forma y de su sentido.

Así, uno de los diferenciales más significativos de la información digital computada fue la conquista casi definitiva de la posibilidad de que procesemos automáticamente tanto la forma como el sentido de modo cada vez más independiente, incluso de los propios soportes físicos de registro y transporte, de recuperación, de análisis y de la propia construcción del conocimiento cuya modalidad programable y analítica orientada a objeto es su faceta más consolidada.

Hoy, puede parecer común para cualquiera de nosotros el hecho de ser parte de una civilización donde la información fluya y la comunicación ocurra con enorme intensidad y cantidad. Sin embargo, para que eso ocurriese, fue necesaria la implantación de una compleja infraestructura informática, o sea, una logística compleja para almacenamiento, procesamiento y el debido transporte de la información hoy realizado a la velocidad de la luz y medido en nanosegundos.

Es cierto que la idea de interacción no presencial, de comunicación a distancia y de tratamiento informático de la forma del sentido (que permita procesar y transmitir informaciones de contenido y sentido de modo independiente) no es novedad en la historia de las sociedades humanas. Por ejemplo, las antiguas civilizaciones ya dominaban procesos de comunicación a distancia. Eran procesos muy limitados, sin embargo, útiles para diversos propósitos. Por ejemplo, los indios de América del Norte se comunicaban la distancia a través de señales de humo. Algunas civilizaciones africanas utilizaban el tambor para comunicarse, pero fue necesario esperar hasta el Siglo XVIII para que fuese organizada, por la primera vez, una red material y sistemática de comunicación a distancia (5). Hasta entonces, para nuestros antepasados, los mensajeros a pie, o a caballo, o en carruaje, habían sido la organización material suficiente para sus necesidades de comunicación a distancia.

La masificación de las técnicas eléctricas de transmisión hizo crecer las necesidades diplomáticas de seguridad en el dominio de las transmisiones. Es el problema de cifrar, o sea, el uso de caracteres secretos, de mensajes en código. Con ocasión del ajuste de códigos secretos fue inventada por Francis Bacon la anotación binaria, que permitiría, posteriormente, en 1832, en los Estados Unidos, el surgimiento del telégrafo a partir de la simplificación de las codificaciones de señales. Este invento se le debe a Samuel F. B. Morse (1761 – 1872), que era pintor en su Estado natal. En 1838, Morse propuso la correspondencia directa de líneas y puntos con las letras del alfabeto. El sistema de código Morse utilizado hasta hace algunos años operaba con base en tres símbolos: la línea, el punto y el intervalo.

En 1874, Thomas Edison perfeccionó el telégrafo al descubrir que, gracias a una codificación eléctrica apropiada de señales, dos mensajes podrían transitar, simultáneamente, en un mismo circuito eléctrico. Más tarde, un francés (Êmile Baudot 1845 – 1903) concibió un nuevo sistema telegráfico que operaba con una base binaria, combinación diferente a la de los tres símbolos del sistema de Morse.

Solamente después de la Segunda Guerra Mundial, con la invención de la computadora, esa modalidad de información (digital computada), capaz de tratar el sentido y la forma de modo independiente, pasó a desempeñar un papel social importante. Así, a partir de la necesidad de distribución de tareas para el tratamiento de la información computable, se formó un cuerpo de especialistas – escribas electrónicos – que dominaban el universo informático específico, integrado por una comunicación numérica compuesta de instrucciones y protocolos de algoritmos, que traducen datos y eventos reales en "simbolismo binario".

La información digital computada se incorpora a una gama de múltiples saberes aglomerados simbióticamente y vinculados a soportes infraestructurales sofisticados de redes comunicantes e interactivas que comparten cuatro niveles informáticos:

a) Primer Nivel: El álgebra booleana.

b) Segundo Nivel: La información como expresión binaria digital.

c) Tercer Nivel: Pensar y construir instrucciones a través de algoritmos.

d) Cuarto Nivel: La cultura de la interface.

Analicemos, ahora, uno a uno esos cuatro niveles:

a) El Primer Nivel: El álgebra booleana y las implicaciones: una atención más significativa a los procedimientos lógicos y reflexivos.

En el Siglo XIX surge un personaje muy importante para la teoría y aplicación de la información digital computada, se trata de George Boole (1815-1864), un matemático inglés, autodidacta, que escribió An Investigation of the Laws of Thought (Investigación de las leyes del pensamiento), libro publicado en 1854 y que fue muy apreciado. Medio siglo más tarde, el matemático y filósofo Bertrand Russell satirizó a Boole como el descubridor de la "matemática pura". Boole se preguntaba si realmente existían leyes que rigiesen el pensamiento. En ese libro, Boole responde esa hipótesis reduciendo la lógica del pensamiento humano a operaciones matemáticas. Aunque Boole no haya explicado el pensamiento humano, demostró el poder y la generalidad sorprendentes de unos pocos tipos simples de operaciones lógicas. Inventó un "lenguaje" para describir y manipular proposiciones lógicas y determinar si ellas eran o no verdaderas. Hoy, ese lenguaje es llamado álgebra booleana.

Boole formuló, además, una serie de reglas para esas manipulaciones. Una de esas reglas decía que el producto de dos símbolos está asociado a requisitos que satisfacen las definiciones de los dos símbolos. Así, si x representa hombres y y representa seres blancos, el producto xy representa hombres blancos. Existen números para los que las ecuaciones pueden ser definidas como verdaderas o no, en verdad, esa definición podría ser expresada exactamente por dos números: 0 y 1. Para reducir la lógica a ecuaciones, es preciso trabajar únicamente con ceros y unos — en otras palabras, es necesario usar el sistema binario. No hay ningún problema en esta reducción, afirmó Boole, si "la cadena de demostraciones nos conduce, por etapas intermedias que no sean posibles de interpretación, a un resultado final que pueda ser interpretado" (6).

Hoy, las computadoras son suficientemente poderosas para derrotar al campeón mundial de ajedrez — un hecho asombroso para una máquina que conoce apenas dos números, 0 1. Es claro que la computadora es capaz de manipular números mayores, pero, en último análisis, todos los números que una computadora calcula son representados por secuencias de ceros y unos.

Boole quería probar que las leyes del pensamiento humano podían expresarse por medio de ecuaciones algebraicas. Imaginó que esas ecuaciones serían usadas para describir relaciones lógicas y, al resolver las ecuaciones, cualquiera podría llegar a la solución correcta del problema. Boole quería reducir la riqueza del pensamiento lógico humano a un sistema algebraico. Las computadoras modernas son, de cierta forma, el resultado de la unión de los mecanismos de procesamientos automáticos con el álgebra booleana.

El resultado de este primer nivel de la información digital computada para la investigación y la producción del conocimiento sociológico es la apropriación más efectiva del álgebra, con precisión lógica y mayor atención a los detalles operativos en los procedimientos y procesos de la investigación en la formación de los sociólogos. Para realizar esto, es necesaria mayor atención en el diálogo con la teoría y la aplicación de la moderna información computable, tanto por parte de las actuales generaciones de sociólogos como en la formación de las nuevas. Para que el diálogo entre los que conocen la informática y los sociólogos pueda ser mucho más fructífero para la investigación social, éstos no necesitan volverse especialistas en álgebra, pero, ciertamente, no pueden continuar ignorándola.

b) Segundo Nivel de Base de la Información Digital Computable: La información como expresión binaria digital

El trabajo de Boole llegó a la teoría de la información por medio de la tesis de master de un joven estudiante americano de ingeniería del Massachusetts Institute of Technology (MIT) llamado Claude Shannon. Se le considera el primer científico que sistematizó la noción moderna de la información. Claude Shanon defendió la aplicación del álgebra simbólica de Boole a los circuitos de conmutación eléctrica, en 1948, en su clásico libro: "Una teoría matemática de las comunicaciones". En ese libro Shannon sistematiza dos tesis importantes.

La primera, fue la genial conexión entre lógica simbólica booleana y los circuitos eléctricos, o sea, la relación entre operadores lógicos y los circuitos de conmutaciones eléctricas. Eso permitió las posibles relaciones entre el mundo de los símbolos y los dispositivos eléctricos de transmisión de señales.

La segunda, fue la creación de una unidad de medida informática. Definió una medida de cantidad de información (datos), cuya unidad llamó bit (Bynary Digit).

Esas dos contribuciones de Shannon fueron creaciones impresionantes y muy importantes para la ciencia; con ellas Shannon estableció las bases para los desarrollos que se darían en el campo de la computación en los años siguientes.

Para poder pensar en el procesamiento computable de informaciones, es necesario pensar, también, en su "codificación", o sea, en los protocolos operativos que serían la base de este procesamiento. Shannon indicó que ese "lenguaje no humano" de la máquina sería numérico (álgebra boolena), la base de los números binarios: 0 y 1, donde cada 0 (cero) o cada 1 (uno) se llama bit.

La técnica computable de codificación encontró así su pleno desarrollo teórico en el álgebra lógica y binaria de George Boole, y Shannon introdujo en la teoría de la información la célebre pretensión booleana de obtener en los procedimientos informáticos una mejor comprensión de los mecanismos del lenguaje y de las bases necesarias para demostración de verdades. Las funciones lógicas del álgebra de Boole son notables en simplicidad y elegancia y Shannon tuvo el mérito de percibir eso inaugurando un método de procesamiento de todos los símbolos, incluyendo los numéricos, de modo que se le permitiera realizar sus expresiones mediante operaciones aritméticas elementales. Esto posibilitó, más tarde, que fuera posible crear un procesamiento automático y computable de las informaciones. Se puede afirmar claramente que a partir de esto se inaugura definitivamente el patrón moderno de la información digital.

La conexión entre la lógica simbólica booelana y los circuitos eléctricos inicia una nueva mutación de la memoria física almacenada de la información, dotándola de una dimensión significativa para el conocimiento, o sea, la conversión de la memoria estática de los registros y acopio (almacenamientos) de los datos que ahora se mueven y fluyen en torno a los circuitos, al mismo tiempo que mantienen su integridad informática.

Resultado de esa memoria informática en flujo es la vivencia de esa experiencia singular, un estremecimiento histórico de la vida humana sobre el planeta. En terreno del conocimiento, es la victoria y el dominio de los nómadas sobre la hegemonía de los modernos sedentarios.

Esa novedad histórica explica, incluso, por qué (desde el punto de vista sociológico) emerge en aceleración fluida una nueva esfinge informática y, por donde pasa, transforma en ruinas, en tierra arrasada, casi toda la meticulosa solidez que la modernidad simple llevó siglos en levantar: las instituciones, la normatividad jurídica, la compleja ingeniería institucional del Estado-Nación, la fisicalidad monetaria, la industrialización de la materia, la importancia que se da a la mecanización del trabajo humano, recreación de Sísifo (7) y el monopolio del acceso a la renta vinculada al trabajo libre, las ideas de representación, la racionalidad mecanizada de la ciudad industrial y su derivación de ciudadanía... O sea, por donde pasa, echa todo por tierra: instituciones, procesos normativos, tradiciones, interacciones presenciales, controles disciplinarios y hermenéuticas de profundidad. Se trata de un desafío sociológico de dimensiones profundas.

c) El Tercero y Reflexivo Nivel de la Información Digital Computable: El pensamiento y la escritura por medio de algoritmos.

Para entender de qué información estamos tratando es importante que consideremos la idea de "algoritmo".

Algoritmo tiene origen árabe y quiere decir restitución. Su origen se deriva del nombre de un matemático persa — Al-Khowarizm, quien escribió un manual esencial de álgebra en el siglo IX. En el área de la matemática, algoritmo representa una de las propiedades del álgebra que consiste en restituir una igualdad cuando se interfiere en los términos de la ecuación. Ejemplos de algoritmos que designaban siempre la idea de un procedimiento sistemático ya eran conocidos mucho antes del libro de al-Khowarizm.

Un famoso problema conocido como problema de la decisión (Entscheidungsproblen) fue el paso inicial para la "resignificación" moderna de algoritmo. Conocido como "Problema de Hilbert", consistía en indagar la existencia de un procedimiento efectivo (mecánico) para determinar si todos los enunciados matemáticos verdaderos eran demostrables, si podrían o no ser poblados de resultados, o sea, si podrían o no ser deducidos de un conjunto dado de premisas. Por ejemplo: se cuestiona si dada una fórmula cualquiera de cálculo de predicados, existe un procedimiento sistemático, general y efectivo que permita determinar si esa fórmula es demostrable o no. En el problema de la decisión se trataba de saber se existiría un procedimiento efectivo para la solución de todos los problemas matemáticos pertenecientes a sus clases amplias, pero bien definidas.

El primer paso a ser dado para resolver el Problema de Hilbert (o Problema de la Decisión) era sustituir la idea intuitiva de procedimiento efectivo por una representación matemática formal. El resultado fue la construcción de una idea matemática de la noción de algoritmo modelada a partir de la manera como proceden los seres humanos cuando efectúan una computación, o sea, el procedimiento de computar uno o más datos.

Sin embargo, para los anglosajones, que "resignificaron" la noción de algoritmo, ésta se transformó casi en sinónimo de "un proceso efectivo". Alan Turing (1912–1954), un insolente matemático inglés proveniente de la Universidad de Cambridge, le dio una forma definitiva para la información digital computada: "Un algoritmo podrá ser definido como el conjunto completo de procesos (finitos) ordenados con reglas que permiten la resolución de un problema (finito) determinado" (8).

Para la sociología, la apropiación de ese precepto implica gestar cada vez más la capacidad de pensar, de comprender, de dominar, de analizar fenómenos sociales, investigados mediante creaciones y construcciones algorítmicas.

Ciertamente los fenómenos sociales y la expresión social de eventos complejos no pueden ser computados o reducidos a los procesos de construcción algorítmica, sin embargo, su investigación puede sufrir incidencia algorítmica para aproximar, simular, testar o refutar hipótesis y problemas a ser resueltos por metodologías informáticas. Los sociólogos, como ya dijimos, no necesitan transformarse en programadores numéricos, pero, ciertamente, necesitan dominar, conocer y comprender cómo operan los procedimientos digitales computables, para que sean capaces de dialogar adecuadamente con los que conocen la informática y saquen el mayor provecho posible de las tecnologías informáticas para la producción de sus conocimientos.

d) El Cuarto y aún más Reflexivo Nivel de la Información Digital Computable: La cultura de la interfase.

La información se volvió cada vez más reflexiva por la computación abstracta, sobretodo, delante de la gran revolución "interfase" que promovió la microcomputación. En una visión simplificada, la revolución digital se debe al surgimiento de las propias computadoras y de sus programas numéricos (sistemas/ambientes digitales) que son los aceleradores efectivos de esa macrorrevolución informática. La computadora es una invención que data, teóricamente, por lo menos desde 1939 (máquina de Turing) y, que existe efectivamente, desde el final de la Segunda Guerra Mundial.

Sin embargo, la revolución efectiva de la información digital ocurrió precisamente cuando ésta se integró con la cultura digital, lo que sólo fue posible por una creación mimética que puede expresarse en una modesta palabra llamada interfase. Al darse la creación y la humanización de las máquinas computacionales, mediante interfaces gráficas (pixels) y su procesamiento ser distribuido en descentralizadas micromáquinas, los usuarios alcanzaron una nueva cultura, ampliándose las resonancias sensoriales y cognitivas, como nunca había ocurrido antes. En el nivel de la interfase emergieron con mucha intensidad nuevos agentes (usuarios aficionados) en detrimento del monopolio pericial de los escribas electrónicos que dominaban la programación de las máquinas (codificación numérica).

No debemos olvidar que el surgimiento de medios analógicos de comunicación y, sobretodo, de medios televisivos ya había alterado significativamente la expresión informática en el Siglo XX y hasta en nuestros días. Así, por ejemplo, la idea de relaciones cara a cara de espacio y tiempo mediados por la comunicación oral radiofónica o intermediado por imágenes sensoriales y textos en los medios televisivos de comunicación (aun cuando de baja reflexividad) posibilitaron amplificar el contexto generador de la información y dotarlo de una visibilidad y expresión que va mucho más allá del contexto generador de los eventos y agenciamientos vitales y en proporciones jamás experimentadas antes en nuestras sociedades (9).

Sin embargo, la emergencia de la información como espacio reflexivo, mediado por infraestructuras de información y comunicación digital, tuvo su encuentro amplificado y vuelto más complejo con la peculiaridad del pixel. Cada pixel en la pantalla de la computadora se refiere a un pequeño fragmento de la memoria de la computadora: en una pantalla simple, en blanco y negro, ese fragmento sería un único bit, un 0 ó un 1; si el pixel fuera iluminado, el valor del bit sería 1; si quedara oscuro, su valor sería 0. En otras palabras, imaginemos la pantalla de la computadora como una reja de pixels, un espacio bidimensional. Los datos, como información, poseen ahora una localización física y una localización simulada gráficamente por electrones en vaivenes entre el procesador y su imagen reflejada en la pantalla. Ese procesamiento de la información está envuelto en un principio de la manipulación directa por parte del usuario.

Con la emergencia de la cultura de interfase, en vez de teclear comandos obscuros, podemos simplemente apuntar a un ícono y exponer contenidos por medio de ventanas que se abren sucesivamente, o arrastrar contenidos e íconos en la pantalla. En vez de programar instrucciones complejas de lógica en la computadora para ejecutar una tarea específica como "abra este archivo", ahora los usuarios aficionados mismos pueden realizar sus tareas de modo cada vez más independiente. La manipulación directa tiene una cualidad curiosamente paradójica, o sea, en la realidad, la interfase gráfica añade otro nivel entre el usuario y su información, pero, ahora, la información se vuelve aún más próxima y la sensación es la de que estamos haciendo algo directamente con nuestros datos, en vez de decir a la computadora que lo haga por nosotros.

Sin ese vínculo directo, toda la experiencia se parecía a la de ver televisión, situación en la que quedamos circunscritos a la influencia de un flujo constante de imágenes que son mantenidas separadas, distintas de nosotros. Un apuntador, como el mouse, permite al usuario entrar en aquel mundo invisible y manipular, realmente, las cosas dentro de él, desde la integración sutil del infoespacio, mapeado por bits y pixels, con manipulación directa y el mouse, conquistamos algo nunca antes experimentado en nuestra civilización y equivalente había sido realizado. El mundo nuevo y luminoso de la información despuntó de repente y la computación mudó y nunca más fue la misma. Howard Rheingold fue quien mejor describió esa revelación, en Tools for Thought: "El territorio que vemos a través de la ventana ampliada en nuestro nuevo vehículo no es paisaje habitual de planicies, árboles y océanos, sino un paisaje de información cuyos marcos son palabras, números, gráficos, imágenes, conceptos, párrafos, raciocinios, fórmulas, diagramas, pruebas, cuerpos de literatura y escuelas de crítica. De arrancada el efecto es vertiginoso ... todos nuestros viejos hábitos de organizar información se ‘explotan’ por la exposición a un sistema que tiene por modelo no el lápiz o las máquinas impresoras, sino el modo como la mente humana procesa la información" (10).

Aquí cabría un paréntesis: cuando hablamos de reflexividad, generalmente nos referimos a la idea de un pensamiento que está siempre de bruces embebido en sí mismo, que narra y se autonarra, analiza y refleja para sí el propio proceso de analizar, así como sus condiciones sociales de producción y de objetivación. Aquí estamos también hablando de una reflexividad propia de las estructuras digitales de información y comunicación, que es efectivamente primaria, pero que, indiscutiblemente, contiene habilidades cognitivas que permiten clasificar las máquinas computacionales como máquinas de simbiosis cognitivas entre la lógica y lo sensorial, al contrario de las máquinas solamente musculares y de las máquinas solamente sensoriales (tradicionales medios televisivos de comunicación).

Así, cuando decimos que la propia infraestructura reflexiva de comunicación e información, que promueve la sintetización digital de la realidad, está dotada también de reflexividad, afirmamos que posee habilidades, aunque todavía primarias, de cognición propia, para tratar la propia red de significados y de significancias implicadas y dedicarse a ello, lo que no deja de ser un cambio relevante comparado con los antiguos soportes de construcción de conocimiento con bases materiales de registros estáticos en átomos en el pagus.

Es obvio que la reflexividad de los agentes humanos no se refiere sólo a la acción cognitiva entendida meramente como "autoconciencia" ni mucho menos a la "automación programada de procesos en flujos", sino a prácticas mucho más complejas que incluyen, también, un monitoreo reflexivo de los flujos integrados a la vida social y su indeterminación, que no están presas apenas las certezas binarias digitales.

Sin embargo, es innegable el impacto de la cultura de la interfase para comprender la emergencia de la información digital como cultura informática y también como espacio-informático. No debemos olvidar que los estudios sobre la mente humana han señalado que poseemos una memoria visual mucho más duradera que la memoria textual. Los nuevos medios de comunicación reflexivo-digital han permitido que no sólo podamos compartir conceptos, sino que integremos datos e informaciones a un nuevo modo de producción de la información, que por medio de nódulos informáticos en flujos también cada vez más miméticos, permitan compartir significados. No deja de ser importante la comparación con el modo de producción material industrial/capitalista donde la cuestión central gira en torno a la búsqueda de intereses compartidos y no de significados compartidos. El propio Karl Marx no entendía el concepto de clase en sí, enfáticamente, como una cuestión de significados compartidos, sino de intereses compartidos (11).

Vivimos la emergencia cada vez mayor de una cultura reflexiva propia generada por la nueva interfase informática. Sociológicamente no podemos ignorar la grandiosa hazaña de la computación abstracta al haber realizado la construcción de máquinas y artefactos numéricos con habilidades lógicas que hasta ayer eran monopolio de la mente humana. No es cosa de poca monta la creación de máquinas y artefactos programables con capacidades cada vez mayores de manipulación de stock/almacenamiento, procesamiento y aún hasta de recuperación —aunque de manera todavía primaria — de datos e informaciones también en volúmenes cada vez mayores.

Por fin, no son nada desechables tampoco las hazañas de la integración de ambientes hipermediáticos digitales (sonidos, imágenes en movimiento e informaciones con caracteres) que amplían nuestras realidades vitales y las aproximan a la realidad vital por anticipaciones con simulaciones también cada vez más integradas en flujos informáticos interactivos de comunicación.

3) Algunos Desafíos que se avecinan para la Sociología y las Metodologías Informáticas

No cabría aquí desarrollar con mucho detalle la gama de desafíos que la infraestructura reflexiva de información y comunicación presentan a la sociología y las metodologías informáticas. Vamos a poner apenas algunos ejemplos desafiantes para las metodologías informáticas, vistos la aproximación y el potencial de integración entre la sociología y la información digital computable; entre la investigación y la construcción del propio saber sociológico con la amplificación de los recursos cognitivos digitalizables, que tienden a volverse cada vez más relacionados e intensos con esa aproximación. Veamos esos ejemplos significativos y desafiantes de tal aproximación:

Un primer ejemplo es la posibilidad de la realización automática de monitoreo. Esto nos permite identificar accesos de informaciones más precisas de todo el tratamiento informático y, también, de un monitoreo de frecuencias en tiempo real sobre el tráfico de generación automático entre las diferentes trayectorias de datos u objetos, el proceso de sus tratamientos analíticos y sintéticos, permitiendo búsquedas e investigaciones sobre el propio proceso realizado.

Esos procesos ya pueden dar muestras de la significancia y del potencial a ser realizados en el propio monitoreo reflexivo de las rutinas, eventos y/u objetos de investigación, permitiendo, hasta que la propia red informática pueda interactuar con el encuestador en una auditoría reflexiva permanente sobre los propios procedimientos y operaciones realizadas en la investigación.

Eso representa la posibilidad de que delimitemos, con mayor precisión, los procesos de investigación, el espacio y el tiempo de sus flujos, la definición de localizaciones y extensión de las colectas, la exploraciones de datos o de los fenómenos analizados, o de las nuevas asociaciones digitales no previstas. Teniendo así como ejemplo: entre tablas, columnas o términos, posibilitando, también, elaborar una verificación simulada de hipótesis definidas o nuevas o imputar atributos de análisis de modo mucho más precisos, sean ellos de datos numéricos, de textos o de imágenes o también de atributos significantes de contenido, de relaciones entre las palabras y hasta estéticas, delimitadas en objetos integrados en un volumen de manipulación antes solamente imaginable e imposible de ser expresado por la tecnología hasta entonces disponible.

El segundo ejemplo se refiere más específicamente en la utilización de técnicas que posibilitaron el hallazgo de conocimientos. Apoyadas por computadoras y por la información digital computable, esas técnicas pueden dotar la investigación sociológica de mucha mayor precisión, rapidez y calidad. Las búsquedas basadas en técnicas de exploración de datos o eventos relacionados pueden darse ejecutarse por medio de palabras clave definidas por atributos léxicos o por integración entre relaciones y concurrencia entre datos, objetos y eventos.

Además de las ventajas de precisión y rapidez, se puede agregar el proceso de replicación de nuevas bases de datos, creando nuevos niveles de análisis, permitiendo al sociólogo encuestador actuar de modo más autónomo entre la base bruta de datos y la segmentada. Así, se pueden tratar con más agudeza las especificidades de la segmentación y construir nuevas relaciones con los datos brutos (sean ellos textuales o no) que están siendo analizados.

Por ejemplo, después de haber pasado digitalmente las entrevistas narrativas recogidas para un determinado software, toda la base textual puede ser considerada base bruta de datos. Los análisis de búsquedas parametrizadas y definidas pueden ser realizados, automáticamente, por los mecanismos de búsqueda que, después de detectar y localizar segmentos de textos solicitados, pasan a integrar otro archivo de segmentación, que contendrá apenas aquellas búsquedas definidas. Posteriormente, esas búsquedas integrarán toda la base de datos segmentada, permitiendo nuevos tipos de hallazgos de conocimiento apoyadas por la información digital y, así, esas segmentaciones pueden aún ser integradas a un proceso de significación más específico pudiendo, también, generar un análisis más fino y complejo de entendimientos sobre conceptos, valores, significancias, etc.

Otra cuestión desafiante para el uso de la información digital en la investigación sociológica es la necesidad de que los sociólogos estén constantemente atentos para los futuros y nuevos soportes digitales o arquitecturas con potencial de utilización en sus investigaciones (sean equipos, sean nuevas técnicas de gestión de conocimiento en redes digitales, sean los propios tratamientos informáticos y su recuperación de datos). Esa atención exige experimentación constante y abierta de la sociología con las nuevas metodologías informáticas en el proceso investigativo (de investigación), enfocando la potencialización aún mayor de la generación de descubrimientos de conocimiento sociológico apoyados por esas nuevas tecnologías. Eso implicará en primer lugar. Eso incidirá, en primer lugar, en la adopción y constitución de principios flexibles de investigación para una mayor portabilidad, adaptación para esa potencialización ante los usos de nuevas tecnologías que están surgiendo. Por ejemplo, la comunicación vía banda ancha puede ser un impulso para nuevos y mejores métodos que hagan análisis y den respuestas con base de datos en volúmenes enormes y en tiempo real nunca antes posibles de ser realizados por la sociología. También la computación móvil, que usa recursos de captación digital como grabadores, cámaras e "insignias" digitales, nuevos soportes electrónicos de publicación (libros electrónicos) irán a sumarse a un conjunto de diferentes periféricos que se integrarán al Internet y exigirán nuevas modalidades de captación de datos, teniendo en cuenta la portabilidad con métodos más flexibles para auxiliar las investigaciones.

Mientras tanto, cada tecnología exige modos diferentes de interacción y cuidados de adaptación, pretendiendo la garantía de la conquista del conocimiento complejo, lo que demanda mecanismos de detección e integración de los recursos diversos, sin dejar de lado la consiguiente adaptación o personalización.

También deberá haber, en los próximos años, un avance en la tecnología de los softwares de investigación para apoyar nuevos y complejos descubrimientos de conocimiento, que permitan interfaces con identificaciones más seguras, más amigables para los investigadores, con procesamientos más avanzados, que apoyen sonidos digitalizables integrados a textos, facilitando mucho el análisis sociológico. Con el avance de la multimedia, pronto será posible analizar, también, sensaciones de olor, gusto y tacto, además de los atributos y variables ya existentes para visión y audición. Todo eso podrá hacer más complejo el proceso de descubrimiento de conocimiento.

En este sentido, una buena noticia es la aparición de nuevas interfaces cooperativas que está en marcha. Generalmente, esas interfaces cooperativas tratan de establecer modelos de usuarios para poder auxiliarlos. Por ejemplo:

Los objetivos del investigador pueden ser explícitamente declarados o entonces inferidos, automáticamente, por mecanismos de cooperación en interfase puede ser un cuestionario, un guión de entrevista o una consulta a una base de datos. Así, podremos emplear técnicas ya realizadas de sistemas especializados (de aprendizaje de máquina) para analizar el comportamiento de una población investigada en cuestión, como: antecedentes de la interacción o de contactos anteriores, los tipos de proyectos ya realizados y, si utilizamos ambientes digitales o cuestionarios electrónicos, podemos observar lo que fue recobrado, leído, ignorado, grabado, excluido, enviado a otros, etc. Esto podrá indicar uno o más aspectos de un perfil común o no entre un individuos o entre grupos de la población investigada realizado por medio de construcción de parámetros automáticos, y permitirá también nuevas instrucciones abiertas las cuales podrán ser aplicadas en la investigación por los investigadores sobre los investigados (sea la investigación realizada en la Web o en un software de investigación cualquiera que esté siendo compartido).

También la utilización de voz para interfase cooperativa facilitará la interacción a través de diálogos utilizados para que los programas "entiendan" las necesidades de un usuario o de una población investigada (en nivel: a) léxico – análisis de los elementos o unidades del lenguaje, por ejemplo, términos y palabras; b) sintáctico – análisis de las relaciones entre los elementos; c) semántico – análisis del significado de las frases y construcciones; d) pragmático: análisis del uso del lenguaje en el contexto y las connotaciones consiguientes).

Otro desafío futuro para las metodologías informáticas que también querría destacar por su potencial de auxilio a la producción de conocimiento complejo y existente hace tiempo, pero poco utilizado por la sociología, es el que denominamos "descubrimiento de fenómenos" (Phenomenal Data Mining). Son ambientes de simulación, que apunta al análisis asistido por metodologías informáticas integradas con agentes cognoscitivos digitales. Este proceso de exploración es hecho sobre datos que representan la realidad. En ese caso, los patrones descubiertos son relativos a los datos y, por inferencia, relatan cosas del mundo real de los fenómenos analizados. En general, el proceso de relacionar fenómenos (eventos reales) y datos (representaciones y observaciones de los eventos) es hecho manualmente por medio de los datos investigados.

Observando con cuidado los datos, es posible inferir entidades en el mundo real, sus características, e inferir, también, las relaciones entre esas entidades de ese mundo real con un ambiente de simulación. La observación debe funcionar como el criptoanálisis, que identifica, por ejemplo, patrones en el comportamiento de quien envía mensajes. El análisis puede ser hecho sobre categorías de inferencia o clases sobre procesos o eventos y el descubrimiento de fenómenos puede ayudar a identificar hipótesis, verificarlas, identificar objetivos de personalización o recomendaciones de estudios.

La exploración fenoménica exige captar y entender los eventos del mundo real y su relación con los patrones verificados en los datos. Eso es extremadamente útil en muchas situaciones y acontecimientos sociales del mundo y de la sociedad como, por ejemplo: relacionar acciones de violencia con condiciones climáticas (lluvias, secas, calor, tempestades) y con el modo de vivir en las ciudades (espacio, renta, escolaridad) y, después, por ejemplo, relacionar y realizar los cruzamientos verificando sus influencias sobre el comportamiento de las personas o de las organizaciones, etc.

Otro paso importante para la simulación es la integración de los fenómenos y sus eventos a técnicas de exploración: por contenido, por clasificación o clustering de datos, por segmentos de textos, por imágenes o por objetos identificándolos por asunto o tipo temático. Un desafío aún existente es conseguir generar una ontología en la simulación, que sea adecuada a la complejidad vital en análisis. Esas ontologías generadores de simulación de fenómenos sociales en esos ambientes son las que permiten formar los vocabularios controlados o lenguajes para representar conceptos y segmentos conceptuales (de caracteres y/o miméticos) de la realidad.

El mejor desempeño de esas simulaciones se alcanza cuando diferentes abordajes de exploración de datos son utilizadas en conjunto. Es siempre importante y recomendable montar un banco de datos para tratar las informaciones y los registros almacenados, permitiendo, siempre, técnicas ágiles de recuperación y relaciones entre los mismos. Una técnica simple sería sustituir los archivos por palabras claves, temas significantes o conceptos importantes presentes en la investigación. Eso puede ser más fácilmente alcanzado, o sea, el proceso de exploración de fenómenos volverse más complejo con la utilización de ambientes de simulación integrados con múltiples agentes cognoscitivos digitales.

Sin embargo, ¿qué serían esos múltiples agentes cognitivos digitales? Son mecanismos inorgánicos integrados en ambientes de simulación tomados por pequeñas o diversas instrucciones digitales automáticas, sea en hardware sea en software, que los habilitan de tomar decisiones lógicas y de automejorar parcelas de sus autodesempeños en una simulación cualquiera.

A veces, esos multiagentes cognitivos son llamados con mucho entusiasmo intelligent agents. Ellos, con todo, sirven, principalmente, para explorar hipótesis a través de simulaciones con el fin de entender regularidades (constantes) de fenómenos sociales. Cuando existen varios agentes digitales actuando de forma integrada y cooperativa, el ambiente de simulación es conocido con el nombre: sistema de multiagentes. Generalmente, cada uno de esos múltiples agentes tiene conocimientos propios y diferentes; actúan como individuos cognitivos e interactúan entre sí, compartiendo informaciones y conocimiento para soluciones de problemas más complejos, que, difícilmente, serían resueltos por cualquiera de los individuos de manera separada.

En un ambiente de múltiples agentes cognitivos artificiales, se pretende principalmente permitir que la cognición sea distribuida remotamente para que los investigadores puedan, mediante simulación, tomar decisiones complejas y dotar de autonomía los procesamientos cognitivos menos complejos, al mismo tiempo que los soportes digitales constituyen un nivel nuevo de procesamiento cognitivo en la investigación, posibilitando generar una mayor eficiencia y una mayor precisión sobre los estudios realizados.

Para ser considerados multiagentes digitales aptos para la simulación esos agentes deben poseer las siguientes características:

Autonomía: Su parametrización debe posibilitar que las futuras asociaciones e interacciones entre los agentes en el ambiente ocurran sin intervención humana y sin condicionamiento previo de las hipótesis a ser validadas;

Habilidad social: Deben tener interfaces capaces de interactuar bien con los investigadores u otros agentes;

Reactividad: Deben poder recibir estímulos del ambiente y contestar en tiempo hábil;

Pro-actividad: Deben tener comportamiento dirigido a un objetivo, tomando la iniciativa de la acción sin necesitar esperar estímulos;

Movilidad: Deben poderse mover para otros ambientes;

Continuidad temporal: Deben funcionar continuamente.

Un último ejemplo, desafiante para las metodologías informáticas en el futuro, se sitúa en el ámbito del tratamiento de la integración reflexiva de informaciones o, con mayor entusiasmo, es el llamado Intelligent Integration of Information. Las actividades de integración reflexiva de información tienen como objetivo abstraer, integrar, fundir, reducir y añadir valor a grandes masas de información distribuida. La importancia de ese procedimiento y su técnicas es que la integración aumenta el valor de las informaciones, principalmente cuando éstas se originan en múltiples fuentes y son relacionadas o combinadas.

La integración de informaciones y conocimientos, cuando se hace con apoyo automatizado, generalmente ocurre en el nivel simbólico más abstracto, sobre las informaciones o conocimientos a que están representados.

El objetivo de esas integraciones no es el de crear un modelo unificado (y muchas veces no se pretende modificar los modelos individuales existentes) y, sí generar una visión unificada para responder consultas o para descubrir algo nuevo. En general, se utiliza un modelo mínimo de dominio en más alto nivel, siendo las consultas mapeadas para modelos del nivel abajo. Ese modelo mínimo debe representar cada esquema individual sin pérdidas de las fuentes que emigran a un nivel más comprensible (combina niveles de abajo en nivel más alto) buscando como objetivo resultados seleccionados derivados de la integración.

Una manera muy común de hacer tal integración es utilizar una representación que identifique algunos elementos en ese proceso de integración (elementos facilitadores: permiten accesar datos en las fuentes; elementos procesadores de consulta: reformulan las consultas; elementos mediadores: combinan datos venidos de las fuentes y los sintetizan o los resumen para el investigador). Estos últimos elementos, los mediadores, tienen como objetivo encontrar informaciones interesantes y significantes.

Esos elementos exploradores catalogan y producen información derivada, valiéndose de ontologías distribuidas y fragmentadas para compartir conocimiento y eliminar ambigüedades. Los conceptos representados en la ontología única (contexto único integrado) son mapeados para esquemas locales, pudiendo haber jerarquías de ontologías.

Otra importante cuestión, relativa al desafío de la integración reflexiva de la información digital, es el problema de la integridad relacional de los datos asociados a los recursos de recuperación en múltiples bases de datos para el análisis asociativo o de inferencia cruzada. Para realizar las exploraciones en bases de datos múltiples, los conceptos son integrados por equivalencia, generalizaciones, especializaciones, incompatibilidades, etc. Así, uno de los mayores problemas es el de integrar diferentes tipos de búsqueda e investigación modeladas con un esquema único de interferencia en las alteraciones de los modelos específicos de acopio – que, al mismo tiempo, contemple y respete la integridad del análisis y la diversidad distribuida de los datos en las diferentes bases originales.

Una de las técnicas más utilizada para eso en los programas de investigación es la de búsqueda de conocimiento por medio de un conjunto programado de instrucciones (lenguaje declarativo) para el cambio de conocimiento entre agentes modelares. Ese lenguaje declarativo es una forma de representación de ontologías, donde expresiones o sentencias son arbitrariamente descritas en el cálculo de predicados. Es una versión de la lógica de primer orden con extensiones para servir de soporte al raciocinio y a las definiciones no monotónicas (no uniformizadas). La finalidad de esa técnica es permitir operaciones que actúen como mediadores en la traducción entre modelos diferentes para un nuevo tipo de modelo derivado.

Para concluir nuestro análisis sobre esos desafíos, nos gustaría sugerir algunas consideraciones más analíticas. Como vemos, la información computada está conquistando cada vez más un espacio de significancia y de significación reflexiva por su potencialidad mediadora ante la realidad e, incluso, ante la construcción del propio saber. La información significada por los nuevos medios de comunicación reflexiva digitales nos presenta un resultado de asepsia cada vez mayor, realizada por mediaciones en estructuras semireflexivas, generando, también, cada vez más una compleja sintetización digital de la realidad y un desafío cada vez mayor sobre nuestra capacidad analítica para que continuemos en el difícil camino de la cualidad acompleja de la producción del conocimiento sociológico sin valernos de los atajos de las facilitaciones y encantamientos juveniles simplificadores ofrecidos por el determinismo tecnológico o del embotamiento movido por la ceguera conservadora que pretende apenas una reproducción de la tradición escolástica que insiste en no salir del final del Siglo XIX y de las primeras décadas del Siglo XX.

Una cuestión importante a considerar es que no se trata sólo de la hazaña de realizar la replicación de las actividades rutinarias del procesamiento lógico del cerebro humano y de la amplificación de nuestras resonancias sensoriales en sofisticados soportes ambientalizados por sistemas digitales de simulación e interacción, sin embargo, no podemos estar de acuerdo en que la infraestructura reflexiva de información y comunicación digital, aún siendo capaz de replicar, incluso, una reflexividad mimética (representación imitada), ser sinónimo de conocimiento complejo, o sea, no puede ser considerada como una "nueva modulación de conocimiento". La red digital de comunicación y de información computada, no pasa de ser una mera invención potente de reducción de complejidad (12).

Así, la red digital de información y comunicación, al dar cuenta de modo extremadamente preciso de esta reducción de la complejidad de la realidad vital, posibilita y facilita que la producción del conocimiento en la sociedad contemporánea pueda ahora ocupar efectivamente, en la historia de nuestra civilización, un nuevo lugar en su modo de producción social.

Cuando, sin embargo, hablamos de información como combustible para la sociedad del conocimiento no estamos tratando de la información periodística o de la procesal, contaminada de sentido. Mientras tanto, ¿qué tipo de conocimiento puede ser derivado de esa infraestructura reflexiva de información y comunicación? Cierta vez un filósofo llamado Gregory Bateson afirmó que información no es dato; definió información como la menor "diferencia que hace la diferencia" (13). Preguntaríamos entonces: ¿dónde residiría la diferencia que hace la diferencia en un juego de ajedrez entre una máquina computacional y un genio humano? Si nuestra máquina que posibilita que juguemos con ella un juego donde todos los pasos posibles pueden ser parametrizados en simulación anticipada, ciertamente, la producción de una información diferente que haga la diferencia y nos permita alcanzar el conocimiento complejo solo se hará efectiva, si no se puede encontrar dentro de los patrones e instrucciones parametrizables. Es exactamente aquí donde empezamos a distinguir información y conocimiento.

Se habla mucho, hoy día, de sociedad de la información y del conocimiento, pero es raro encontrar junto a los enunciados sobre información una explicación acerca de lo que se está entendiendo por información y por conocimiento. Se trata de un entendimiento no muy diferente de aquél del célebre maestro de Balliol de quien se decía: "aquello que él no sabe no es saber". Podríamos adaptarla diciendo: aquello que no se dice ya está dicho (14).

Sin embargo, en toda parte, en las ciencias como en los mass media, estamos y vivimos ahogados en informaciones y eso no significa que estemos bañados en conocimiento o por él. La gigantesca proliferación de informaciones escapa al control humano. De allí el sentido de la segunda cuestión de Eliot: "¿Dónde está la sabiduría que perdimos en el conocimiento?"

La idea de sabiduría proviene de sabor, del sabor placentero de degustar un apetitoso menú de conocimiento. La búsqueda de la sabiduría está envuelta en un plasma del placer, de insight, de la curiosidad del conocer y en el conocer y nos impone desafíos para una pedagogía no centrada en la disciplina, no colonizada por el control de un orden de procedimientos e instrumental.

Es importante destacar que, para que hablemos de sociedad del conocimiento, tenemos que tener más claridad precisamente sobre su combustible principal, su energía más significativa que es la información y sus nuevas estructuras de comunicación reflexivas. Se destaca que esa información, transformada en energía informática, está generando, cada vez más, un profundo impacto en las modernas sociedades industriales y obteniendo el conocimiento de un lugar sólido de cumplir apenas un papel suplementario en la producción social y para su modulación material. El conocimiento ahora pasa a ocupar, cada vez más, un lugar nuevo y central en el modo de producir de nuestras sociedades contemporáneas.

Ante eso, sin embargo, deducir que esa potencialización de la acción reflexiva, tanto en el aprendizaje de la investigación como en el del conocimiento complejo, bajo el control de soporte digital y condicionados a un determinismo de la tecnología de la información y comunicación, puede llegar a reducir el conocimiento a sus propios procesos informáticos y, transformar, equivocadamente, medios informáticos y soportes de comunicación, cual si ellos mismos fuesen los nuevos sujetos del propio proceso de comunicación y de la producción del conocimiento, esto es, envolver en una magia juvenil que alimenta y difunde una vieja perspectiva de cuño "neopositivista", ya presente en Luhmann (15), que restringe la construcción de la comunicación y del conocimiento a las funciones del método de encapsulamiento de sus contenidos y de sus interacciones sistémicas, o sea, condiciona los procedimientos de investigar y conocer a los procedimientos lógico-formales de la computación abstracta.

De un modo diferenciado e implícito, esa tensión entre información, conocimiento y sistema se encuentra presente en el sociólogo contemporáneo Manuel Castells que, en su reciente trilogía, nos brinda con un inmenso catálogo de datos y fenómenos contemporáneos, sobre la emergencia en el mundo de las tecnologías de información en las diferentes sociedades del planeta. Es importante resaltar que Castells, al contrario de la literatura tecnicista de la información, enfoca su abordaje en una perspectiva macrosocial e ignora el determinismo tecnológico primario de los neopositivistas. Así, Castells advierte que la morfología de la red también es una fuente de drástica reorganización de las relaciones de poder. Sin embargo, ese autor se volvió uno de los mayores responsables por la divulgación de esta metáfora de la sociedad en red. No podemos olvidar que, sociológicamente, la metáfora de la red es apenas una metáfora.

En este sentido, es importante tener claro y entender, en la aplicación de esta metáfora reductora de complejidad (reductor/red), la distinción y la tensión con la complejidad y su representación de modo adecuado, o sea, la problemática de la complejidad de la realidad vital, cuyo reductor creado pretende explicar y no sustituir cual si fuese el reductor de la propia realidad. Castells (16) tiene conciencia de esa dificultad y se encuentra preso en un dualismo sistémico inicial: "Nuestras sociedades están cada vez más estructuradas en una oposición bipolar entre Red y Ser" (Castells 1999:23). Todo indica que Castells cree que ese dualismo, será resuelto en un porvenir próximo a favor del polo sistémico informático, pues la revolución tecnológica en marcha está concentrada en el polo dinámico de las tecnologías de la información y está remodelando la base material de la sociedad a ritmo acelerado.

Es importante tener claro también que, para Castells, el ser/red significa estar integrados a estructuras abiertas capaces de expandir las viejas estructuras de forma ilimitada, ligando nuevas modalidades de comunicación interactiva por medio de nódulos de información de comunicación abierta (desde que, para eso, compartamos los mismos códigos). La sociedad se vuelve, para Castells, una estructura social con base en redes, un sistema abierto altamente dinámico, susceptible de innovación sin amenazas a su equilibrio. Redes son instrumentos apropiados para la economía capitalista basada en la innovación, globalización, concentración y desconcentración, y, también, descentralización.

Lo que puede ser problemático en esa visión de Castells es el hecho que sea cual sea el sistema en red, digital o no, ofrece orientaciones comportamentales que pueden facilitar, dificultar o condicionar la reducción de la complejidad al punto de exonerar el actor de la obligación de hacer otras escogencias (múltiples escogencias) y, sobre todo, de optar por caminos indeterminados entre las múltiples alternativas posibles e imprevistas dentro de un determinado reductor de complejidad. Esto sólo ocurre, porque un reductor es una expresión de la propia "complejidad vital"; una complejidad bañada de expansión y dimensiones infinitamente incomputables que no permiten, ni a través de su imitación mimética más perfecta, ser vitalmente sustituida, pues es, y será, una representación finita más o menos expandida, pero no será la propia realidad.

Así, Castells olvida muchas veces en su obra lo que él mismo defiende con relación al conocimiento complejo, o sea, que el primer paso para que la sociología de cuenta de los cambios contemporáneos sería romper con la génesis moldeadora de una identidad industrial y tomar en serio la tecnología. Es claro que, como él lo afirma: "La tecnología no determina la sociedad... dado que la tecnología es la sociedad" (Castells 1999:25). Así, el dilema del determinismo tecnológico es infundado, pues "la sociedad no puede ser entendida o representada sin sus herramientas tecnológicas" (Idem).

Sin embargo, Castells concluye enfáticamente que estamos entrando en un nuevo estadio en el que la Cultura se refiere a una Cultura que está suplantando a la Naturaleza, al punto de la Naturaleza poder ser renovada ("preservada") artificialmente como una forma cultural. En razón de la convergencia de la evolución histórica y de la transformación tecnológica, Castells afirma que estamos entrando en un modelo genuinamente cultural de interacción y organización social. Por esto, al contrario de lo que defendemos en este artículo, pero en la misma dirección, Castells afirma que la información representa el principal ingrediente de nuestra organización social; los flujos de mensajes e imágenes entre las redes constituyen el encadenamiento básico de nuestra estructura social. Para el autor es el inicio de una nueva existencia y, sin duda, el comienzo de una nueva era, la era de la información, marcada por la autonomía de la cultura vis-à-vis las bases materiales de nuestra existencia (Castells 1999:505-506).

Un viejo combatiente del neopositivismo y del pensamiento sistémico alemán, Jürgen Habermas, resaltó dos problemas vinculados a esas interpretaciones de la realidad: "la dificultad de necesitar y distinguir la realidad de su representación, por un lado, y, por otro, la dificultad de captar las funciones que aseguren la permanencia del reductor o sistema cuando éste no puede representar la complejidad o cuando la complejidad vital se desarrolla justamente en sentido contrario del reductor aumentando aún más su propia complejidad"(17).

La visión simplista de que la realidad pasa a ser entendida cómo tránsito probabilístico de los procesos de informar y conocer (implícita o explícitamente) una solución típica del abordaje sistémico digital olvida que las relaciones y expresiones sociales no se restringen a los reductores de frecuencias, o a expresiones parametrizables del condicionamiento factual de las acciones con grado muy restringido de libertad. Esto sólo puede ser posible con la no distinción mecánica entre la realidad y su representación, resuelta por la superposición inherente del propio sistema. Es por eso por lo que el concepto de sistema casi siempre engendró efecto conservador.

Para superar ese dilema del dualismo realidad orgánica y realidad inorgánica, que incluye la cultura y todo el aparato reductor de representación de la complejidad vital, y para explicar de modo más complejo la interacción entre vida humana y el desciframiento de la sintetización digital de la realidad en redes digitales computables, creemos que debemos seguir otro camino que pensamos sea más promisorio: el abordaje de Lynn Margulis. Según su teoría, creada originalmente para la genética molecular en el ámbito de la perspectiva evolucionista de los seres vivos, hubo un estadio en la evolución de la vida en la que había por lo menos dos códigos genéticos diferentes en una misma complejidad organizada, pero que por mutualismo simbiótico (llamado simbiosis) se crearon nuevas formas de vida mediante arreglos simbióticos permanentes que explican el camino de la evolución para todos los organismos superiores, como forma de un organismo adquirir nuevas funciones.

Margulis también dio un paso avante y propuso la hipótesis de que simbiosis de larga duración, que comprende bacterias y otros microorganismos que viven dentro de células mayores, condujeron, y continúan conduciendo, a nuevas formas de vida. La teoría de la simbiogénesis implica una mudanza radical de percepción en el pensamiento evolutivo. Mientras la teoría convencional concibe el desdoblamiento de la vida como un proceso en el cual las especies apenas divergen unas de la otras, Lynn Margulis alega que la formación de nuevas entidades compuestas por medio de la simbiosis de organismos, antes considerados independientes, ha sido la más poderosa y más importante de las fuerzas de la evolución.

De ese modo, a través de sus estudios la autora encontró un abordaje nuevo con implicaciones profundas para todos los ramos de la ciencia de la vida: la simbiogénesis (18).

Percibimos entonces, que simbiosis, simbiótica y simbiogénesis son, para nosotros, conceptos fundamentales para entender el impacto de las viejas relaciones sociales polarizadas por realidades físicas delimitadas por las creencias, ideas e instituciones creadas por individuos encadenados a sus propios cuerpos. Pensamos, así, explicar y comprender más precisamente la interacción de las informaciones y de la estructura reflexiva de comunicación inmaterial de las redes digitales como mediaciones simbióticas que expresan la emergente complejidad entre las relaciones del mundo orgánico y el inorgánico de modo cada vez más intenso. De ese mismo modo, podemos ampliar la perspectiva de la simbiosis que tiene por base más dinámica la cooperación, para un entendimiento compartido, también simbiótico, entre el córtex orgánico y máquinas cognitivas que generando una amplificación de las resonancias sensoriales y cognitivas. Esta simbiosis, sin embargo, no implica sólo cooperaciones, sino también conflictos, dominación, precariedad reflexiva y exclusión social. En este sentido la sociología tiene un papel urgente y fundamental a desempeñar, el de descifrar la esfinge informática.

4) Consideraciones Finales. Descifrar la Nueva Esfinge: una tarea sociológica para ayer

Como dijimos, vivimos una experiencia singular; un estremecimiento histórico de la vida humana sobre el planeta que es la victoria y el dominio de los nómadas ante la dominación milenaria de los sedentarios de la tierra.

La nueva esfinge emerge de la aceleración tecnológica y su faz más manifiesta contiene un amplio menú de conquistas científicas sin precedentes que va desde nuevos e innumerables procesos de pensar, producir y administrar el conocimiento, de la creación de nuevos artefactos, desde ingeniosas invenciones con maquinas, hasta la fantástica manipulación de la vida como información: el infogen.

Es una aceleración que ocurre, sobretodo, después la segunda gran guerra. Se esgrimen triunfos e invenciones desechables como estatuillas de rápidas celebraciones envueltas en un dinámico giro de creación y destrucción a una velocidad jamás experimentada por el saber hacer humano.

Mientras tanto, aquí en América Latina, la sociología, después de mucho dinamismo, en las décadas de 60 y 70, vive una crisis integrada en su incapacidad de explicar una sociedad cada vez más compleja, distante de sus orígenes y tradiciones teóricas clásicas. Sin embargo, la causa principal de esa crisis, que no es externa, sino interna, reside en el estancamiento y la pérdida de iniciativa de la propia sociología en las últimas décadas. Conservó y aumentó su reduccionismo y moralismo de origen, con todo limpiándolos progresivamente de los contenidos irreverentes y transgresores que la acompañaban también en el origen, perdiendo, así, gran parte de su capacidad crítica que tan bien la identificaba. Me parece que esto explica mejor la atracción que ella ejercía sobre la juventud de los 60, 70 y 80, y su falta de vocación crítica de hoy (19).

También la filosofía padece la misma impotencia reflexiva sobre en el presente. El filósofo Peter Sloterdijk, que tiene un programa talk show en la TV alemana, critica la aceleración tecnológica diciendo que la fórmula 1 es el ejemplo más bien acabado de la "velocidad vacía" de la cultura occidental (20).

Pensamos que a primera vista, pero sólo a primera vista, Sloterdijk tiene razón. La esfinge aceleradora de la lenta evolución biológica y cognitiva de la modernidad simple e industrial es en realidad vacía. Sin embargo, descifrándola más detenidamente, podemos percibir claramente que su velocidad y su potente empuje arrasador tienen una energía muy precisa: la información. Se trata de una nueva esfinge, una esfinge informática.

La esfinge de la información, como ya vimos, por donde pasa lo arroja todo al suelo: instituciones, procesos normativos, tradiciones, interacciones presenciales, controles disciplinarios, hermenéuticas de profundidad, etc. Lo paradójico es que la esfinge informática encarnó el espíritu revolucionario de los opositores más radicales del capitalismo. Trotksy, por ejemplo, en plena revolución rusa exclamó que la única manera del comunismo vencer el capitalismo era mediante un proceso de revolución permanente. Según él, la estagnación y la paralización del espíritu revolucionario llevaría a Rusia a los países comunistas nuevamente a estar bajo el manto de un capitalismo social de estado y burocratizado. La única manera de los revolucionarios vencer esa tendencia conservadora y dominadora del poder era adoptar la idea de la revolución permanente.

Uno de los mayores secretos de la esfinge informática fue el de transformar, en un rápido y corto período histórico, lo que era apenas un autostop para tráfico de datos a la velocidad de la luz, en la transmutación de una nueva energía, o sea, transmutar energía electromagnética, de la cual, por la manipulación de datos e informaciones brutas, se buscaba, originalmente, apenas un transporte por autostop, en la composición y recodificación de una nueva simbiosis energética, en suma en la creación de una nueva energía: la información digital. Así, la información a través de flujos veloces, se transformó simbióticamente en una energía nueva e invisible.

La información se transmutó en una nueva esfinge que se mueve a la velocidad de la luz, mediante dinámicos movimientos de múltiples flujos desterritorializados, amplificando nuestro córtex y transformándonos a casi todos nosotros en nómadas – puesto que nunca estamos en un mismo lugar, pudiendo, incluso, hacer que estemos simultáneamente en múltiples lugares, aunque sólo estemos en un lugar.

Una paradoja de la esfinge informática, esfinge ésta ahora comprendida como entidad simbólica de elevada complejidad, movida a alta velocidad por un combustible de energía informática, no permitió que fuesen los revolucionarios de la oposición sistemática al capitalismo quienes realizasen la profecía de Trotsky, pero, sí, la propia nueva esfinge.

La fantástica fuerza creadora y destructora, pásmense, es la propia realización como revolución permanente. Así, el abastecimiento energético más relevante para la conquista y el prolongamiento del enorme poder de la esfinge informática es la revolución permanente – por donde pasa destruye incluso lo que fue construido ayer por medio de ella.

Además de la licuación de las disciplinas normativas de control y de las sólidas instituciones, la esfinge (metáfora) está imbuida de una auto-revolución propia. Uno de los heraldos de la era digital naciente, el productor de chips Andy Grove, presidente de la Intel y otro conocido líder de esa información naciente, el director de la Biblioteca del Congreso de EEUU, James Billington, tomaron la decisión — razonable en principio — de digitalizar la mayor biblioteca del mundo, de modo que su acervo si volviese accesible a todo el mundo, en toda parte, para siempre. Sin embargo, una sombra nubló esa visión, la fragilidad a largo plazo que es constitutiva de los mass media digital.

Eternidad y duración de largo ahora no son el fuerte de los mass media digital, pues ella apenas aparentemente tiene algunas características asociadas a la inmortalidad. Por ejemplo, muchas personas se quedaron sorprendidas e incómodas con la reaparición en perfecto estado de conservación de e-mails o comentarios en chats en el Internet escritos superficialmente y olvidados, hacía años, por sus pioneros creadores. Sin embargo, esas mismas personas se quedaron aún más sorprendidas cuando descubrieron, posteriormente, que no podrían más accesar nuevamente esos mismos archivos ni aún los registros computadorizados de transacciones financieras realizados apenas hace diez años.

Poco a poco, nos vamos dando cuenta de que aquello que fue tan cuidadosamente almacenado estaba grabado en un aplicativo ahora obsoleto, en un sistema operacional ya obsoleto, en una computadora que hace mucho tiempo salió de línea, utilizando un método de archivo anticuado. Si usted escribe algo esta semana en Word, en el programa Windows de una versión cualquiera, o en cualquiera computadora personal, ¿cuáles son las posibilidades de que alguien consiga leer sus palabras en el año 2010? La misma duda se agita sobre los sistemas de computadoras de grande porte y las microcomputadoras que procesan los dígitos que gobiernan y registran nuestro mundo. Jaron Lanier, inventor de las tecnologías de inmersión bautizadas de realidad virtual, relató:

"El año pasado, un museo me pidió mostrar un videogame de arte (Moondust), creado por mí en 1982. Rodaba en un Commodore 64, una computadora que había sido vendida por millones en la época del lanzamiento del juego. Sólo que fue introducida una pequeña modificación de hardware en la computadora (en 1983) poco después de que mi juego fue lanzado. El cambio hacía que el sonido no funcionase. Tuve entonces que buscar un Commodore 64 hecho en 1982. Pero descubrí que todo el joysticks que pude encontrar sólo funcionaba con la versión posterior. En cierto punto finalmente conseguí la combinación apropiada del trío computadora, joystick y cartucho. Pero descubrí que no tenía una interfase de video que funcionase. ¡Todo ese trabajo para hacer funcionar una máquina cuyo sistema de operación era en ROM y en la época había millones de unidades disponibles!" (21).

Después de meses de tentativas, Lanier desistió. Corregir la discontinuidad digital parece exactamente un tipo de problema imposible de solucionarse por la tecnología veloz de las computadoras, pero eso es imposible porque la tecnología veloz de las computadoras es, en sí, alimentada por la auto revolución que construye y destruye. Acelerando progresivamente su capacidad (al producir recursos y herramientas más rápidas, baratas y más recursivas que hacen otras herramientas aún más rápidas, baratas y más recursivas), la tecnología, al mismo tiempo, crea e innova en la misma medida en la que torna a sí misma obsoleta. El gran creador es el gran destructor. Se trata en verdad del principio básico de la idea de revolución permanente de Trotsky.

Cada nuevo producto computacional lanzado deja en su rastro una serie de cadáveres — computadoras extintas, técnicas de almacenamiento extintas, aplicativos extintos, archivos extintos. El escritor de ficción científica Bruce Sterling se refiere a nuestra época como "la era áurea de los mass media muerta" (Idem). Se crea hoy el cadáver del mañana. Imaginemos esto ante los riesgos y la dependencia cada vez mayor de la propia economía mundial que se volvió digital (22).

Danny Hillis observa que las épocas pasadas nos dejaron informaciones en estado bruto grabadas en arcilla, piedra, pergamino y papel, pero de la década de 1950 hasta el presente las informaciones registradas vienen desapareciendo progresivamente en un abismo digital. Los historiadores considerarán esta época una era sombría. Hillis, por ejemplo, recuerda que cuando, finalmente, el viejo PDP-10 [pionero de las microcomputadoras en el Laboratorio de Inteligencia Artificial en el MIT] fue desactivado, no había donde guardar los archivos a no ser en cintas magnéticas que hoy son ilegibles. Perdimos, entonces, el primer editor de texto, los primeros programas numéricos de información digital y los debidos registros hechos por los pioneros científicos (Brand 2000:80). Los historiadores de la ciencia pueden leer la correspondencia técnica de Galileo, de 1590, pero no pueden, por ejemplo, leer la de Marvin Minsky, de la década de 1960.

No sólo ciertos formatos de archivo quedan rápidamente obsoletos, sino que los propios medios físicos tienen vida corta. Medios magnéticos, como disquetes y cintas, pierden su integridad en cinco o diez años. Medios ópticos como CD-Roms, si son usadas, duran de cinco a quince años antes de degradarse. Los archivos digitales no envejecen gradualmente como las cintas analógicas de audio, sin embargo, cuando se dañan, paran completamente. No podemos abrirlos; tienen un décimo de la vida útil — legibilidad — del papel de periódico.

Además del desvanecimiento de los formatos de información y medios digitales de archivo, hay un problema aún más profundo. Grandes sistemas de computadoras son el corazón de empresas importantes, instituciones públicas y sectores enteros de la economía: mercados financieros, servicios públicos, telecomunicaciones, viajes y distribución, servicio médico y gobierno. Con el tiempo, esos sistemas gigantescos se vuelven asustadoramente complejos y difíciles de ser conocidos, a medida que nuevas características son añadidas, viejos problemas son esquivados con capas de remiendos sobrepuestas, generaciones de programadores agregan nuevas herramientas y estilos y partes de los programas son reorientados para cumplir nuevos procedimientos.

El total de información existente en el mundo — contando cada tarjeta postal, llamada telefónica, link de la Web y comerciales de TV — es estimado por Lesk en algo en torno a 12 mil petabytes: 120 mil millones de Zip disks, 4.000 veces la cantidad archivada en la Biblioteca del Congreso Norteamericano (Brand 2000:83).

En 1998, fue sobrepasado un marco importante — sin embargo no anunciado: la capacidad digital disponible para almacenar informaciones sobrepasaba el total de informaciones existentes en el mundo. Tenemos ahora más espacio para guardar cosas que cosas para guardar. En otras palabras, concluye Lesk, "tenemos capacidad para archivar todo — ninguna información tendrá que ser descartada— y la mayor parte de ellas jamás será contemplada por un ser humano" (Ib, id).

Tamaño diluvio de informaciones, que se acelera cada mes, crea con certeza nuevos problemas. Los vastos archivos de la Nasa con imágenes de la Tierra captadas por satélite en las décadas de 1960-70 — material precioso para los científicos que estudian cambios a lo largo del tiempo — están ahora guardados en cintas magnéticas obsoletas e ilegibles. ¿Será qué — mientras los satélites siguen imparablemente suministrando nuevos datos — los organismos gubernamentales aún de países altamente desarrollados y sus órganos como la Nasa encontrarán el dinero y el tiempo necesarios para transponer todas esas informaciones para un soporte actual antes de que empiecen a perder su calidad y se degraden? Muchos tienen dudas a este respecto. El físico Neil Gershenfeld, del Media Lab del MIT, teme que cuidar de los bits que continúan llegando nos impida manejar de manera correcta los viejos bits. El "costo" para mantenernos actualizados en tecnología es la pérdida de la memoria cultural.

Semanas después de que Jaron Lanier desistió de "resucitar" su videogame pionero, Moondust, recibió un e-mail de alguien llamado Walter, que le dijo: "El tiempo hoy desapareció. Suaves remolinos coloridos danzaron holgazanamente en el monitor de mi Power MAC como un equipo de nado sincronizado, al son de una música que tenía un qué de extraterrestre. Una vez más, 15 años después, algunas eras tecnológicas después, Moondust surgió nuevamente delante de mis ojos y oídos maravillados... Tardé tres horas haciendo un trabajo de detective en el Internet para encontrarlo. Hay una cantidad increíble de tiempo y energía gastados en "tecnonostalgia". Emuladores – emuladores de Atari 2600, emuladores de Intellivision y hasta emuladores de Vic-20... No sólo encontré Moondust, sino también la documentación del Moondust" (Ib: 87).

Lo importante aquí es registrar que el espíritu innovador, permanentemente imbuido del espíritu revolucionario, como dijimos, es asumido por la propia esfinge informática, por el propio sistema de dominación y no por la oposición a él. Lo más paradójico de todo eso es que quien se opone a la esfinge informática, se pone del lado de la desaceleración, de la conservación, de la lentitud, de lo sólido, de la disciplina, de la recuperación nostálgica del pasado y de la plena afirmación duradera de la conservación del presente. Vemos cada vez más el presente transformándose en ruinas y devastado por la realización de algún encuentro marcado por el paso enfurecido de la esfinge informática.

En fin, el problema de la aceleración de la alta tecnología es que su velocidad avasalladora suele atropellar, precarizar, excluir, y lo que es muy importante también, desconsiderar todo cuanto pueda estar relacionado a lo largo plazo, a lo largo ahora.

Los revolucionarios emprendedores digitales necesitan cambiar su foco y su posición dominante en el mundo de la producción del conocimiento. El mundo carece de nuevas dinámicas sociales, que no se fundan sólo en períodos cada vez más cortos de atención, fijados por la ceguera de la aceleración y del determinismo tecnológico. Necesitamos de nuevos guardianes confiables para una vida social de largo plazo y es aquí donde, para mí, reside el potencial emergente del renacimiento de una nueva sociología reflexiva, envuelta, por dentro, en el potencial de las metodologías informáticas. Una sociología que sea una nueva agencia reflexiva de complejidad y del saber complejo; una sociología que sea capaz de reflexionar, sin querer volver al Siglo XIX y que enfrente el mundo del conocimiento en una perspectiva de un largo ahora.

Notas

1) El concepto de competencia aquí utilizado está presente en el abordaje de Edgar Morin, principalmente en su libro El Método III. Portugal: Europa-América, más precisamente en las páginas 15 y 26. Se trata de las aptitud(es) diversas (reflexivas y/o metodológicas) que todo y cualquier conocimiento necesita para autoproducirse como conocimiento científico. La múltiple competencia sociológica, aquí mencionada, debe implicar ciertamente una competencia más vasta que la de su epistemología clásica (mono competencia).

2) La primera vez que tuve conocimiento de una defensa escrita y publicada de una sociología reflexiva, puesta hoy tan en boga por sociólogos como: Zygmunt Bauman, Ulrich Beck, Scott Lasch y Anthony Giddens, fue en un libro de Alvin W. Goudner, de Missouri, titulado: La Crisis de la Sociología Occidental. Ese libro fue traducido y publicado en Buenos Aires, Argentina, en 1970 por Amorrortu.

3) Pagus, latino, viene de la idea de campo; el campo donde pisa el campesino. Así, doblamos la escritura de textos en hojas finas de papel delimitadas vertical y horizontalmente, organizándola en forma lineal (en líneas) y escribiendo en ellas, en secuencia jerárquica, tal como lo conocemos actualmente. Para esa universalización de la lectura fue preciso inventar un aparato artificial de lectura, o sea, los espacios en blanco entre las palabras, inventar la puntuación, las divisiones de los textos en capítulos, los índices, las notas de pie de página, etc., hasta que llegamos a las revistas, a los libros, a las enciclopedias y después creamos los locales específicos de almacenamiento del conocimiento físico producido, que, hasta hoy, denominamos bibliotecas y a la creación de una compleja organización material responsable de la transmisión, producción y actualización del conocimiento escrito en átomos, o sea, las escuelas y las múltiples instituciones de saber moderno.

4) En los monasterios de la Edad Media, por ejemplo, los maestros eran la autoridad responsable de la transmisión de la cultura civilizadora. El acceso a los pergaminos, transcritos manualmente, se reservaba exclusivamente a los maestros, que por su autoridad, eran ungidos como informadores y socializadores del stock de conocimiento civilizador acumulado. Como autoridades que eran, les correspondía revelar la verdad. El acceso a los manuscritos se facilitó con la invención de la impresión automática. También los estudiantes llegaron mucho más fácilmente a tener acceso al stock de conocimiento producido por la humanidad y a coparticipar en su producción y almacenamiento. Ese stock fue transferido paulatinamente a libros y enciclopedias. El canadiense McLuhan afirmó que después de la impresión movible difundida por Gutemberg, el mundo del saber no fue nunca más el mismo, ver libro "La Galaxia de Gutenberg", Madrid, Aguilar, 1972.

5) En 1794, el Ingeniero francés Claude Chappe (1763 -1805) destronó el mensajero a caballo. El sistema de Chappe, compuesto de brazos móviles, montados sobre torres (había 116 de ellas entre París y Toulon), era adecuado para órdenes breves. Cuando hacía buen tiempo, una señal iba desde Paris y Toulon en veinte minutos. El mensajero a caballo era más lento que el sistema de Chappe, pero, en compensación, podía cargar una cantidad mucho mayor de mensajes. Posteriormente, con el desarrollo de la electricidad, fue posible una comunicación a distancia, incluso transoceánica, casi instantánea.

6) Boole, George. Les Lois de la Pensée. Paris: Librairie Philosophique, 1992. P. 69.

7) Relativo al mito griego de Sísifo.

8) Brenton, Philippe. A História da Informática. São Paulo: Unesp, 1991. p.59.

9) Aquí es importante registrar que los medios tradicionales de comunicación sensoriales y analógicos tuvieron un impacto significativo en la expresión y modulación de la expresión (manifestación) pública en casi todas las áreas de nuestras sociedades en el siglo XX (política, educación, cultura...). Como uno de los más importantes medios de "asepsia" mediática de las relaciones cara a cara, la televisión transformó multitudes en telespectadores de un mundo reflejado por tubos catódicos. Esto implicó una nueva expresión de la visibilidad pública, construyó una generación de lectores de imágenes (generación de la imagen) y destronó los vínculos de contextualizaciones valorativas de las ideologías y de las hermenéuticas de profundidad en pro de la intimidad mediada, de escándalos privados, traducidos cada vez más como dramas públicos o exposiciones públicas de la intimidad, cuyo modelado en reality shows, difundido en decenas de países, es su expresión más contundente. No cabría aquí, por motivos obvios, desarrollar esta cuestión.

10) Johnson, Steve. Cultura de la Interface. Rio de Janeiro, Jorge Zahar Editor, 2001. p.22-23.

11) Beck, Ulrich; Giddens, Anthony; Lasch, Scott. Modernização reflexiva: política, tradição e estética na ordem moderna. São Paulo: UNESP, 1995, p. 140.

12) Como contrapunto de la perspectiva de la compresión (no comprensión) de la modalidad del conocimiento y de conocer, ver la sofisticada propuesta de Edgar Morin, principalmente en: Inteligência da Complexidade. São Paulo: Peirópolis, 2001.

13) Hillis, Daniel. O padrão gravado na pedra: as idéias simples que fazem os computadores funcionarem. Rio de Janeiro: Rocco, 2000, p.12.

14) Balliol es un de los muchos colegios que constituyen la Universidad de Oxford; fue fundado alrededor de 1268.

15) Luhmann, Niklas. A Nova Teoria dos Sistemas. In: Baeta, Clarissa Eckert; Samios, Eva Machado Barbosa (Orgs.). Porto Alegre. Ed. de la Universidad UFRGS/ Goethe Institut/ICBA, 1997, p.37-111.

16) Castells, Manuel. A sociedade em rede. São Paulo: Paz e Terra, 1999.

17) Ver a Habermas, Jürgen. Ver principalmente: 1) Técnica y Ciencia como ideología. Lisboa: 1968. 2) Conhecimento e interesse. Trad. Heck, José N. Rio de Janeiro: Guanabara, 1987. 367 p. Se trata de un texto de 1968, cuya visión de las mediaciones entre conocimiento e interés revisó más tarde. 3) O discurso filosófico da modernidade. São Paulo: Martins Fontes, 2000.

18) Margulis, Lynn. Ver: 1) Planeta Simbiótico: uma nova perspectiva da da evolução. Rio de Janeiro: Ed. Rocco, 2001. 2) O que é Vida? Rio de Janeiro: Zahar, 2002. 3) Microcosmos. Nova York : Summit, 1986.

19) Ver: Leis, Héctor Ricardo. A Tristeza de ser sociólogo no Século XXI. Revista Dados vol.43 no.4. Rio de Janeiro 2000.

20) Pondré, Luiz Felipe. Especial para Folha de São Paulo. Caderno Mais. São Paulo, el domingo, el 03 de marzo de 2002.

21) Brand, Stwart. O Relógio do longo agora. Rio de Janeiro: Rocco, 2000, P. 78-79.

22) Sólo en la época del Internet, Sterling publicó una pequeña lista de los que ya sucumbieron en esa lucha que da una idea de la vulnerabilidad del artefacto computacional a largo plazo. Veamos: Altair, Amiga, Arnstrad, Apples 1, II y III, Apple Lisa, Apricot, Atari, AT&T, Commodore, CompuPro, Cromen-CO, Epson, Franklin, Grid, IBM PCjr, IBM XT, Kaypro, Morrow, Nec PC-8081, Northstar, Osbome, Sinclair, Tandy, Wang, Xerox Star, Yamaha CX5M. Enterrados con esas máquinas están varios sistemas operacionales, formatos de archivo y muchos aplicativos antidiluvianos en una variedad infinita de versiones mutuamente incompatibles. Todo lo escrito en ellos fue escrito en el viento, sin dejar huella ninguna. BRAND, 2000. P. 79.

Home | Indice | Números Completos | Instrucción para Autores
Cinta de Moebio
Revista de Epistemología de Ciencias Sociales
ISSN 0717-554X