martes, 7 de abril de 2009

La misión vida explicada a Rigoberto Lanz

Nota: Este artículo fue publicado en El Nacional, el sábado 12 de agosto de 2006, en respuesta a otro de Rigoberto Lanz en el que dicho autor maneja, en mi consideración, un marco histórico acerca del surgimiento de la ciencia totalmente falso.
________________________________________________
El pasado viernes 28 de julio, Rigoberto Lanz publicó en El Nacional un artículo intitulado “La Misión Ciencia explicada a los niños”. En ninguna parte del mismo es posible encontrar la explicación prometida por el autor en el título. Casi todo el artículo está más bien dedicado a denostar de “las ciencias conocidas” y de sus “mandarines”, con adjetivos que ocupan, prácticamente, dos de las tres columnas del mismo: “esta gafedad”, “el catálogo de necedades”, “rastrojos conceptuales”, “intelectuales anacrónicos”, “indigencia epistemológica”, “impunidad teórica” o “callosidad neuro-cognitiva”. Lo que si hace el señor Lanz, es asomar una caracterización del “modelo tradicional” de ciencia que él (ellos) “queremos desmontar”: 1.-“la ciencia es históricamente el saber dominante de La Modernidad”, 2.-“la racionalidad científica es constitutiva de la razón del capital” y 3.- “la lógica de la ciencia es la lógica del poder”.

Las dos primeras caracterizaciones nos permiten conocer la ubicación temporal que, de la ciencia, tiene el señor Lanz. La misma solo abarca los últimos 10 siglos, debido a que es en el siglo XI cuando comienza a aparecer la burguesía en y alrededor de fortalezas feudales amuralladas. De manera que la ciencia, si es un apéndice del episteme burgués como plantea el sr. Lanz, no podría tener más de 1000 años de existencia. Cualquier historiador sabe que esto es obviamente falso. La aparición de la filosofía y de la ciencia se da con la inauguración de una nueva actitud ante la producción del conocimiento que, entre otros, impulsó un pensador griego llamado Tales de Mileto (625-546 a.C.); y esto ocurrió hace casi 2600 años. Entre las hazañas de dicho pensador, quien es considerado el padre de la filosofía, está la de haber pronosticado un eclipse de sol. Pero Tales de Mileto llevo a cabo una hazaña aun mayor: promovió una actitud epistemológica revolucionaria para un momento en el que lo preponderante para explicar la realidad era la transmisión acrítica de los mitos. Dicha nueva actitud giraba en torno a la idea de que las hipótesis propias no había que defenderlas a ultranza sino criticarlas, abrir espacio para las observaciones de otros actores y tratar de derrumbarlas.

Esta es una actitud, ante el universo, contraria a la de las religiones y a la de, sus primo-hermanas, las ideologías. De esa actitud epistemológica fueron herederos, 25 siglos después, Albert Einstein, quien no protegió sus hipótesis sino que, por el contrario, dio indicaciones de cómo éstas podían ser falsadas, y el epistemólogo Karl Popper. De manera que la ciencia no es un órgano exclusivamente inherente al tiempo histórico de la burguesía. Su nacimiento es anterior al mismo y lo trasciende.
Pero voy a ir más allá con otro planteamiento: la ciencia hunde sus raíces en tiempos que están más allá del período civilizatorio. Cuando el homo Homo habilis fabricaba herramientas, hace cerca de 2 millones de años, se había sumergido ya en una actividad tecnológica, en una racionalidad instrumental, científica. Esa actividad de fabricación de herramientas lleva implícita procesos cerebrales mediante los cuales, el fabricante, se plantea un problema, hipotetiza una solución y predice un resultado. Es decir, ya hace dos millones de años, los ojos de nuestros antepasados estaban inundados de método y de teorías (¿Esto le dice algo amigo Lanz?). Luego, la visión de mil años es muy corta. Lo que nos pasa, en todo caso, se veía venir hace millones de años.

Por último me voy a referir a su tercera caracterización: “La lógica de la ciencia es la lógica del poder”. Concuerdo con Usted en que también en la ciencia funciona la lógica del poder. La misma funciona hasta en el amor de pareja (¿se acuerda de aquel libro llamado “Que hace el poder en tu cama”?). Cuando nuestros padres nos engendraron, salieron a la carrera 400 millones de espermatozoides. Sin ningún tipo de ética compitieron entre ellos y triunfó sólo uno; el mío, el de Usted y el de cada uno de los seres humanos que vive o ha vivido. La vida, desde el principio, esta impregnada por la búsqueda de supremacía, búsqueda de poder. Cierto, esto tiene consecuencias perversas; somos la primera especie que tiene conciencia de ello. Pero, como puede verse, “la lógica del poder” es un rasgo intrínseco de nuestros genes y no exclusivo de la actividad científica.

¿Es posible borrar “la lógica del poder” en las sociedades humanas? Confieso que en este punto, a veces, me embarga un pesimismo como aquél que se metió en el alma de Luís Buñuel al final de su vida. Pero cuando trabajo con los niños en la escuela rural, éste se desaparece y la risa y el optimismo toman su lugar. Entonces creo que es posible “rodear” la lógica del poder y ponerla a trabajar en función de la construcción de mundos mejores;…… pero esto implica mucha más creatividad que un listado de denuestos.


Ramón Francisco Reyes Echegaray / Maestro rural
email. ramonfrancisco3@hotmail.com

domingo, 20 de abril de 2008

¿Son confiables los coeficientes de confiabilidad?

Hay algo que no está del todo bien en muchos de los textos sobre metodología de la investigación, cuando catalogan un conjunto de métodos que supuestamente prueban la confiabilidad de los instrumentos de investigación social, bajo una denominación común: coeficientes de confiabilidad. Esta denominación común transmite información tácita sobre dichos métodos que, en realidad, es falsa. Para comenzar, estos métodos no miden “lo mismo”, por lo que no tendrían porque tener “una misma” denominación. Algunos de ellos miden el nivel de estabilidad de las respuestas (como el test – re test), otros miden la equivalencia de las respuestas (como las formas alternas) y, por último, están los que miden la coherencia interna.... también de las respuestas (tal es el caso de los métodos que trabajan con los datos recogidos en una sola aplicación como el alfa de Cronbach). Esta falta de unicidad, en cuanto a lo que realmente hacen estos métodos, puede llevar a situaciones paradójicas como aquella en la que un instrumento sea altamente confiable de acuerdo al coeficiente de "confiabilidad" test – re test, pero muy poco confiable de acuerdo al coeficiente de “confiabilidad” alfa de Cronbach. Hay algo en esta paradoja que no es confiable, .... y no es el instrumento de investigación evaluado.

Una segunda información falsa, tácitamente transmitida, es la de considerar que estos “diversos” métodos que miden cosas diferentes (sea lo que sea que midan), lo miden sobre nuestro instrumento de investigación. La verdad es que lo que ellos miden, lo miden sobre “las respuestas” dadas por las personas que conforman nuestra muestra y no directamente sobre el instrumento aplicado. Parece sutil la diferencia pero no lo es tanto. Cierto es que a partir de unas “respuestas” coherentes podemos suponer que dicha estabilidad es producida por un instrumento también coherente. Esto es verdad, pero lo es hasta cierto punto, porque la coherencia o incoherencia de las respuestas también está relacionada de manera importante con la homogeneidad o heterogeneidad de aquello acerca de lo que estamos preguntando o investigando, es decir, la homogeneidad o heterogeneidad de nuestro objeto de investigación. Si nuestro objeto de estudio es homogéneo, este factor de la ecuación aumenta la probabilidad de que las respuestas obtenidas sean coherentes y de que el coeficiente alfa sea mayor; pero si nuestro objeto de estudio es heterogéneo y más complejo, no necesariamente unas respuestas heterogéneas, que bajen un poco el coeficiente alfa, estén reflejando un problema con el instrumento sino que pueden estar hablando acerca de la mayor complejidad de la particular realidad que es foco de nuestra de atención.

¿Qué debemos hacer?, ¿sacrificamos la complejidad de nuestro objeto de estudio eliminando los items de nuestro instrumento que no concuerdan con las respuestas de los otros items, con el fin de subir unos puntos en un coeficiente de confiabilidad que mide homogeneidad de respuestas (consistencia interna) como el alfa de Cronbach, o preferimos no eludir la complejidad de lo que estudiamos aunque eso implique que nuestro instrumento no arroje un alfa mínimo de 0.80?. ¿En este caso, no será mas importante que hacerle justicia a la prueba, hacerle justicia al objeto de investigación?.

Pero hay aún mas en relación a esto de que los “coeficientes de confiabilidad” miden lo que miden acerca de respuestas y no directamente acerca del instrumento mediante el cual se obtienen esas respuestas. Al ser esto así, puede presentarse la situación siguiente: que el “Coeficiente de confiabilidad” (que muchos autores tratan sin mayores explicaciones y con una fe ciega en que el mismo refleja la confiabilidad del instrumento) salte bruscamente al introducir los datos de un nuevo caso o sujeto entrevistado. Por ejemplo: podemos haber tabulado los datos de 35 aplicaciones del instrumento determinado y estar obteniendo, hasta ese momento, un coeficiente de confiabilidad alfa de 0.71, y al introducir los datos de la aplicación número 36 el coeficiente de confiabilidad puede saltar, bruscamente, a 0.80. Con las respuestas de 35 sujetos, y de acuerdo con los autores, tenemos que nuestro instrumento no es suficientemente confiable, pero con las respuestas de tan sólo un sujeto más, nuestro instrumento pasa mágicamente a ser confiable. ¿Como "sabe" el instrumento, que a partir de las respuestas de una persona más debe cambiar de condición?.. ¿Cómo es que con la diferencia mínima de 1 caso, un instrumento pasa de no ser confiable a si serlo?

Por lo visto, hay algo que no parece ser confiable en los coeficientes de confiabilidad. O tal vez lo que no es confiable es la manera como ellos son tratados en la literatura. Para empezar planteamos que, a la hora de hablar de “Coeficientes de confiabilidad”, se debe discriminar a cada uno de los diferentes métodos utilizados indicando lo que realmente mide cada uno de ellos: coeficiente de coherencia interna de las respuestas (alfa), coeficiente de estabilidad de las respuestas (test – re test) y coeficiente de equivalencia de las respuestas (formas alternas). Por otra parte, debe indicarse que estos coeficientes, extraídos de las respuestas obtenidas, ciertamente dependen de alguna manera de la buena o mala hechura del instrumento que se busca evaluar, pero también dependen de muchas otras cosas como el número de casos, lo homogéneo – heterogéneo del objeto de investigación y hasta de la historia previa de los sujetos estudiados. De manera tal que, podemos concluir, los diferentes “Coeficientes de Confiabilidad” son herramientas relativas para evaluar instrumentos de investigación.

jueves, 24 de enero de 2008

Miseria epistemológica de Juan Barreto y Rigoberto Lanz

En 1846, el pensador socialista Pierre Joseph Proudhon publicó uno de sus escritos fundamentales: “La Filosofía de la miseria”. Karl Marx, quien criticaba fuertemente al autor francés por lo que consideraba su falta de rigurosidad científica, al año siguiente publicó una respuesta al libro de éste. Marx llamó a su propio libro “Miseria de la filosofía”. Como se verá más adelante, hemos encontrado graves fallas en la rigurosidad académica de la tesis doctoral de Juan Barreto. Es por este motivo por lo que, con el permiso de Marx, hemos parafraseado el título de su libro para darle nombre al presente artículo.

El año pasado el Alcalde Mayor de la ciudad de Caracas, publicó en forma de libro la tesis con la que obtuvo el Titulo de Doctor en la Universidad Central de Venezuela. Dicha tesis fue tutoreada por el Dr. Rigoberto Lanz y publicada bajo el nombre de “Crítica de la razón mediática. Ensayo sobre biopolítica y potencia política del cuerpo (Pre-textos para un debate sobre el socialismo)”.

No hemos revisado con exhaustividad toda la obra ni estamos en condición, en particular, de saber valorar la veracidad y pertinencia de todas sus referencias por cuanto no conocemos muchos de los autores citados; pero si lo estamos de llevar a cabo una especie de “biopsia” en un capitulo fundamental en el que el autor explaya lo que él denomina una “epistemología” (pag. 111), la cual utiliza para el desarrollo de sus planteamientos centrales, en particular el de “dispositivo información – comunicación”. Se trata del capítulo II de la “Primera Parte” del libro, cuyo título es el siguiente: “Un ejercicio sobre materia oscura y agujeros negros, virus y ADN”.

El concepto de “epistemología” (por cierto, término que es muy utilizado por el Dr. Rigoberto Lanz en sus escritos) deriva de las raíces griegas ἐπιστήμη (episteme, conocimiento) y λογία (logos, teoría, tratado, estudio, ciencia), de manera que tradicionalmente se ha asumido a la epistemología como el estudio del conocimiento. Desde este punto de vista, a la epistemología le ha sido pertinente responder preguntas como ¿Qué podemos conocer? o ¿cómo sabemos que lo que conocemos acerca de la realidad es verdadero? Sin embargo, contemporáneamente, la epistemología es conceptualizada, más bien, como el estudio acerca de la producción y de la lógica del conocimiento científico. De manera que si, actualmente, ponemos sobre una mesa diversas visiones epistemológicas, no estaremos haciendo otra cosa que explayando diversas teorizaciones o construcciones explicativas acerca de la justificación, validez y fundamentación del conocimiento científico.

Por ejemplo, el círculo de Viena, (grupo de científicos y filósofos que en los años 20 y 30 del siglo XX inaugura la práctica epistemológica profesional), asume una posición ante la producción del conocimiento científico conocida con el nombre de “Positivismo lógico”. Según dicha postura, habría que rechazar a la metafísica como fuente segura de conocimiento científico y cimentar el mismo mediante el uso de la lógica formal y la comprobación. Con el tiempo los positivistas lógicos han movido su visión hacia un, así denominado, “empirismo lógico”; no obstante la polémica epistemológica ha continuado y una de las preguntas fundamentales que no ha podido desaparecer del centro del ruedo es ¿Qué criterio puede servirnos para diferenciar el conocimiento científico de otros de diferente origen?.

Cuando abordamos el capítulo “Un ejercicio sobre materia oscura y agujeros negros ..” de la tesis del señor Barreto, dado que se nos anuncia, en la primera página del mismo, que se trata de la exposición de una “epistemología”, supusimos que el autor sustentaría su particular posición en relación a la producción del conocimiento científico (o, cuanto menos, del conocimiento en general), la cual le serviría de base para sus propuestas teóricas acerca del fundamental tema contemporáneo que aborda en su disertación, como lo es el de los masmedia y su relación con la economía política. Sin embargo, con lo que nos encontramos en las tan sólo 11 páginas del capítulo en cuestión, fue con un listado muy extenso de términos provenientes de la física, la astrofísica y la biofísica, cada uno de los cuales apenas se explica en seguidilla y brevemente pero sin que hayan sido hilvanados, a pesar de lo prometido por el autor, con sentido epistemológico alguno. En ninguna parte del citado capítulo aparece una propuesta teórica acerca de la fundamentación del conocimiento, ni general ni científico; no se encuentra allí ninguna reflexión epistemológica. Se tendría que presumir, muy seriamente, que el Dr. Barreto desconoce de que trata la epistemología.

Al revisar la apretujada lista de conceptos a la que estamos haciendo referencia, encontramos los siguientes: materia oscura, materia oscura o éter, materia oscura del éter, materia oscura del vacío, energía, masa, cosmos, tiempo, espacio, tejido flexible de cuatro dimensiones, materia, gravedad, curvaturas del tejido del espacio tiempo, super fluidez, mundos espejos, universos paralelos, radiación electromagnética de fondo, contracción o expansión del espacio tiempo, efecto inflacionario, cuerdas, supercuerdas, energía del vacío o energía oscura, constante cosmológica, inflatón, vacío, fuerza, acción, reacción, mar de radiaciones de microondas espesas, física de partículas, campo de fuerzas espeso, teoría inflacionaria o total del universo, microondas cósmicas, objetos extraños de partículas y de ondas, agujeros negros, Quazar, modelo estándar, microcosmos, campo de Higgs, partículas de vacío, campo de fuerza de nada, materia blanca, ecuaciones de la relatividad general especial (sig), mecánica cuántica, gravedad especial, cuásares, pulsares, rayos gamma, partículas de onda Z y W, destellos de estrellas de neutrones, campo fluctuante no simétrico, masas ligeras, masas pesadas, tiempo latente, campos diagramáticos de tensiones, lente gravitacional, supercuerdas branas y p-branas, antigravedad, fotones, bariones, radiación de fondo del cuerpo negro, rayos X, rayos X binarios, galaxias, “sobre gravedad”, ondas gravitacionales, inmunidad de las cepas bacterianas lisogénicas, partículas mágicas, plásmidos, ARN mensajero, células, síntesis de las proteínas, secuenciación del genoma, mutaciones, cadena de ADN, enzimas de restricción, cadenas mutantes, fluctuaciones estadísticas medibles, factor de la herencia, proteínas enzimáticas, fenómenos de variación de la herencia, radical químico, radiación, evolución, forma semicircular del cromosoma bacteriano, universo viral, modelo bioquímico de la vida, lógica de infección viral, conjunto estriado de campos de efectos de superficie…. En fin, una seguidilla alucinante de términos y conceptos que promedian 9 por página.

Si tomamos, por ejemplo, el único de esos términos que es definido por el señor Barreto en el “Glosario” de su libro, el de agujeros negros, encontraremos que la conceptualización del mismo comienza de la siguiente manera: “Son lugares con gravedad igual o superior a la velocidad de la luz …”. (¿?). No es necesario continuar leyendo, este comienzo es suficiente para quedar asombrados porque, de entrada, el concepto es totalmente falso. El señor Barreto ha igualado de manera asombrosa y en tan solo 13 palabras, los conceptos físicos de “gravedad” y “velocidad”. Cualquier estudiante de física de la UCV le hubiese explicado la diferencia entre ambos.

En medio del impresionante listado de conceptos, cuyas piezas, como hemos dicho, son muy vagamente explicadas y puestas una detrás de la otra, el autor afirma: “Estos hallazgos y los modelos analógicos que ellos sugieren, nos permiten construir un dispositivo teórico nuevo para acercarnos al estudio de las turbulencias no visibles y las densidades medibles de los campos o ambientes de opinión de la máquina información – comunicación que llamaremos eter simbólico, o gel mediático”. Sin detenernos en intentar desentrañar lo que quiso decir el señor Barreto en ese párrafo, de todos “estos hallazgos”, el que es central para el autor es el de “materia oscura”. Así lo señala apenas comienza el capítulo: “.., hemos escogido la polémica idea de la materia oscura o éter para explicar el fenómeno de funcionamiento de expansión del dispositivo información – comunicación y su contingente gravedad – antigravedad como lógica de la reproducción.” (el subrayado es nuestro).

Aparte de la relación teórica que propone el señor Barreto entre dos constructos tan dispares como la “materia oscura” y “el fenómeno de funcionamiento de expansión del dispositivo información – comunicación” (relación teórica de la que hablaremos más adelante), cuando indagamos que es lo que cree el señor Juan Barreto acerca de que es la materia oscura, encontramos lo siguiente en la página 112 del capítulo en referencia: “La atracción de los objetos que llamamos gravedad, es sólo materia que se desliza por sobre las curvaturas del tejido del espacio tiempo…. A la densidad ‘medible’ de dicho tejido algunos la denominan materia oscura”. Esta es toda la definición que da el señor Barreto acerca de la hipótesis cosmológica que ha “escogido” para “explicar” una propuesta central de su tesis doctoral, cuyo epicentro es un evento terrícola y social, “el fenómeno de funcionamiento de expansión del dispositivo información – comunicación”. Esa definición, aparte de ser extremadamente escueta para una “idea” central de una tesis doctoral, también es falsa.

La materia oscura no es la “densidad medible” del espacio tiempo. La “materia oscura” es el constructo central de una hipótesis (que, por cierto, compite con otras hipótesis), la cual intenta explicar el comportamiento de objetos celestes del que no se puede dar cuenta a partir de la materia observable. Por ejemplo, según las leyes de la mecánica newtoniana, la velocidad de una estrella a lo largo de su órbita dentro de una galaxia depende de la cantidad de masa que se encuentra dentro de dicha órbita. Pero se ha encontrado que la masa visible (o, como la denominan los científicos, masa luminosa) es mucho menor que la necesaria para explicar las velocidades observadas. A la discrepancia entre la masa gravitacional necesaria y la masa luminosa, se le intenta explicar mediante un constructo hipotético: la materia oscura. Dicho constructo hipotético, como bien ha dicho David B. Cline en Scientific American (The Search for Dark Matter, marzo 2003), es una “expresión de nuestra ignorancia” dado que es poco lo que se sabe acerca de ella. Por otra parte, la discrepancia referida puede muy bien terminar siendo explicada mediante una hipótesis alternativa, tal como acaba de indicar hace pocos días Stacy McGaugh en la revista Science (Seeing Through Dark Matter. 3 de agosto 2007): “La material oscura fue propuesta para explicar la dinámica de las galaxias. Una modificación de la ley de la fuerza gravitacional de Newton puede ofrecer una mejor explicación”. En todo caso, si la hipótesis de la “materia oscura” terminase sobreviviendo ante otras hipótesis, ella sería (como lo indica, señor Barreto, su propio nombre) un tipo de materia, no una “densidad”.

Ante estos niveles de falseamiento o impostura conceptual nos preguntamos: ¿Y el tutor de la tesis, Dr. Rigoberto Lanz, quien al principio del libro alaba a su tutoreado indicando que posee un “rigor epistemológico intransigente”, no revisó la tesis antes de conformarla?. Dada la enorme cantidad de conceptos físicos, astrofísicos y biofísicos que en ella se manejan, ¿no la sometió al escrutinio de expertos en dichas áreas?.

¿Si en su tesis doctoral, el señor Barreto da un trato tan intelectualmente irresponsable a conceptos físicos y astrofísicos que no admiten muchas ambigüedades, que podemos esperar para el trato hacia otras categorizaciones sociales mucho más polémicas, manejadas en el mismo texto?. La muestra del tejido de la tesis que hemos analizado, la “biopsia” que hemos realizado, nos indica que la situación puede ser muy grave en el resto de la tesis doctoral del señor Juan Barreto, la cual contó con el aval del Dr. Rigoberto Lanz.

Por último, nos referiremos a la relación teórica propuesta por el autor; aquello de que la “materia oscura” pueda “explicar el fenómeno de funcionamiento de expansión del dispositivo información – comunicación” presentado en un aislado planeta de La Vía Láctea. Consideramos que sería muy interesante (lo decimos en serio) que se encontrara sustentación para una tal hipótesis de origen metafísico (en el sentido de no ser de origen empírico). Es cierto que la metafísica, no pocas veces, puede ser buena fuente de hipótesis fructíferas; pero para encontrar dicha sustentación, señor Barreto, se necesitaría de más de 11 páginas y de una experticia epistemológica titánica que tendría que construir la relación teórica entre el fenómeno social terrestre referido y un constructo hipotético astrofísico como el de la materia oscura, acerca de cuya naturaleza no se sabe prácticamente nada. Pero para eso, señor Barreto, hay que comenzar por saber, cuanto menos, que quiere decir epistemología.