revista colombiana de filosofía de la ciencia

99
FILOSOFÍA DE LA CIENCIA Revista Colombiana de DEPARTAMENTO DE HUMANIDADES Volumen VIII Nos. 16 y 17 2007 ISSN : 0124-4620

Upload: universidad-el-bosque

Post on 22-Mar-2016

216 views

Category:

Documents


0 download

DESCRIPTION

Revista Colombiana de Filosofía de la Ciencia. 2007 » volumen VIII » números 16 y 17 » ISSN : 0124-4620

TRANSCRIPT

FILOSOFÍA DE LA CIENCIARevista Colombiana de

DEPARTAMENTO DE HUMANIDADESVolumen VIII Nos. 16 y 17 2007ISSN : 0124-4620

INDEXADA EN EL PHILOSOPHER'S INDEXY EN LA RED DE REVISTAS CIENTÍFICAS

DE AMÉRICA LATINA Y EL CARIBE, ESPAÑA Y PORTUGAL(RedALyC)

Volumen VIIINos. 16 y 17

2007

Revista Colombiana de Filosofía de la Ciencia

ISSN : 0124-4620

Correspondencia e información:Universidad El BosqueDepartamento de HumanidadesCarrera 7B Bis No. 132-11Tel.: (57) -1 - 2588148 / 2745731Correo electrónico: [email protected]

Canje:Biblioteca Universidad El Bosque

Suscripción anual:Colombia $20.000Latinoamérica US $ 20Otros países US $ 40

Tarifa Postal Reducida No. 2008-280 Servicios Postales Nacionales S.A.Vence 31 de diciembre de 2008

Se autoriza la reproducción sin ánimo de lucrode los materiales citando la fuente.

Impresión:Editora Guadalupe Ltda.Cra. 42 No. 10A-57E-mail: [email protected]: 2690532Bogotá, D.C. - Colombia

REVISTA COLOMBIANA DE FILOSOFÍA DE LA CIENCIAPublicación semestral

DIRECTORCarlos Eduardo Maldonado

Universidad El Bosque

EDITORAndrés Jiménez ÁngelUniversidad El Bosque

COORDINADOR EDITORIALNelson Chacón LesmesUniversidad El Bosque

COMITÉ EDITORIALLuis Humberto Hernández - Magíster en Filosofía

Universidad de AntioquiaJorge Antonio Mejía - Ph. D. en Filosofía

Universidad de AntioquiaVirgilio Niño - Ph. D. en Física

Universidad El BosqueJosé Luis Villaveces - Ph. D. en Ciencias

Universidad de Los AndesEugenio Andrade Pérez - Magíster en Genética Molecular

Universidad Nacional de ColombiaPhilippe Binder - Ph. D. en Física Aplicada

Universidad de Hawai

RECTORJaime Escobar Triana

COMITÉ ASESOR INTERNACIONALNicolas Rescher, Universidad de Pittsburg

Paulo Abrantes, Universidad de Río de JaneiroEduardo Flichmann, Universidad de Buenos Aires

Alfredo Marcos, Universidad de ValladolidIvelina Ivanova, Instituto de Investigación Filosófica de Sofía

Ciprian Valcan, Universidad Tibiscus de Timisoara

PRESIDENTE DEL CONSEJO DIRECTIVOCarlos Eduardo Rangel Galvis

Revista Colombiana de Filosofía de la Ciencia

ISSN : 0124-4620

Correspondencia e información:Universidad El BosqueDepartamento de HumanidadesCarrera 7B Bis No. 132-11Tel.: (57) -1 - 2588148 / 2745731Correo electrónico: [email protected]

Canje:Biblioteca Universidad El Bosque

Suscripción anual:Colombia $20.000Latinoamérica US $ 20Otros países US $ 40

Tarifa Postal Reducida No. 2008-280 Servicios Postales Nacionales S.A.Vence 31 de diciembre de 2008

Se autoriza la reproducción sin ánimo de lucrode los materiales citando la fuente.

Impresión:Editora Guadalupe Ltda.Cra. 42 No. 10A-57E-mail: [email protected]: 2690532Bogotá, D.C. - Colombia

REVISTA COLOMBIANA DE FILOSOFÍA DE LA CIENCIAPublicación semestral

DIRECTORCarlos Eduardo Maldonado

Universidad El Bosque

EDITORAndrés Jiménez ÁngelUniversidad El Bosque

COORDINADOR EDITORIALNelson Chacón LesmesUniversidad El Bosque

COMITÉ EDITORIALLuis Humberto Hernández - Magíster en Filosofía

Universidad de AntioquiaJorge Antonio Mejía - Ph. D. en Filosofía

Universidad de AntioquiaVirgilio Niño - Ph. D. en Física

Universidad El BosqueJosé Luis Villaveces - Ph. D. en Ciencias

Universidad de Los AndesEugenio Andrade Pérez - Magíster en Genética Molecular

Universidad Nacional de ColombiaPhilippe Binder - Ph. D. en Física Aplicada

Universidad de Hawai

RECTORJaime Escobar Triana

COMITÉ ASESOR INTERNACIONALNicolas Rescher, Universidad de Pittsburg

Paulo Abrantes, Universidad de Río de JaneiroEduardo Flichmann, Universidad de Buenos Aires

Alfredo Marcos, Universidad de ValladolidIvelina Ivanova, Instituto de Investigación Filosófica de Sofía

Ciprian Valcan, Universidad Tibiscus de Timisoara

PRESIDENTE DEL CONSEJO DIRECTIVOCarlos Eduardo Rangel Galvis

CONTENIDO

El problema de los indiscerniblesChristian Quintero

Globalization: through political networksHernán Maldonado - Laura Macía

Ilya Prigogine y la sutura de la brecha epistemológica entre las ciencias y las humanidades Roberto González

Las Comunidades de Paz como modelo de cooperaciónCarlos Escobar Uribe

Epistemología, progreso y diseñoZenobio Saldivia Maldonado

Valéry ou la conquête de la formeCiprian Valcan

Coagulación: sistema biológico complejoMónica Duarte

Buscando un nuevo lenguaje para la filosofía de la menteJavier Ardila Romero

7

21

37

49

61

71

83

97

El problema de los indiscernibles

Christian Quintero*

Resumen

Desde una perspectiva analítica, este artículo aborda diferentes intentos de probar o refutar el principio de identidad de los indiscernibles (PII), basados en la apelación a los experimentos mentales. El texto empieza con un examen de las condiciones de validez de dicho principio, para luego entrar a estudiar las propuestas de Black, O'Connor, Hacking, Godwin y Wittgenstein. Por último el autor plantea una solución al problema de los indiscernibles a partir de los planteamientos de Godwin y Wittgenstein.

Palabras clave: principio de identidad de los indiscernibles, Max Black, D.J. O'Connor, Ian Hacking, William Godwin y Ludwig Wittgenstein.

Abstract

From an analytic point of view, this article deals with different attempts, based on the appeal to mental experiments, to prove or refute the Principle of Identity of Indiscernibles (PII). The text begins with a study of the Principle's conditions of validity, and then the positions of Black, O'Connor, Hacking, Godwin, and Wittgenstein are examined. Finally, the author presents a solution to the problem of indiscernibles drawing from Godwin and Wittgenstein's analysis.

Key Words: principle of Identity of Indiscernibles, Max Black, D.J. O'Connor, Ian Hacking, William Godwin, Ludwig Wittgenstein.

* Filósofo de la Universidad Industrial de Santander (Bucaramanga-Colombia), Especialista en Filosofía de la Ciencia de la Universidad El Bosque (Bogotá) y profesor del mismo programa.

7

Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 7-19

La historia del principio de identidad de los indiscernibles - en adelante PII - se remonta por lo menos a Leibniz, quien afirmaba, en su Discurso de metafísica (1686, §9), que no era verdadero predicar de dos sustancias que difieren en

1número su entera semejanza . Kant intentaría una refutación de la tesis de Leibniz cuando, en su Crítica de la razón pura (1787, B319-20), analizaba la posibilidad de la existencia de objetos idénticos a través del experimento mental de las gotas de agua. Desde entonces, la apelación a los experimentos mentales constituye una estrategia metodológica usual para intentar probar o refutar PII; su principal función consiste en crear mundos posibles donde pueda decidirse claramente el valor de verdad del principio.

A continuación abordaré, desde un ámbito analítico, diversos intentos de probar o refutar PII basados en tal estrategia metodológica, anotando algunas dudas en torno a su eficacia. Previo a este análisis, será necesario hacer un examen de las condiciones de validez de PII, es decir, por qué PII resulta verdadero, falso, analítico, necesario o tautológico según el modo en que se lo interprete.

El principio de identidad de los indiscernibles, en su formulación más conocida, afirma que si dos objetos tienen todas sus propiedades en común, entonces son idénticos. Al menos dos términos de esta definición son, por su vaguedad, susceptibles de análisis, a saber, la noción de propiedad y el concepto de identidad. En la reciente discusión del principio en los ambientes analíticos, y sobre todo a partir del famoso artículo de M. Black (Black, 1952), la cuestión del status lógico de PII constituye un problema central; se discute si el principio es a priori, analítico, verdadero, necesario o contingente. Sin embargo, la validez de PII parece depender del modo en que se analice el enunciado “si dos objetos tienen todas sus propiedades en común, entonces son idénticos” (en símbolos: ).

Black, por ejemplo, intentó mostrar que PII es cierto, basándose en el análisis del concepto de propiedad; expresiones como “ser idéntico a” o “ser diferente de” no son, según su examen, verdaderas propiedades, pues el considerarlas como tal hace que una afirmación sustantiva como PII sea equivalente a una verdad trivial o a una afirmación no sobre objetos sino sobre una relación entre nombres (en el sentido de Frege). Para Black, “ser idéntico a” y “ser diferente de” considerados como propiedades no sirven para decidir de manera no trivial la corrección de PII. Otra interpretación de “propiedad” que analiza Black es la de “características relacionales” y “cualidades”. En apariencia, éstas conforman un criterio suficiente para decidir la cuestión de la existencia de uno o más objetos. Se dice entonces de dos objetos que compartan todas sus características y cualidades que son indiscernibles -epistemológicamente es imposible distinguirlos-. Pero este procedimiento encierra una dificultad de

8

principio, pues la indiscernibilidad hace inverificable, y por tanto carente de sentido, el supuesto de que habría dos objetos. Incidentalmente esto tiene el efecto de darle la razón a Leibniz cuando sostenía que no existen dos objetos idénticos o indiscernibles, y al mismo tiempo diría algo acerca del status lógico de PII.

En virtud de estas dificultades, Black introduce el argumento de los mundos posibles, así: se puede decir que en el mundo actual es necesario que objetos diferentes difieran en sus propiedades, pero si es lógicamente posible un universo con dos objetos que tengan todas sus propiedades en común, no es en modo alguno necesario el principio de los indiscernibles. El hecho de que la situación contrafáctica sea inverificable, no implica que sea incoherente, siendo la acusación de inverificabilidad un mero reparo positivista. Antes bien, lo que asegura este experimento es algo muy distinto: alguien, para intentar mostrar que PII es verdadero puede decir “considera el objeto a”. Sin embargo, esto parece en principio imposible o al menos constituye una petición de principio respecto del experimento mental de los dos objetos indiscernibles. ¿Pues cómo voy a nombrar y referir uno de ellos cuando es imposible distinguirlo del otro? Para que se comprenda lo que está en juego, el punto central del argumento consiste en decir que si se acepta el experimento mental, no es posible esgrimir un argumento para intentar demostrar que es posible distinguir una esfera de la otra, pues para ello se precisa no sólo la mención de nombres sino su empleo discursivo; aunque alguien pudiera nombrar uno de los objetos, parece improbable que se pueda decir algo más al respecto (Black, 1952, p. 156.) Se trataría de un caso de empleo ilusorio del lenguaje. En breve, el anterior argumento wittgensteiniano sugiere que no es posible hablar de objetos idénticos (caso de que los haya) o, mejor aun, que las características y las

2cualidades no son ejemplos de “propiedad” .

1 También Leibniz, Nuevos ensayos sobre el entendimiento humano, II, 25, iii. Con todo, la discusión se remonta a Platón, Teeteto, 159a.

9

2 Un argumento similar se presenta en Keene (1956, pp. 252-254). Para este autor, decir que no hay dos objetos indiscernibles es patentemente una tautología, pues decir que hay dos objetos es ya afirmar tácitamente que se los distingue. En consecuencia, decir de dos objetos que son indiscernibles es una contradicción, pues equivale a decir que son distinguibles e indistinguibles al mismo tiempo. Esto quiere decir que dos objetos, por más semejantes que sean en sus cualidades, deben ser distintos por tratarse de dos objetos. Podemos ejemplificar todo esto recurriendo, una vez más, a un experimento mental, consistente en imaginar dos bolas de billar indiscernibles. Keene establece dos sentidos diferentes de “distinto” para indicar de qué modo se puede decir que las bolas, aun teniendo todas sus cualidades en común, son distinguibles en cierto sentido e indistinguibles en otro. Ellos son: a) señalar, enumerar o nombrar en una ocasión dada y b) identificar en diferentes ocasiones. Estos dos sentidos de “distinto” tienen que ver mucho con dos hechos lingüísticos bastante relacionados, a saber, nombrar objetos y usar esos nombres. En el sentido en el que el observador puede distinguir en una ocasión dada las bolas, decimos que las distingue porque las ha nombrado (ha llamado a una bola 'A' y a la otra 'B') o es capaz de nombrarlas. Con todo, el sentido en el que el observador es incapaz de distinguir en una ocasión diferente (en una ocasión posterior) las bolas coincide con el hecho de que en esa ocasión es incapaz de hacer un uso correcto de los nombres 'A' y 'B'. Los dos sentidos de “distinto” se corresponden con los actos de nombrar y usar los nombres; con el acto de colocar la pieza sobre el tablero y con el acto de realizar una jugada del juego, diría Wittgenstein (1961). Si decimos que las bolas son distinguibles, lo decimos desde un punto de vista epistémico; en cambio, si decimos que son indistinguibles lo decimos desde un punto de vista puramente lingüístico. Por tanto, se puede decir que el principio de Leibniz es, en un sentido, una mera tautología, pero, en otro sentido, es patentemente falso. La conclusión de Keene es “que los argumentos a favor o en contra del principio de identidad de los indiscernibles que, como el considerado, ponen en juego el sentido de la palabra “distinto”, sólo añaden a la confusión si el sentido de la palabra no se específica”.

El problema de los indiscernibles Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 7-19

La historia del principio de identidad de los indiscernibles - en adelante PII - se remonta por lo menos a Leibniz, quien afirmaba, en su Discurso de metafísica (1686, §9), que no era verdadero predicar de dos sustancias que difieren en

1número su entera semejanza . Kant intentaría una refutación de la tesis de Leibniz cuando, en su Crítica de la razón pura (1787, B319-20), analizaba la posibilidad de la existencia de objetos idénticos a través del experimento mental de las gotas de agua. Desde entonces, la apelación a los experimentos mentales constituye una estrategia metodológica usual para intentar probar o refutar PII; su principal función consiste en crear mundos posibles donde pueda decidirse claramente el valor de verdad del principio.

A continuación abordaré, desde un ámbito analítico, diversos intentos de probar o refutar PII basados en tal estrategia metodológica, anotando algunas dudas en torno a su eficacia. Previo a este análisis, será necesario hacer un examen de las condiciones de validez de PII, es decir, por qué PII resulta verdadero, falso, analítico, necesario o tautológico según el modo en que se lo interprete.

El principio de identidad de los indiscernibles, en su formulación más conocida, afirma que si dos objetos tienen todas sus propiedades en común, entonces son idénticos. Al menos dos términos de esta definición son, por su vaguedad, susceptibles de análisis, a saber, la noción de propiedad y el concepto de identidad. En la reciente discusión del principio en los ambientes analíticos, y sobre todo a partir del famoso artículo de M. Black (Black, 1952), la cuestión del status lógico de PII constituye un problema central; se discute si el principio es a priori, analítico, verdadero, necesario o contingente. Sin embargo, la validez de PII parece depender del modo en que se analice el enunciado “si dos objetos tienen todas sus propiedades en común, entonces son idénticos” (en símbolos: ).

Black, por ejemplo, intentó mostrar que PII es cierto, basándose en el análisis del concepto de propiedad; expresiones como “ser idéntico a” o “ser diferente de” no son, según su examen, verdaderas propiedades, pues el considerarlas como tal hace que una afirmación sustantiva como PII sea equivalente a una verdad trivial o a una afirmación no sobre objetos sino sobre una relación entre nombres (en el sentido de Frege). Para Black, “ser idéntico a” y “ser diferente de” considerados como propiedades no sirven para decidir de manera no trivial la corrección de PII. Otra interpretación de “propiedad” que analiza Black es la de “características relacionales” y “cualidades”. En apariencia, éstas conforman un criterio suficiente para decidir la cuestión de la existencia de uno o más objetos. Se dice entonces de dos objetos que compartan todas sus características y cualidades que son indiscernibles -epistemológicamente es imposible distinguirlos-. Pero este procedimiento encierra una dificultad de

8

principio, pues la indiscernibilidad hace inverificable, y por tanto carente de sentido, el supuesto de que habría dos objetos. Incidentalmente esto tiene el efecto de darle la razón a Leibniz cuando sostenía que no existen dos objetos idénticos o indiscernibles, y al mismo tiempo diría algo acerca del status lógico de PII.

En virtud de estas dificultades, Black introduce el argumento de los mundos posibles, así: se puede decir que en el mundo actual es necesario que objetos diferentes difieran en sus propiedades, pero si es lógicamente posible un universo con dos objetos que tengan todas sus propiedades en común, no es en modo alguno necesario el principio de los indiscernibles. El hecho de que la situación contrafáctica sea inverificable, no implica que sea incoherente, siendo la acusación de inverificabilidad un mero reparo positivista. Antes bien, lo que asegura este experimento es algo muy distinto: alguien, para intentar mostrar que PII es verdadero puede decir “considera el objeto a”. Sin embargo, esto parece en principio imposible o al menos constituye una petición de principio respecto del experimento mental de los dos objetos indiscernibles. ¿Pues cómo voy a nombrar y referir uno de ellos cuando es imposible distinguirlo del otro? Para que se comprenda lo que está en juego, el punto central del argumento consiste en decir que si se acepta el experimento mental, no es posible esgrimir un argumento para intentar demostrar que es posible distinguir una esfera de la otra, pues para ello se precisa no sólo la mención de nombres sino su empleo discursivo; aunque alguien pudiera nombrar uno de los objetos, parece improbable que se pueda decir algo más al respecto (Black, 1952, p. 156.) Se trataría de un caso de empleo ilusorio del lenguaje. En breve, el anterior argumento wittgensteiniano sugiere que no es posible hablar de objetos idénticos (caso de que los haya) o, mejor aun, que las características y las

2cualidades no son ejemplos de “propiedad” .

1 También Leibniz, Nuevos ensayos sobre el entendimiento humano, II, 25, iii. Con todo, la discusión se remonta a Platón, Teeteto, 159a.

9

2 Un argumento similar se presenta en Keene (1956, pp. 252-254). Para este autor, decir que no hay dos objetos indiscernibles es patentemente una tautología, pues decir que hay dos objetos es ya afirmar tácitamente que se los distingue. En consecuencia, decir de dos objetos que son indiscernibles es una contradicción, pues equivale a decir que son distinguibles e indistinguibles al mismo tiempo. Esto quiere decir que dos objetos, por más semejantes que sean en sus cualidades, deben ser distintos por tratarse de dos objetos. Podemos ejemplificar todo esto recurriendo, una vez más, a un experimento mental, consistente en imaginar dos bolas de billar indiscernibles. Keene establece dos sentidos diferentes de “distinto” para indicar de qué modo se puede decir que las bolas, aun teniendo todas sus cualidades en común, son distinguibles en cierto sentido e indistinguibles en otro. Ellos son: a) señalar, enumerar o nombrar en una ocasión dada y b) identificar en diferentes ocasiones. Estos dos sentidos de “distinto” tienen que ver mucho con dos hechos lingüísticos bastante relacionados, a saber, nombrar objetos y usar esos nombres. En el sentido en el que el observador puede distinguir en una ocasión dada las bolas, decimos que las distingue porque las ha nombrado (ha llamado a una bola 'A' y a la otra 'B') o es capaz de nombrarlas. Con todo, el sentido en el que el observador es incapaz de distinguir en una ocasión diferente (en una ocasión posterior) las bolas coincide con el hecho de que en esa ocasión es incapaz de hacer un uso correcto de los nombres 'A' y 'B'. Los dos sentidos de “distinto” se corresponden con los actos de nombrar y usar los nombres; con el acto de colocar la pieza sobre el tablero y con el acto de realizar una jugada del juego, diría Wittgenstein (1961). Si decimos que las bolas son distinguibles, lo decimos desde un punto de vista epistémico; en cambio, si decimos que son indistinguibles lo decimos desde un punto de vista puramente lingüístico. Por tanto, se puede decir que el principio de Leibniz es, en un sentido, una mera tautología, pero, en otro sentido, es patentemente falso. La conclusión de Keene es “que los argumentos a favor o en contra del principio de identidad de los indiscernibles que, como el considerado, ponen en juego el sentido de la palabra “distinto”, sólo añaden a la confusión si el sentido de la palabra no se específica”.

El problema de los indiscernibles Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 7-19

Otro argumento, por demás interesante, hace alusión a la posibilidad de admitir un observador externo en un mundo posible constituido por solo dos objetos que guardan relaciones perfectamente simétricas. La introducción de dicho observador bastaría para demostrar que es posible distinguir uno del otro y mostrar así que PII es verdadero, pues para este observador uno de los objetos estaría a su izquierda y el otro a su derecha y este hecho bastaría para mostrar que son diferentes. Un objeto puede llegar a tener una relación con un tercer objeto que no tendría el otro, la relación “estar a la derecha de” o “estar a la izquierda de”. Pero esto no significa que las esferas no compartan todas sus propiedades, ya que la relación con un tercer objeto representa un cambio en el universo, provocado por la presencia del observador. Esto significa, dice Black, que dichas relaciones o propiedades no son propiedades de los objetos, sino un cambio en las condiciones iniciales del universo, un cambio que altera la simetría del mismo. Por tanto, en un universo perfectamente simétrico no son posibles relaciones espaciales que impliquen la presencia de un observador. Sólo se aceptan relaciones espaciales intrínsecas, no extrínsecas. Más aun, las relaciones espaciales definen la simetría del universo: son propiedades de la configuración de éste, no de sus miembros.

En este sentido, todas las relaciones espaciales son propiedades de la configuración - definen la simetría (1952, pp. 162 y ss). Lo que se sostiene entonces es que no hay nada como “estar a la derecha de” en un universo simétrico hasta que un observador se introduzca en él. En ausencia de un observador asimétrico, los objetos tendrían todas sus propiedades en común y PII sería verdadero. Estos argumentos ejemplifican un poco lo que pretendo discutir; en todos ellos se recurre a un experimento mental consistente en crear un mundo posible en que el principio resulte verdadero o falso. También ejemplifican otro punto importante, a saber, que la validez de PII es función de su interpretación.

En un trabajo de notorio interés analítico, D. J. O'Connor (1954) argumenta en contra de PII de la siguiente forma. Dado un conjunto de propiedades pertenecientes a un individuo y compatibles entre sí, se puede tomar cada una de esas propiedades y afirmar que no sólo pueden cualificar más de un objeto sino que, dada su naturaleza de propiedades -es decir, de universales- deben ser capaces de cualificar a más de un objeto. [De esto se puede concluir que es posible que un conjunto de propiedades compatibles entre sí cualifique a más de un objeto, con lo cual estaríamos mostrando que PII es, al menos, posible, algo que, sin embargo, no muestra que sea contingente, analítico y/o necesario.] O'Connor lo formaliza así:

i. Si cada miembro de un conjunto de propiedades S es compatible con todo otro miembro de S, y si un individuo A puede tener una propiedad cualquiera P de S, entonces A puede tener Pn n+1

10

ii. Si una propiedad P puede cualificar a un individuo A, entonces npuede cualificar a otro individuo B.

De estas dos afirmaciones se sigue que si un conjunto de propiedades compatibles entre sí puede cualificar a un individuo A, entonces el mismo conjunto de propiedades puede cualificar a otro individuo B:

iii. Si S puede cualificar a un individuo A, entonces S puede cualificar a otro individuo B.

Pero, si esto es posible, entonces PII debe ser falso, puesto que “dar una descripción completa de una entidad es individualizar a esa entidad” (O'Connor, 105). Lo que sostiene O'Connor en este punto es que PII no niega que una simple propiedad pueda cualificar a un número indefinido de objetos, pero sí afirma, según esta interpretación, que siempre hay una propiedad que es única en cada objeto en el sentido de que la propiedad compuesta por la conjunción de todos los atributos que cualifican a un individuo deben ser instanciadas de manera única. De esta forma, Leibniz puede defender un realismo de propiedades. En efecto, desde este punto de vista, lo que sostendría Leibniz es que uno y el mismo conjunto de universales S no puede ser instanciado en dos individuos distintos A y B. Cuando Leibniz afirma que A y B no pueden tener todas sus propiedades en común, o cuando se sostiene PII, ambos enunciados son ambiguos, pues no se específica en qué sentido se está tomando el término “propiedad”: como un conjunto de universales o como un conjunto de universales instanciados. De este modo, si se interpreta en el primer sentido, PII resulta verdadero, pero en el segundo sentido es evidentemente falso.

Todo esto, sin embargo, no resuelve la cuestión de por qué un conjunto de universales no puede ser instanciado en dos individuos distintos. O'Connor considera dos alternativas: o bien la totalidad de propiedades que cualifican a un objeto tiene una característica “emergente” de unicidad (o individualidad), o bien en la totalidad de propiedades, cada una de las cuales está co-instanciada,

3debe haber siempre una propiedad “especial” de tipo único . O'Connor desestima la primera alternativa, mientras considera que la segunda tiene alguna plausibilidad: algunas características parecen poseer una función de individuación.

Si, por otra parte, se consideran las relaciones espaciales como propiedades, entonces existe un sentido en el que la afirmación de Leibniz es correcta, a saber, podemos decir de dos objetos espacio-temporales que son diferentes

11

3 Yo agregaría una tercera alternativa, compatible con estas dos, a saber: en el conjunto de universales S, ciertos miembros suyos se instancian en unos individuos y en otros no, lo cual produce el efecto de la individuación.

El problema de los indiscernibles Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 7-19

Otro argumento, por demás interesante, hace alusión a la posibilidad de admitir un observador externo en un mundo posible constituido por solo dos objetos que guardan relaciones perfectamente simétricas. La introducción de dicho observador bastaría para demostrar que es posible distinguir uno del otro y mostrar así que PII es verdadero, pues para este observador uno de los objetos estaría a su izquierda y el otro a su derecha y este hecho bastaría para mostrar que son diferentes. Un objeto puede llegar a tener una relación con un tercer objeto que no tendría el otro, la relación “estar a la derecha de” o “estar a la izquierda de”. Pero esto no significa que las esferas no compartan todas sus propiedades, ya que la relación con un tercer objeto representa un cambio en el universo, provocado por la presencia del observador. Esto significa, dice Black, que dichas relaciones o propiedades no son propiedades de los objetos, sino un cambio en las condiciones iniciales del universo, un cambio que altera la simetría del mismo. Por tanto, en un universo perfectamente simétrico no son posibles relaciones espaciales que impliquen la presencia de un observador. Sólo se aceptan relaciones espaciales intrínsecas, no extrínsecas. Más aun, las relaciones espaciales definen la simetría del universo: son propiedades de la configuración de éste, no de sus miembros.

En este sentido, todas las relaciones espaciales son propiedades de la configuración - definen la simetría (1952, pp. 162 y ss). Lo que se sostiene entonces es que no hay nada como “estar a la derecha de” en un universo simétrico hasta que un observador se introduzca en él. En ausencia de un observador asimétrico, los objetos tendrían todas sus propiedades en común y PII sería verdadero. Estos argumentos ejemplifican un poco lo que pretendo discutir; en todos ellos se recurre a un experimento mental consistente en crear un mundo posible en que el principio resulte verdadero o falso. También ejemplifican otro punto importante, a saber, que la validez de PII es función de su interpretación.

En un trabajo de notorio interés analítico, D. J. O'Connor (1954) argumenta en contra de PII de la siguiente forma. Dado un conjunto de propiedades pertenecientes a un individuo y compatibles entre sí, se puede tomar cada una de esas propiedades y afirmar que no sólo pueden cualificar más de un objeto sino que, dada su naturaleza de propiedades -es decir, de universales- deben ser capaces de cualificar a más de un objeto. [De esto se puede concluir que es posible que un conjunto de propiedades compatibles entre sí cualifique a más de un objeto, con lo cual estaríamos mostrando que PII es, al menos, posible, algo que, sin embargo, no muestra que sea contingente, analítico y/o necesario.] O'Connor lo formaliza así:

i. Si cada miembro de un conjunto de propiedades S es compatible con todo otro miembro de S, y si un individuo A puede tener una propiedad cualquiera P de S, entonces A puede tener Pn n+1

10

ii. Si una propiedad P puede cualificar a un individuo A, entonces npuede cualificar a otro individuo B.

De estas dos afirmaciones se sigue que si un conjunto de propiedades compatibles entre sí puede cualificar a un individuo A, entonces el mismo conjunto de propiedades puede cualificar a otro individuo B:

iii. Si S puede cualificar a un individuo A, entonces S puede cualificar a otro individuo B.

Pero, si esto es posible, entonces PII debe ser falso, puesto que “dar una descripción completa de una entidad es individualizar a esa entidad” (O'Connor, 105). Lo que sostiene O'Connor en este punto es que PII no niega que una simple propiedad pueda cualificar a un número indefinido de objetos, pero sí afirma, según esta interpretación, que siempre hay una propiedad que es única en cada objeto en el sentido de que la propiedad compuesta por la conjunción de todos los atributos que cualifican a un individuo deben ser instanciadas de manera única. De esta forma, Leibniz puede defender un realismo de propiedades. En efecto, desde este punto de vista, lo que sostendría Leibniz es que uno y el mismo conjunto de universales S no puede ser instanciado en dos individuos distintos A y B. Cuando Leibniz afirma que A y B no pueden tener todas sus propiedades en común, o cuando se sostiene PII, ambos enunciados son ambiguos, pues no se específica en qué sentido se está tomando el término “propiedad”: como un conjunto de universales o como un conjunto de universales instanciados. De este modo, si se interpreta en el primer sentido, PII resulta verdadero, pero en el segundo sentido es evidentemente falso.

Todo esto, sin embargo, no resuelve la cuestión de por qué un conjunto de universales no puede ser instanciado en dos individuos distintos. O'Connor considera dos alternativas: o bien la totalidad de propiedades que cualifican a un objeto tiene una característica “emergente” de unicidad (o individualidad), o bien en la totalidad de propiedades, cada una de las cuales está co-instanciada,

3debe haber siempre una propiedad “especial” de tipo único . O'Connor desestima la primera alternativa, mientras considera que la segunda tiene alguna plausibilidad: algunas características parecen poseer una función de individuación.

Si, por otra parte, se consideran las relaciones espaciales como propiedades, entonces existe un sentido en el que la afirmación de Leibniz es correcta, a saber, podemos decir de dos objetos espacio-temporales que son diferentes

11

3 Yo agregaría una tercera alternativa, compatible con estas dos, a saber: en el conjunto de universales S, ciertos miembros suyos se instancian en unos individuos y en otros no, lo cual produce el efecto de la individuación.

El problema de los indiscernibles Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 7-19

porque ocupan espacios diferentes en un mismo instante. Pero esta estrategia 4presenta al menos tres dificultades : primero, debe discutirse si las propiedades

relacionales son realmente propiedades; segundo, aun si admitimos que lo son, podemos apelar a la teoría de los universales de inmanentes J. O'Leary-

5Hawthorne (1995) y argumentar que el hecho de que dos objetos ocupen lugares diferentes no necesariamente implica que esos objetos sean diferentes, ya que puede tratarse del mismo objeto; tercero, apelar a propiedades relacionales para demostrar la afirmación de Leibniz obliga a relativizarla, pues entonces pasaría a ser un principio verdadero sólo de objetos espacio-temporales, con lo cual sólo podría ser un principio contingente. Si se dice que la tesis de Leibniz es universalmente verdadera, por cuanto sólo existen objetos espacio-temporales, entonces se está viciando la cuestión con un argumento ad hoc basado en una tesis metafísica, no sólo discutible y arbitraría, sino incluso incompatible con la consideración de las propiedades como universales. Todo esto sólo muestra que el concepto de propiedad debe ser tan restringido que no incluya las propiedades relacionales.

Podemos ampliar esta consideración de esta forma. ¿Qué implica -se pregunta O'Connor- considerar las propiedades relacionales (por ejemplo la propiedad de “ocupar el lugar tal en el momento tal” o “tener el conjunto de coordenadas (x1, y1, z1; t1)” como propiedades? Implica que hay propiedades que, intrínsecamente, no satisfacen ii pues, ¿no se había sostenido que toda propiedad, por el hecho de serlo, debía ser capaz de cualificar a más de un objeto? Pero una propiedad como “tener el conjunto de coordenadas (x1, y1, z1; t1)” solamente puede cualificar a un único objeto. Esta puede considerarse una cuarta dificultad de la estrategia que venimos examinando. Así, puede decirse que el rasgo que define esencialmente a una propiedad es su capacidad de cualificar a un número indefinido de objetos, rasgo que implica que la propiedad debe “ser indiferente a las ocasiones espacio-temporales de su instanciación” (O'Connor, 1954, p. 106).

Resumamos: hemos indicado que ni la identidad, ni la diferencia ni las propiedades relacionales caen dentro del concepto de propiedad y que, cualquiera sea el candidato a hacerlo debe satisfacer el rasgo esencial de ese concepto, a saber, la capacidad de cualificar a un número indefinido de objetos.

Ahora, si se toma una propiedad compuesta como (x1, y1, z1; t1), es claro que, en tanto propiedad compuesta, sólo es predicable de un solo objeto; pero cada miembro de este complejo es predicable de más de un objeto. Así, podemos

12

sostener que las propiedades complejas, en general, son predicables de un solo individuo, lo cual es incoherente con cierto sentido de PII, e incompatible con ii; en tanto, las propiedades simples, en general, son predicables de más de un individuo, lo cual es coherente con ii y compatible con PII. Ahora, si incluso hay propiedades simples capaces de una única instanciación, esto haría más agudo el conflicto entre ii y PII. Es decir, no podemos decidir el estatus alético del principio hasta tanto no hayamos desentrañado es estatus ontológico de las propiedades (o, lo que es igual, hasta tanto no hayamos analizado el concepto de “propiedad”). Como dice O'Connor: “la justificación de de la Identidad de los Indiscernibles es realmente una cuestión de justificar categorías lingüísticas” (O'Connor, 1954, p. 106).

Consideremos ahora la expresión “tener el conjunto de coordenadas (x1, y1, z1; t1)”. La teoría de haces de universales nos dice que es posible que un objeto tenga dos coordenadas espacio-temporales distintas; si esto es así, ¿por qué no iba a ser posible que dos objetos distintos tuvieran la misma coordenada espacio-temporal? Si interpretamos “objeto” como diciendo “objeto material”, entonces la tesis de Leibniz es trivialmente verdadera, pues se tendría que seguir analíticamente de la definición de “uno y el mismo objeto material”. Esto presenta dos dificultades: primero, no se podría sostener que la tesis es necesaria ya que estaría implicada por una proposición necesaria, a saber, la proposición que expresa la definición de “uno y el mismo objeto material”; segundo, para que dicha tesis se siguiera analítica, es decir, lógicamente de esta definición, la misma tendría que ser una proposición analítica, pero, por tratarse de una definición, ya Quine ha mostrado que las definiciones, cuando no fijan una sinonimia, están basadas en ella, y por ende suponen analiticidad (Quine, 2002). Sea “dos cuerpos materiales no pueden ocupar el mismo lugar al mismo tiempo” la proposición R y sea “un cuerpo no puede ocupar diferentes lugares al mismo tiempo” la proposición Q. Mientras tenemos criterios para distinguir un cuerpo de otro, ciertamente resulta más problemático encontrar criterios o pruebas para distinguir lugares del espacio y momentos del tiempo. En verdad, ¿los hay? Cuando se afirman R y Q, tácitamente se está suponiendo que contamos con pruebas para la mismidad y diferencia de lugares y tiempos; pero esto es más un indicio de que “hemos trasladado el locus de nuestro problema desde la naturaleza de los cuerpos materiales a la naturaleza del espacio y el tiempo” (O'Connor, 1954, p. 107). El punto aquí es que ni la experiencia ni los hechos pueden apoyar reglas como Q o R; en el mejor de los casos, R y Q serían generalizaciones empíricas, no definiciones. Por tanto, no son proposiciones necesarias a partir de las cuales se pueda deducir la identidad de los

6indiscernibles . Hasta aquí se pueden extraer las siguientes conclusiones:

13

4 Más abajo se menciona una cuarta dificultad.5 Para este autor los universales existen esencialmente instanciados, es decir, tienen existencia espacio temporal; podemos decir que tienen el don de la ubicuidad o que tienen la propiedad de estar a cierta distancia de sí mismos. Más adelante amplio esta noción.

6 Un punto en contra de esta conclusión de O'Connor es que supone que el carácter empírico de un enunciado es condición suficiente para considerarlo un enunciado no necesario, algo que Kripke puso seriamente en entre dicho.

El problema de los indiscernibles Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 7-19

porque ocupan espacios diferentes en un mismo instante. Pero esta estrategia 4presenta al menos tres dificultades : primero, debe discutirse si las propiedades

relacionales son realmente propiedades; segundo, aun si admitimos que lo son, podemos apelar a la teoría de los universales de inmanentes J. O'Leary-

5Hawthorne (1995) y argumentar que el hecho de que dos objetos ocupen lugares diferentes no necesariamente implica que esos objetos sean diferentes, ya que puede tratarse del mismo objeto; tercero, apelar a propiedades relacionales para demostrar la afirmación de Leibniz obliga a relativizarla, pues entonces pasaría a ser un principio verdadero sólo de objetos espacio-temporales, con lo cual sólo podría ser un principio contingente. Si se dice que la tesis de Leibniz es universalmente verdadera, por cuanto sólo existen objetos espacio-temporales, entonces se está viciando la cuestión con un argumento ad hoc basado en una tesis metafísica, no sólo discutible y arbitraría, sino incluso incompatible con la consideración de las propiedades como universales. Todo esto sólo muestra que el concepto de propiedad debe ser tan restringido que no incluya las propiedades relacionales.

Podemos ampliar esta consideración de esta forma. ¿Qué implica -se pregunta O'Connor- considerar las propiedades relacionales (por ejemplo la propiedad de “ocupar el lugar tal en el momento tal” o “tener el conjunto de coordenadas (x1, y1, z1; t1)” como propiedades? Implica que hay propiedades que, intrínsecamente, no satisfacen ii pues, ¿no se había sostenido que toda propiedad, por el hecho de serlo, debía ser capaz de cualificar a más de un objeto? Pero una propiedad como “tener el conjunto de coordenadas (x1, y1, z1; t1)” solamente puede cualificar a un único objeto. Esta puede considerarse una cuarta dificultad de la estrategia que venimos examinando. Así, puede decirse que el rasgo que define esencialmente a una propiedad es su capacidad de cualificar a un número indefinido de objetos, rasgo que implica que la propiedad debe “ser indiferente a las ocasiones espacio-temporales de su instanciación” (O'Connor, 1954, p. 106).

Resumamos: hemos indicado que ni la identidad, ni la diferencia ni las propiedades relacionales caen dentro del concepto de propiedad y que, cualquiera sea el candidato a hacerlo debe satisfacer el rasgo esencial de ese concepto, a saber, la capacidad de cualificar a un número indefinido de objetos.

Ahora, si se toma una propiedad compuesta como (x1, y1, z1; t1), es claro que, en tanto propiedad compuesta, sólo es predicable de un solo objeto; pero cada miembro de este complejo es predicable de más de un objeto. Así, podemos

12

sostener que las propiedades complejas, en general, son predicables de un solo individuo, lo cual es incoherente con cierto sentido de PII, e incompatible con ii; en tanto, las propiedades simples, en general, son predicables de más de un individuo, lo cual es coherente con ii y compatible con PII. Ahora, si incluso hay propiedades simples capaces de una única instanciación, esto haría más agudo el conflicto entre ii y PII. Es decir, no podemos decidir el estatus alético del principio hasta tanto no hayamos desentrañado es estatus ontológico de las propiedades (o, lo que es igual, hasta tanto no hayamos analizado el concepto de “propiedad”). Como dice O'Connor: “la justificación de de la Identidad de los Indiscernibles es realmente una cuestión de justificar categorías lingüísticas” (O'Connor, 1954, p. 106).

Consideremos ahora la expresión “tener el conjunto de coordenadas (x1, y1, z1; t1)”. La teoría de haces de universales nos dice que es posible que un objeto tenga dos coordenadas espacio-temporales distintas; si esto es así, ¿por qué no iba a ser posible que dos objetos distintos tuvieran la misma coordenada espacio-temporal? Si interpretamos “objeto” como diciendo “objeto material”, entonces la tesis de Leibniz es trivialmente verdadera, pues se tendría que seguir analíticamente de la definición de “uno y el mismo objeto material”. Esto presenta dos dificultades: primero, no se podría sostener que la tesis es necesaria ya que estaría implicada por una proposición necesaria, a saber, la proposición que expresa la definición de “uno y el mismo objeto material”; segundo, para que dicha tesis se siguiera analítica, es decir, lógicamente de esta definición, la misma tendría que ser una proposición analítica, pero, por tratarse de una definición, ya Quine ha mostrado que las definiciones, cuando no fijan una sinonimia, están basadas en ella, y por ende suponen analiticidad (Quine, 2002). Sea “dos cuerpos materiales no pueden ocupar el mismo lugar al mismo tiempo” la proposición R y sea “un cuerpo no puede ocupar diferentes lugares al mismo tiempo” la proposición Q. Mientras tenemos criterios para distinguir un cuerpo de otro, ciertamente resulta más problemático encontrar criterios o pruebas para distinguir lugares del espacio y momentos del tiempo. En verdad, ¿los hay? Cuando se afirman R y Q, tácitamente se está suponiendo que contamos con pruebas para la mismidad y diferencia de lugares y tiempos; pero esto es más un indicio de que “hemos trasladado el locus de nuestro problema desde la naturaleza de los cuerpos materiales a la naturaleza del espacio y el tiempo” (O'Connor, 1954, p. 107). El punto aquí es que ni la experiencia ni los hechos pueden apoyar reglas como Q o R; en el mejor de los casos, R y Q serían generalizaciones empíricas, no definiciones. Por tanto, no son proposiciones necesarias a partir de las cuales se pueda deducir la identidad de los

6indiscernibles . Hasta aquí se pueden extraer las siguientes conclusiones:

13

4 Más abajo se menciona una cuarta dificultad.5 Para este autor los universales existen esencialmente instanciados, es decir, tienen existencia espacio temporal; podemos decir que tienen el don de la ubicuidad o que tienen la propiedad de estar a cierta distancia de sí mismos. Más adelante amplio esta noción.

6 Un punto en contra de esta conclusión de O'Connor es que supone que el carácter empírico de un enunciado es condición suficiente para considerarlo un enunciado no necesario, algo que Kripke puso seriamente en entre dicho.

El problema de los indiscernibles Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 7-19

i. El partidario de la tesis de Leibniz debe extender de manera injustificada la denotación de palabras como “propiedad”, “atributo”, “cualidad”, etc., debilitando así su connotación en un aspecto crucial.ii. El resultado de esta extensión es solamente hacer de la tesis una consecuencia analítica de la supuesta necesidad de proposiciones como Q o R.iii. Incluso si se renuncia a la objeción ii, se puede sostener que proposiciones como Q y R no son necesarias sino meras generalizaciones empíricas tenidas como definiciones. En un mundo con leyes físicas muy diferentes, esas proposiciones podrían resultar falsas. Así, de premisas contingentes no pueden seguirse conclusiones necesarias.

En este orden de ideas, podemos indicar que el estatus alético de PII es función de la extensión y connotación del concepto de propiedad. Así, por ejemplo, si la tesis de Leibniz resulta necesaria, lo será trivialmente, de lo contrario será contingente. O'Connor señala que mientras los partidarios de PII incluyen las propiedades relacionales dentro de la extensión de “propiedad”, sus oponentes no lo hacen. Como fuere, esto es una cuestión de lenguaje e incluso, como acostumbra a decir Putnam, no una cuestión a disputar sino a legislar (Putnam, 1981, p. 100). Así, tres son las razones que tendría O'Connor para no clasificar las propiedades relacionales como propiedades. Primero, la mayoría de estas propiedades solamente pueden cualificar un único objeto (en contra de ii); segundo, las propiedades relacionales implican una referencia a individuos tal que prejuzga la cuestión a favor de Leibniz; tercero, ampliar la extensión de PII de tal modo que incluya las propiedades relacionales es hacer depender la noción de tener la capacidad de ser poseído por varios individuos de la connotación de la palabra. En breve, hacer depender los rasgos lógico-sintácticos del concepto de propiedad de su extensión.

Las razones para incluir las propiedades relacionales dentro del concepto de propiedad son éstas. Algunas propiedades relacionales no pueden ser distinguidas de las cualidades (v. gr., “largo”, “pequeño”, etc.): estos adjetivos son modos elípticos de aludir a propiedades relacionales, así que es absurdo excluirlas del significado de propiedad. Después de todo, incluso adjetivos como “rojo”, “acido” o “redondo” son propiedades relacionales si se usan en su modo comparativo o superlativo (analícese un enunciado como “A es más rojo que B”), de modo pues que no todas las propiedades relacionales pueden ser excluidas del concepto de propiedad. Esto muestra una vez más que la discusión y la decisión sobre PII dependen de la resolución de otras cuestiones implicadas con PII: el concepto de propiedad; las nociones de necesidad, analiticidad y contingencia, etc. El problema de los indiscernibles no es un problema aislado de otros problemas filosóficos; es más, la solución al mismo podría ser incluso un

14

corolario a la solución de estos últimos. En concreto, de la solución al problema necesidad-analiticidad depende en gran medida la solución al problema de los indiscernibles.

Todo esto parece situarnos en una perspectiva algo incierta; Ian Hacking parece haber refrescado la discusión cuando en 1975 publica su “The Identity of Indiscernibles” (Hacking, 1975). Allí afirmará que los ejemplos que recurren a objetos espacio-temporales para demostrar o refutar el principio de identidad de los indiscernibles son dudosos o poco concluyentes (inconclusive), y ello porque sencillamente aunque podamos describir un mundo posible que viole PII, no estamos obligados a hacerlo. Otro modo de expresar esto es afirmar que es vano recurrir a mundos espacio-temporalmente posibles para establecer o refutar PII. Para Hacking el argumento de los mundos posibles no es suficiente para probar o refutar PII. Por el contrario, la disputa acerca de la analiticidad de PII (como la ejemplificada por Wittgenstein y Russell en Tractatus) sí podría

7decidir la cuestión . Esto es así porque, en este último caso, estarían implicados asuntos puramente conceptuales relacionados con cuestiones lógicas, y no asuntos contingentes relacionados con cuestiones empíricas; la búsqueda de mundos espacio-temporalmente posibles que decidan la verdad o falsedad de PII es una empresa empírica. Considerar PII como un problema conceptual o empírico es clave para decidir el tipo de solución que amerita. Los argumentos que presenta Hacking para caracterizar tales ejemplos como insuficientes son los siguientes. Primero, que los mismos son indeterminados debido a que los objetos en ellos implicados suponen relaciones espaciales para las que no se ha definido un conjunto de leyes físicas que las gobiernen -recuérdese el caso Mach contra Newton-. Como dice Hacking, “No puede haber determinación de relaciones espaciales sin un estudio de las leyes de la naturaleza atribuidas a los

8objetos en el espacio” . Segundo, toda descripción que sea verdadera de un universo-de-dos-objetos (como el de Black) también resulta verdadera de un universo-de-un-objeto. Por ejemplo, toda descripción verdadera del universo kantiano, constituido por dos gotas de agua distintas pero idénticas, es verdadera del universo de Leibniz, formado por una sola gota de agua. Se puede replicar que la descripción “una gota está a 10 metros de la otra” es verdadera del universo de Kant (K), pero falsa del universo de Leibniz (L), pero esto en realidad depende de la filosofía del espacio que se adopte para cada universo. Por ejemplo, en el universo L las relaciones espaciales están determinadas por los objetos, de modo que esto, si se aplica al universo K, presupone la cuestión porque dicha descripción implica que “hay dos objetos” es verdadero de K ex

15

7 Puede que esta vía sea la correcta, pero ciertamente no la más fácil, sobre todo en virtud de las críticas de Quine a la analiticidad.8 Esto también es cierto para el caso, mencionado más adelante, de las dos gotas que se reflejan una en la otra o para el caso de una única gota que se refleja en sí misma. (Igualmente para el caso del tablero de ajedrez entero o dividido; o para el caso de los dos guantes coincidentes o un solo guante izquierdo).

El problema de los indiscernibles Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 7-19

i. El partidario de la tesis de Leibniz debe extender de manera injustificada la denotación de palabras como “propiedad”, “atributo”, “cualidad”, etc., debilitando así su connotación en un aspecto crucial.ii. El resultado de esta extensión es solamente hacer de la tesis una consecuencia analítica de la supuesta necesidad de proposiciones como Q o R.iii. Incluso si se renuncia a la objeción ii, se puede sostener que proposiciones como Q y R no son necesarias sino meras generalizaciones empíricas tenidas como definiciones. En un mundo con leyes físicas muy diferentes, esas proposiciones podrían resultar falsas. Así, de premisas contingentes no pueden seguirse conclusiones necesarias.

En este orden de ideas, podemos indicar que el estatus alético de PII es función de la extensión y connotación del concepto de propiedad. Así, por ejemplo, si la tesis de Leibniz resulta necesaria, lo será trivialmente, de lo contrario será contingente. O'Connor señala que mientras los partidarios de PII incluyen las propiedades relacionales dentro de la extensión de “propiedad”, sus oponentes no lo hacen. Como fuere, esto es una cuestión de lenguaje e incluso, como acostumbra a decir Putnam, no una cuestión a disputar sino a legislar (Putnam, 1981, p. 100). Así, tres son las razones que tendría O'Connor para no clasificar las propiedades relacionales como propiedades. Primero, la mayoría de estas propiedades solamente pueden cualificar un único objeto (en contra de ii); segundo, las propiedades relacionales implican una referencia a individuos tal que prejuzga la cuestión a favor de Leibniz; tercero, ampliar la extensión de PII de tal modo que incluya las propiedades relacionales es hacer depender la noción de tener la capacidad de ser poseído por varios individuos de la connotación de la palabra. En breve, hacer depender los rasgos lógico-sintácticos del concepto de propiedad de su extensión.

Las razones para incluir las propiedades relacionales dentro del concepto de propiedad son éstas. Algunas propiedades relacionales no pueden ser distinguidas de las cualidades (v. gr., “largo”, “pequeño”, etc.): estos adjetivos son modos elípticos de aludir a propiedades relacionales, así que es absurdo excluirlas del significado de propiedad. Después de todo, incluso adjetivos como “rojo”, “acido” o “redondo” son propiedades relacionales si se usan en su modo comparativo o superlativo (analícese un enunciado como “A es más rojo que B”), de modo pues que no todas las propiedades relacionales pueden ser excluidas del concepto de propiedad. Esto muestra una vez más que la discusión y la decisión sobre PII dependen de la resolución de otras cuestiones implicadas con PII: el concepto de propiedad; las nociones de necesidad, analiticidad y contingencia, etc. El problema de los indiscernibles no es un problema aislado de otros problemas filosóficos; es más, la solución al mismo podría ser incluso un

14

corolario a la solución de estos últimos. En concreto, de la solución al problema necesidad-analiticidad depende en gran medida la solución al problema de los indiscernibles.

Todo esto parece situarnos en una perspectiva algo incierta; Ian Hacking parece haber refrescado la discusión cuando en 1975 publica su “The Identity of Indiscernibles” (Hacking, 1975). Allí afirmará que los ejemplos que recurren a objetos espacio-temporales para demostrar o refutar el principio de identidad de los indiscernibles son dudosos o poco concluyentes (inconclusive), y ello porque sencillamente aunque podamos describir un mundo posible que viole PII, no estamos obligados a hacerlo. Otro modo de expresar esto es afirmar que es vano recurrir a mundos espacio-temporalmente posibles para establecer o refutar PII. Para Hacking el argumento de los mundos posibles no es suficiente para probar o refutar PII. Por el contrario, la disputa acerca de la analiticidad de PII (como la ejemplificada por Wittgenstein y Russell en Tractatus) sí podría

7decidir la cuestión . Esto es así porque, en este último caso, estarían implicados asuntos puramente conceptuales relacionados con cuestiones lógicas, y no asuntos contingentes relacionados con cuestiones empíricas; la búsqueda de mundos espacio-temporalmente posibles que decidan la verdad o falsedad de PII es una empresa empírica. Considerar PII como un problema conceptual o empírico es clave para decidir el tipo de solución que amerita. Los argumentos que presenta Hacking para caracterizar tales ejemplos como insuficientes son los siguientes. Primero, que los mismos son indeterminados debido a que los objetos en ellos implicados suponen relaciones espaciales para las que no se ha definido un conjunto de leyes físicas que las gobiernen -recuérdese el caso Mach contra Newton-. Como dice Hacking, “No puede haber determinación de relaciones espaciales sin un estudio de las leyes de la naturaleza atribuidas a los

8objetos en el espacio” . Segundo, toda descripción que sea verdadera de un universo-de-dos-objetos (como el de Black) también resulta verdadera de un universo-de-un-objeto. Por ejemplo, toda descripción verdadera del universo kantiano, constituido por dos gotas de agua distintas pero idénticas, es verdadera del universo de Leibniz, formado por una sola gota de agua. Se puede replicar que la descripción “una gota está a 10 metros de la otra” es verdadera del universo de Kant (K), pero falsa del universo de Leibniz (L), pero esto en realidad depende de la filosofía del espacio que se adopte para cada universo. Por ejemplo, en el universo L las relaciones espaciales están determinadas por los objetos, de modo que esto, si se aplica al universo K, presupone la cuestión porque dicha descripción implica que “hay dos objetos” es verdadero de K ex

15

7 Puede que esta vía sea la correcta, pero ciertamente no la más fácil, sobre todo en virtud de las críticas de Quine a la analiticidad.8 Esto también es cierto para el caso, mencionado más adelante, de las dos gotas que se reflejan una en la otra o para el caso de una única gota que se refleja en sí misma. (Igualmente para el caso del tablero de ajedrez entero o dividido; o para el caso de los dos guantes coincidentes o un solo guante izquierdo).

El problema de los indiscernibles Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 7-19

hipotesi. Si se quiere probar que en K existen dos objetos no se puede afirmar esta descripción, pues ésta presupone, desde una concepción relativista del espacio, la afirmación de que hay dos objetos. Para demostrar ésta afirmación se tendría que demostrar la tesis substantiva de Newton acerca del espacio absoluto, o bien recurrir a un argumento distinto. Esto significa que los intentos de probar PII basados en argumentos a partir de mundos posibles deben comprometerse con tesis filosóficas substantivas (v. gr., la existencia del espacio absoluto o el relativismo). Aquí el mensaje es muy claro: no puedes decir, así sin más, “imagina un mundo con dos objetos” o “imagina un universo en el que hay dos objetos”; se requiere un argumento para sostener que se trata de dos y no de uno.

Las consecuencias del argumento de Hacking son interesantes por sí mismas. En principio, ante la pregunta “¿Es PII analítico, es decir, necesariamente verdadero verdadero en todos los mundos posibles - o lógicamente necesario?” Hacking sostiene que debe hacerse una distinción entre “en” y “acerca de” al afirmar esto. “Como el principio de razón suficiente, PII no es verdadero en todo mundo posible. Es verdadero acerca de todos los mundos posibles. Es un metaprincipio acerca de todas las descripciones posibles” (Hacking, 1975, p. 254).

Otra cosa. Hacking, como Strawson, insiste en que PII tiene implicaciones teológicas en la filosofía de Leibniz, pero, en contra de Strawson, sostiene que PII no es una doctrina teológica. En el Tractatus se lee: “Se dijo en otro tiempo que Dios podría crearlo todo a excepción de cuanto fuera contrario a las leyes lógicas. De un mundo “ilógico” no podríamos decir, en rigor, qué aspecto tendría” (Wittgenstein, 1961, 3.031). Si PII es una tal ley lógica, entonces no podríamos decir, esto es, describir, un mundo en el que fuera falso; tampoco podríamos pensar semejante mundo. Si PII es, en cambio, un metaprincipio, la sentencia de Wittgenstein se puede parafrasear diciendo: “No: «no podríamos describir un mundo en el que PII fuese falso», sino: «no deberíamos describir un mundo en el que PII fuese falso»”. PII, en tanto que metaprincipio, no sería un principio ontológico, un principio acerca de cómo es, o cómo podría ser, el mundo, sino una suerte de principio prescriptivo acerca de cómo debemos, o deberíamos describir, nuestro mundo.

Capítulo aparte merecen, como se ve por todo lo dicho, las afirmaciones de Wittgenstein sobre PII. William Godwin (1982, pp. 80-82) ha sostenido que existe una incoherencia en el Tractatus, la cual surge de ciertos requisitos del análisis y del rechazo del principio de identidad de indiscernibles. Recordemos que en el Tractatus toda proposición es, en principio, analizable en términos de funciones de verdad de proposiciones elementales. La posibilidad del análisis es lo que otorga sentido a las proposiciones. Pero, al no estar compuestas de

16

nombres, las proposiciones no revelan la configuración de objetos que significan, por lo cual, en cierto modo, son indeterminadas. Esto se relaciona estrechamente con la generalidad de dichas proposiciones (Wittgenstein, 1961, 5.526). El análisis va entonces desde proposiciones generales a proposiciones elementales que son funciones de verdad de tales proposiciones.

La posibilidad de pasar de proposiciones generales a funciones de verdad de proposiciones elementales, dice Godwin, conlleva cierta condición. Se requiere que para cualquier estado de cosas S, y para cualquier par de objetos a y b tal que a es un constituyente de S, debe ser imposible reemplazar a por b en S. Suponiendo que esto fuese posible, habría más de una función de verdad de proposiciones elementales que se podrían formar a partir de la proposición general, con lo cual sería imposible para la proposición general ser falsa y para la función de verdad de proposiciones elementales ser verdadera, ya que para cualquier función de verdad que sirva como análisis de la proposición general, siempre podría haber otra función de verdad idéntica en todo respecto excepto en que contiene el nombre de algún otro objeto, distinto al objeto nombrado en la proposición elemental original. Para asegurar la posibilidad de un análisis completo, debe ser imposible para cualesquiera dos objetos combinarse del mismo modo en idénticos estados de cosas. Esta condición, dice Godwin, implica el principio de identidad de indiscernibles puesto que, si dos objetos no pueden figurar del mismo modo en el mismo estado de cosas, entonces dos objetos no pueden tener todas sus propiedades en común. Sin embargo, el principio es explícitamente rechazado por Wittgenstein (1961, 5.5302). Allí dice que, aun cuando la proposición “dos objetos tienen todas sus propiedades en común” no sea correcta, tiene sin embargo sentido. Para Godwin esto último significa que la proposición en cuestión es empírica o contingente, no analítica o necesaria. Esto es así porque sólo las proposiciones empíricas tienen sentido (Sinn) -las proposiciones filosóficas no lo tienen (Unsinn) y las tautologías y

9contradicciones carecen de él (Sinnlos) (Wittgenstein, 1961, 4. 461)- .

¿Por qué la proposición “dos objetos tienen todas sus propiedades en común” es empírica? Wittgenstein habla en ocasiones de “propiedades externas” o “materiales” (1961, 2.01231 - 2.0231); a partir de las propiedades externas de los objetos y de las relaciones que mantengan entre sí, se configuran los hechos o Sachverhalten, y las proposiciones que los describen son consecuentemente (según teoría de la figura) empíricas. Wittgenstein no dice explícitamente que

17

9 En 5.5303 Wittgenstein afirma la proposición “dos objetos son idénticos” es una proposición sin sentido (Unsinn). Puesto que las proposiciones filosóficas son de éste tipo, la tesis de que “dos objetos son idénticos” es una tesis metafísica; en tanto, la tesis de que “dos objetos tienen todas sus propiedades en común” es una tesis empírica. ¿Qué diría Wittgenstein del simbolismo “ ”?

El problema de los indiscernibles Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 7-19

hipotesi. Si se quiere probar que en K existen dos objetos no se puede afirmar esta descripción, pues ésta presupone, desde una concepción relativista del espacio, la afirmación de que hay dos objetos. Para demostrar ésta afirmación se tendría que demostrar la tesis substantiva de Newton acerca del espacio absoluto, o bien recurrir a un argumento distinto. Esto significa que los intentos de probar PII basados en argumentos a partir de mundos posibles deben comprometerse con tesis filosóficas substantivas (v. gr., la existencia del espacio absoluto o el relativismo). Aquí el mensaje es muy claro: no puedes decir, así sin más, “imagina un mundo con dos objetos” o “imagina un universo en el que hay dos objetos”; se requiere un argumento para sostener que se trata de dos y no de uno.

Las consecuencias del argumento de Hacking son interesantes por sí mismas. En principio, ante la pregunta “¿Es PII analítico, es decir, necesariamente verdadero verdadero en todos los mundos posibles - o lógicamente necesario?” Hacking sostiene que debe hacerse una distinción entre “en” y “acerca de” al afirmar esto. “Como el principio de razón suficiente, PII no es verdadero en todo mundo posible. Es verdadero acerca de todos los mundos posibles. Es un metaprincipio acerca de todas las descripciones posibles” (Hacking, 1975, p. 254).

Otra cosa. Hacking, como Strawson, insiste en que PII tiene implicaciones teológicas en la filosofía de Leibniz, pero, en contra de Strawson, sostiene que PII no es una doctrina teológica. En el Tractatus se lee: “Se dijo en otro tiempo que Dios podría crearlo todo a excepción de cuanto fuera contrario a las leyes lógicas. De un mundo “ilógico” no podríamos decir, en rigor, qué aspecto tendría” (Wittgenstein, 1961, 3.031). Si PII es una tal ley lógica, entonces no podríamos decir, esto es, describir, un mundo en el que fuera falso; tampoco podríamos pensar semejante mundo. Si PII es, en cambio, un metaprincipio, la sentencia de Wittgenstein se puede parafrasear diciendo: “No: «no podríamos describir un mundo en el que PII fuese falso», sino: «no deberíamos describir un mundo en el que PII fuese falso»”. PII, en tanto que metaprincipio, no sería un principio ontológico, un principio acerca de cómo es, o cómo podría ser, el mundo, sino una suerte de principio prescriptivo acerca de cómo debemos, o deberíamos describir, nuestro mundo.

Capítulo aparte merecen, como se ve por todo lo dicho, las afirmaciones de Wittgenstein sobre PII. William Godwin (1982, pp. 80-82) ha sostenido que existe una incoherencia en el Tractatus, la cual surge de ciertos requisitos del análisis y del rechazo del principio de identidad de indiscernibles. Recordemos que en el Tractatus toda proposición es, en principio, analizable en términos de funciones de verdad de proposiciones elementales. La posibilidad del análisis es lo que otorga sentido a las proposiciones. Pero, al no estar compuestas de

16

nombres, las proposiciones no revelan la configuración de objetos que significan, por lo cual, en cierto modo, son indeterminadas. Esto se relaciona estrechamente con la generalidad de dichas proposiciones (Wittgenstein, 1961, 5.526). El análisis va entonces desde proposiciones generales a proposiciones elementales que son funciones de verdad de tales proposiciones.

La posibilidad de pasar de proposiciones generales a funciones de verdad de proposiciones elementales, dice Godwin, conlleva cierta condición. Se requiere que para cualquier estado de cosas S, y para cualquier par de objetos a y b tal que a es un constituyente de S, debe ser imposible reemplazar a por b en S. Suponiendo que esto fuese posible, habría más de una función de verdad de proposiciones elementales que se podrían formar a partir de la proposición general, con lo cual sería imposible para la proposición general ser falsa y para la función de verdad de proposiciones elementales ser verdadera, ya que para cualquier función de verdad que sirva como análisis de la proposición general, siempre podría haber otra función de verdad idéntica en todo respecto excepto en que contiene el nombre de algún otro objeto, distinto al objeto nombrado en la proposición elemental original. Para asegurar la posibilidad de un análisis completo, debe ser imposible para cualesquiera dos objetos combinarse del mismo modo en idénticos estados de cosas. Esta condición, dice Godwin, implica el principio de identidad de indiscernibles puesto que, si dos objetos no pueden figurar del mismo modo en el mismo estado de cosas, entonces dos objetos no pueden tener todas sus propiedades en común. Sin embargo, el principio es explícitamente rechazado por Wittgenstein (1961, 5.5302). Allí dice que, aun cuando la proposición “dos objetos tienen todas sus propiedades en común” no sea correcta, tiene sin embargo sentido. Para Godwin esto último significa que la proposición en cuestión es empírica o contingente, no analítica o necesaria. Esto es así porque sólo las proposiciones empíricas tienen sentido (Sinn) -las proposiciones filosóficas no lo tienen (Unsinn) y las tautologías y

9contradicciones carecen de él (Sinnlos) (Wittgenstein, 1961, 4. 461)- .

¿Por qué la proposición “dos objetos tienen todas sus propiedades en común” es empírica? Wittgenstein habla en ocasiones de “propiedades externas” o “materiales” (1961, 2.01231 - 2.0231); a partir de las propiedades externas de los objetos y de las relaciones que mantengan entre sí, se configuran los hechos o Sachverhalten, y las proposiciones que los describen son consecuentemente (según teoría de la figura) empíricas. Wittgenstein no dice explícitamente que

17

9 En 5.5303 Wittgenstein afirma la proposición “dos objetos son idénticos” es una proposición sin sentido (Unsinn). Puesto que las proposiciones filosóficas son de éste tipo, la tesis de que “dos objetos son idénticos” es una tesis metafísica; en tanto, la tesis de que “dos objetos tienen todas sus propiedades en común” es una tesis empírica. ¿Qué diría Wittgenstein del simbolismo “ ”?

El problema de los indiscernibles Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 7-19

19

las propiedades suscritas en “dos objetos tienen todas sus propiedades en común” sean externas o materiales pero, dado lo que dice acerca de las proposiciones con sentido y lo que dice en las proposiciones 1 y 2, la interpretación resulta plausible. Pero, si esto es así, si “dos objetos tienen todas sus propiedades en común” tiene sentido y por tanto es empírica, dice Godwin, la identidad de los indiscernibles debe ser rechazada, y ello por razones puramente empíricas. Lo empíricamente cierto es que dos objetos no tienen todas sus propiedades en común. Se ve en qué sentido, para Godwin, hay una incoherencia: por un lado el análisis implica la identidad de los indiscernibles (dos objetos no pueden tener todas sus propiedades en común) como tesis necesaria y, por otro, se rechaza el principio por ser una verdad contingente. Como dice Godwin, la posibilidad de llegar analíticamente a proposiciones elementales implica una condición que a su vez implica la identidad de los indiscernibles; pero la identidad de los indiscernibles debe ser rechazada porque la identidad de indiscernibles expresa una proposición contingente, no una proposición necesaria. ¿Por qué surge la incoherencia? Según Godwin, surge sobre el trasfondo de cierta concepción del análisis filosófico; pero, ¿qué rasgos de la teoría de Wittgenstein dan origen a tal concepción? Sobre ello no dice mayor cosa.

Sea como fuere, el comentario de Godwin permite rescatar la diferencia entre los enunciados “dos objetos son idénticos” y “dos objetos tienen todas sus propiedades en común”. Según Wittgenstein, la una no puede implicar la otra. [Considérese Tractatus 5.53. En 5.5302, Wittgenstein dice que a partir de la definición russelliana de "=" (Principia Mathematica, Def. 13.01) no puede decirse que dos objetos tengan todas sus propiedades en común porque, aun cuando la proposición en cuestión no sea correcta, tiene sin embargo sentido (Sinn). Si tiene sentido es entonces empírica y por tanto contingente. A continuación, en 5.5303, Wittgenstein asevera que decir de dos cosas que son idénticas es un sinsentido (Unsinn), es decir, la proposición “dos objetos son idénticos” es una proposición metafísica, no una tesis analítica o empírica. La Ley de Leibniz afirma que dos objetos son idénticos si y sólo si esos dos objetos tienen todas sus propiedades en común. Según Wittgenstein, no habría ninguna relación de implicación entre las proposiciones “dos objetos son idénticos” y “dos objetos tienen todas sus propiedades en común”, a menos, claro, que la Ley de Leibniz sea ella misma una tesis metafísica (desde Wittgenstein).

Bibliografía

Black, M. (1952). The identity of indiscernibles. Mind, 61(242), 153-164.Godwin, W. (1982). Analysis and the Identity of Indiscernibles. Analysis, 42 (2), 80-82.

Hacking, I. (1975). The Identity of Indiscernibles. The Journal of Philosophy, 72(9), 249-256.Keene, G. B. (1956). Note on the Identity of Indiscernibles. Mind, 65(258), 252-254.O'Connor, D. J. (1954). The Identity of Indiscernibles. Analysis, 14(5), 103-110.O'Leary-Hawthorne, J. (1995). The Bundle Theory of Substance and the Identity of Indiscernibles. Analysis, 55(3), 191-196.Putnam, H. (1981). Razón, verdad e historia. Madrid: Tecnos.Quine, W. V. O. (2002), “Dos dogmas del empirismo”, en W.V.O. Quine. Desde un punto de vista lógico. Barcelona: Paidós, 61-93.Russell, B., Whitehead, A., (1910). Principia Mathematica. Vol. I., Cambridge: Cambridge University Press.Wittgenstein, L. (1961). Tractatus Logico-Philosophicus. Londres: Routledge & Kegan Paul.

18

El problema de los indiscernibles Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 7-19

19

las propiedades suscritas en “dos objetos tienen todas sus propiedades en común” sean externas o materiales pero, dado lo que dice acerca de las proposiciones con sentido y lo que dice en las proposiciones 1 y 2, la interpretación resulta plausible. Pero, si esto es así, si “dos objetos tienen todas sus propiedades en común” tiene sentido y por tanto es empírica, dice Godwin, la identidad de los indiscernibles debe ser rechazada, y ello por razones puramente empíricas. Lo empíricamente cierto es que dos objetos no tienen todas sus propiedades en común. Se ve en qué sentido, para Godwin, hay una incoherencia: por un lado el análisis implica la identidad de los indiscernibles (dos objetos no pueden tener todas sus propiedades en común) como tesis necesaria y, por otro, se rechaza el principio por ser una verdad contingente. Como dice Godwin, la posibilidad de llegar analíticamente a proposiciones elementales implica una condición que a su vez implica la identidad de los indiscernibles; pero la identidad de los indiscernibles debe ser rechazada porque la identidad de indiscernibles expresa una proposición contingente, no una proposición necesaria. ¿Por qué surge la incoherencia? Según Godwin, surge sobre el trasfondo de cierta concepción del análisis filosófico; pero, ¿qué rasgos de la teoría de Wittgenstein dan origen a tal concepción? Sobre ello no dice mayor cosa.

Sea como fuere, el comentario de Godwin permite rescatar la diferencia entre los enunciados “dos objetos son idénticos” y “dos objetos tienen todas sus propiedades en común”. Según Wittgenstein, la una no puede implicar la otra. [Considérese Tractatus 5.53. En 5.5302, Wittgenstein dice que a partir de la definición russelliana de "=" (Principia Mathematica, Def. 13.01) no puede decirse que dos objetos tengan todas sus propiedades en común porque, aun cuando la proposición en cuestión no sea correcta, tiene sin embargo sentido (Sinn). Si tiene sentido es entonces empírica y por tanto contingente. A continuación, en 5.5303, Wittgenstein asevera que decir de dos cosas que son idénticas es un sinsentido (Unsinn), es decir, la proposición “dos objetos son idénticos” es una proposición metafísica, no una tesis analítica o empírica. La Ley de Leibniz afirma que dos objetos son idénticos si y sólo si esos dos objetos tienen todas sus propiedades en común. Según Wittgenstein, no habría ninguna relación de implicación entre las proposiciones “dos objetos son idénticos” y “dos objetos tienen todas sus propiedades en común”, a menos, claro, que la Ley de Leibniz sea ella misma una tesis metafísica (desde Wittgenstein).

Bibliografía

Black, M. (1952). The identity of indiscernibles. Mind, 61(242), 153-164.Godwin, W. (1982). Analysis and the Identity of Indiscernibles. Analysis, 42 (2), 80-82.

Hacking, I. (1975). The Identity of Indiscernibles. The Journal of Philosophy, 72(9), 249-256.Keene, G. B. (1956). Note on the Identity of Indiscernibles. Mind, 65(258), 252-254.O'Connor, D. J. (1954). The Identity of Indiscernibles. Analysis, 14(5), 103-110.O'Leary-Hawthorne, J. (1995). The Bundle Theory of Substance and the Identity of Indiscernibles. Analysis, 55(3), 191-196.Putnam, H. (1981). Razón, verdad e historia. Madrid: Tecnos.Quine, W. V. O. (2002), “Dos dogmas del empirismo”, en W.V.O. Quine. Desde un punto de vista lógico. Barcelona: Paidós, 61-93.Russell, B., Whitehead, A., (1910). Principia Mathematica. Vol. I., Cambridge: Cambridge University Press.Wittgenstein, L. (1961). Tractatus Logico-Philosophicus. Londres: Routledge & Kegan Paul.

18

El problema de los indiscernibles Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 7-19

Globalization: through political networks

Laura Macía*Hernán Maldonado**

Resumen

Este artículo tiene dos partes. En la primera, se hará referencia conceptual al termino “Globalización”. Mostrando las criticas existentes y el uso actual de las mismas, “globalización” será definida como la emergencia de ideas y sustancias a través de nudos que muestran encadenamientos progresivos que forman cadenas (globales) de interconectividad; estas cadenas también son entendidas en un contexto político de gente en acción. La segunda parte analizará de FMI audits, y, con esto, el FMI como actor global, utilizando el análisis de Nustad del trabajo etnográfico de Harper, que ve el FMI como punto de inicio. A la luz de un estudio de caso de otra misión FMI, el análisis de Nustad será criticado y re propuesto a la luz del esquema teórico de la primera parte del texto.

Palabras clave: globalización, redes, poder, FMI.

Abstract

This paper will consist of two parts. In the first one, it will present a proposal of conceptualization of the term “globalization”. Drawing from existing critiques to its present use, globalization will be defined as the flow of ideas and substances across nodes of progressively growing chains of (global) interconnectedness; these chains are also understood in a political context of people in action. The second part of the paper will analyze the IMF audits, and, through this, the IMF as a global actor, using Nustad's analysis of Harper's ethnographic work on the IMF as a starting point. In the light of the case study of another IMF audit mission, Nustad's analysis will be critiqued and further developed by means of the theoretical proposal presented in the first part of the paper.

Key Words: globalization, networks, power, IMF.

* Abogada y matemática de la Universidad de Los Andes (Bogotá), Magíster en Antropología de la Universidad Nacional (Bogotá), Candidata al Doctorado en Antropología en la Universidad de Pittsburg (Pennsylvania, EE.UU.).** Economista de la Universidad de Los Andes (Bogotá), estudios de postgrado en el Korean Development Institute School.

21

Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 21-35

Globalization, as it has been understood by the social sciences, has become a heavily loaded term. Far from merely describing a phenomenon, it has defined a world view and determined futures; in short, globalization has become a strongly ideological term. To make things worse, as Eriksen puts it,

the scope as well as the substance of globalization seems to represent everything that a good social anthropologist should be wary of: grand comparisons often underpinned by flimsy evidence, whimsical and eclectic methodologies, a fondness for sweeping generalizations and, hovering in the background, the specter of evolutionism. (Eriksen, 2003, p. 3)

Nonetheless, it is fair to acknowledge that contemporary anthropological theory has been addressing some of these theoretical problems that surround the concept (see Eriksen 2003, Tsing 2005, Hodgson). Despite this fact, the old imaginaries still linger in the background whenever the term is used and an explicit attempt to directly deal with these issues takes place. In particular, it is important to conceptualize globalization in a way that change and agency can be recognized in it, and especially in a way in which an endpoint of homogeneity is not assumed. This demands questioning some of the common understandings surrounding this idea and offering an alternative that is as unambiguous as possible.

With this in mind, this paper will offer such conceptualization, gathering from some of the advances of recent anthropological theory. After doing this, the new conceptualization will be put into practice in a case study on the International Monetary Fund. This case study will be a response to Nustad's interpretation of Harper's ethnographic work on this institution.

Globalization: a few theoretical clarifications

The concept of globalization, during the last decades, has been strongly embraced by social scientists. Notwithstanding, its meaning has remained more often than not vague, to the point that it has now very misleading and inappropriate connotations. “Globalization” has been understood as the siamese sister of “neoliberalism”; as the (dual) opposition to “the local”; as an omnipresent and unstoppable phenomenon; as a sweeping and faceless force (Eriksen, 2003, p. 4). Each one of these assumptions about globalization presents considerable problems, many of which have been already identified in the literature. This section will go over some of these statements with the purpose of offering a more robust and functional definition of the term.

What is global about globalization? (And what is not)

A first and obvious question regarding globalization as a concept is that of what does “global” stand for in it. The answer that the traditional approaches have given to this question has been to oppose the “global” to the “local”, which translates into projects that stress the articulation of one the local with the other, or that oppose these terms as parts of a fixed dichotomy. This view has also manifested itself in the identification of causal relationships between the

1two terms . As an alternative to this approach, Nustad suggests that local and global should be seen as different perspectives applied to the same objects, rather than as ends in a dichotomy. According to him, by seeing the global and the local as alternative perspectives

No interaction can be said to take place between a local and global level, and the global cannot be said to influence the local in any meaningful way. (…) The reason why it still appears to do so is a result of the conceptual apparatus that has underpinned much of the modern social sciences, including anthropology. (Nustad, 2003, p. 125).

Although this standpoint is not a new idea in itself (see Santos, 1991), it does offer an alternative way out to the problem of dichotomization, and there are a number of reasons that make this desirable. Above all, a vision of dual opposition says little about the concept of globalization itself: the global as part of a dual opposition becomes not-something (not-local), rather than something in itself. This allows for misrepresentations and leaves a very broad spectrum of possible definitions for the global, one of which has proven to be very tempting: to equate the “global” with the “universal”. Nonetheless, as it has been stressed by various authors, these two concepts are not equivalent and it is actually crucial not to confuse them; doing so would be misleading and untrue (Eriksen, 2003; Hodgson, 2002; Nustad, 2003; Tsing, 2005). This has both theoretical and methodological consequences that is important to underscore.

From a theoretical point of view, the difference between the global and the universal lies in that the former has no claim of comprising everyone and everything, while the latter does. Therefore, the argument being made is that globalization does not necessarily comprise everyone, everywhere. It is actually a discrete phenomenon, that does not make it necessary to think about infinite continuity.

As for the methodological implications of eliminating the universal scope of globalization, the most significant is that, in doing so, the relevance of

1 See Nustad (2003) for an in-depth discussion on this topic.

2322

Globalization: through political networks Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 21-35

Globalization, as it has been understood by the social sciences, has become a heavily loaded term. Far from merely describing a phenomenon, it has defined a world view and determined futures; in short, globalization has become a strongly ideological term. To make things worse, as Eriksen puts it,

the scope as well as the substance of globalization seems to represent everything that a good social anthropologist should be wary of: grand comparisons often underpinned by flimsy evidence, whimsical and eclectic methodologies, a fondness for sweeping generalizations and, hovering in the background, the specter of evolutionism. (Eriksen, 2003, p. 3)

Nonetheless, it is fair to acknowledge that contemporary anthropological theory has been addressing some of these theoretical problems that surround the concept (see Eriksen 2003, Tsing 2005, Hodgson). Despite this fact, the old imaginaries still linger in the background whenever the term is used and an explicit attempt to directly deal with these issues takes place. In particular, it is important to conceptualize globalization in a way that change and agency can be recognized in it, and especially in a way in which an endpoint of homogeneity is not assumed. This demands questioning some of the common understandings surrounding this idea and offering an alternative that is as unambiguous as possible.

With this in mind, this paper will offer such conceptualization, gathering from some of the advances of recent anthropological theory. After doing this, the new conceptualization will be put into practice in a case study on the International Monetary Fund. This case study will be a response to Nustad's interpretation of Harper's ethnographic work on this institution.

Globalization: a few theoretical clarifications

The concept of globalization, during the last decades, has been strongly embraced by social scientists. Notwithstanding, its meaning has remained more often than not vague, to the point that it has now very misleading and inappropriate connotations. “Globalization” has been understood as the siamese sister of “neoliberalism”; as the (dual) opposition to “the local”; as an omnipresent and unstoppable phenomenon; as a sweeping and faceless force (Eriksen, 2003, p. 4). Each one of these assumptions about globalization presents considerable problems, many of which have been already identified in the literature. This section will go over some of these statements with the purpose of offering a more robust and functional definition of the term.

What is global about globalization? (And what is not)

A first and obvious question regarding globalization as a concept is that of what does “global” stand for in it. The answer that the traditional approaches have given to this question has been to oppose the “global” to the “local”, which translates into projects that stress the articulation of one the local with the other, or that oppose these terms as parts of a fixed dichotomy. This view has also manifested itself in the identification of causal relationships between the

1two terms . As an alternative to this approach, Nustad suggests that local and global should be seen as different perspectives applied to the same objects, rather than as ends in a dichotomy. According to him, by seeing the global and the local as alternative perspectives

No interaction can be said to take place between a local and global level, and the global cannot be said to influence the local in any meaningful way. (…) The reason why it still appears to do so is a result of the conceptual apparatus that has underpinned much of the modern social sciences, including anthropology. (Nustad, 2003, p. 125).

Although this standpoint is not a new idea in itself (see Santos, 1991), it does offer an alternative way out to the problem of dichotomization, and there are a number of reasons that make this desirable. Above all, a vision of dual opposition says little about the concept of globalization itself: the global as part of a dual opposition becomes not-something (not-local), rather than something in itself. This allows for misrepresentations and leaves a very broad spectrum of possible definitions for the global, one of which has proven to be very tempting: to equate the “global” with the “universal”. Nonetheless, as it has been stressed by various authors, these two concepts are not equivalent and it is actually crucial not to confuse them; doing so would be misleading and untrue (Eriksen, 2003; Hodgson, 2002; Nustad, 2003; Tsing, 2005). This has both theoretical and methodological consequences that is important to underscore.

From a theoretical point of view, the difference between the global and the universal lies in that the former has no claim of comprising everyone and everything, while the latter does. Therefore, the argument being made is that globalization does not necessarily comprise everyone, everywhere. It is actually a discrete phenomenon, that does not make it necessary to think about infinite continuity.

As for the methodological implications of eliminating the universal scope of globalization, the most significant is that, in doing so, the relevance of

1 See Nustad (2003) for an in-depth discussion on this topic.

2322

Globalization: through political networks Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 21-35

anthropology as discipline that deals with this subject matter, is secured. When globalization is seen as universal, anthropology has little to say; when universality disappears, empirical research becomes possible. This doesn't mean that a single research project can grasp globalization in its entirety; it cannot. What the reduction of the concept allows is the existence of ethnographic projects about this topic. An example of this is Tsing's 2005 project. Throughout it she sees universals only as aspirations and focuses instead on the travels of such aspirations across distances and differences. Having reduced the scope of the global to something discrete, it becomes seizable: Tsing defines this travel of universal aspirations as her ethnographic object, and emphasizes the “friction” that she identifies in it (Tsing, 2005, p. 7).

Having said this, nonetheless, the question remains: what, then, is global in globalization? Up to this point it has been suggested that it is not a negation of the local, and it is not a claim of universality. But, what is it? Following Nustad, it will be argued that the global refers to a perspective. In particular, it will be argued that the extent of the phenomenon called globalization is what gives it its “globality”. The next section will focus in describing in more detail the phenomenon of globalization as such.

Connections and flows

After having dispelled some of the most common misconceptions about the term “globalization”, the question of what exactly is being described by this word still remains. In order to answer it, two of the alternatives that critics of the term “globalization” have already proposed will be discussed, in order to suggest subsequently some modifications and additions to them.

The first of the alternative terminologies to be discussed is that suggested by Tsing (2005), who instead of using the term “globalization” uses the expression global connections. This is also somewhat similar to Nustad's visualization of globalization through networks; he argues that this representation allows thinking of the local and the global as coexisting everywhere, while negating any universal claims (Nustad, 2003). The second alternative to the term globalization, as identified by Eriksen among many others, is the idea of transnational flows: “Whether it is ideas or substances that flow, or both, they have origins and destinations, and the flows are instigated by people” (Eriksen, 2003, p. 4).

These two alternatives are in no way, contradictory with each other. They just stress different features, while narrowing the scope of what is to be understood as globalization. Nonetheless, as it will be seen, they also have some downfalls of their own. This is why instead of substituting an existing but misconceived

term such as “globalization” with new (but also limited) concepts, this paper suggests preserving the former, but clearly agreeing on a definition and certain specificities of how it should, and should not, be understood.

The first of the specificities here suggested is that globalization is, at its core, about connections. It is about people and things that are connected with each other and that build relationships. The fact that the breadth of these connections is expanding, and reaching a growing number of people and things from progressively more distant places is what makes those connections global. Hence Tsing's “global connections”. The problem with this terminology is that these connections are not static and their relevance doesn't necessarily lie in links themselves, as “global connections” seems to point out. What makes these connections particularly interesting is the flows that they allow, which is precisely what is stressed in the idea of “transnational flows”. The problem with this other term, though, is that it erroneously emphasizes the concept of nations, when this particular nuance is not a relevant aspect, by itself, of those connections and flows.

After keeping what is valuable in these two alternatives and turning down what is not, we have left that globalization is about connections and flows within those connections; it is also about the observed trend of the chains or networks so formed, to increase their length. In short, globalization refers to the flow of ideas and substances across nodes of progressively growing chains of (global) interconnectedness. It should be noted that, as has been defined, the concept of globalization is entirely descriptive, not prescriptive; the existence of these connections and flows does not entail a universally homogeneous future. As Tsing asserts, the chains of global connections “are made up of uneven and awkward links” (Tsing, 2005, p. 4).

Political connections

Before feeling completely comfortable with this vision of globalization, one last piece should be dealt with. It refers to the acknowledgement of the fact that these connections and flows occurring in a political framework. This is a response to D.L. Hodgson's claim that the idea of globalization has masked “the power relations implicit in [its] origins, assumptions, ideologies and practices.” (Hodgson, 2002, p. 5).

Making explicit that globalization must not be understood as a prescriptive concept and that it is not a project that aims to an endpoint of homogeneity, as we did above, is only part of the task of unmasking the power relations in globalization. It is still missing to acknowledge that the practice of globalization itself is also a political endeavor. In doing so, Eriksen's words, already

2524

Globalization: through political networks Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 21-35

anthropology as discipline that deals with this subject matter, is secured. When globalization is seen as universal, anthropology has little to say; when universality disappears, empirical research becomes possible. This doesn't mean that a single research project can grasp globalization in its entirety; it cannot. What the reduction of the concept allows is the existence of ethnographic projects about this topic. An example of this is Tsing's 2005 project. Throughout it she sees universals only as aspirations and focuses instead on the travels of such aspirations across distances and differences. Having reduced the scope of the global to something discrete, it becomes seizable: Tsing defines this travel of universal aspirations as her ethnographic object, and emphasizes the “friction” that she identifies in it (Tsing, 2005, p. 7).

Having said this, nonetheless, the question remains: what, then, is global in globalization? Up to this point it has been suggested that it is not a negation of the local, and it is not a claim of universality. But, what is it? Following Nustad, it will be argued that the global refers to a perspective. In particular, it will be argued that the extent of the phenomenon called globalization is what gives it its “globality”. The next section will focus in describing in more detail the phenomenon of globalization as such.

Connections and flows

After having dispelled some of the most common misconceptions about the term “globalization”, the question of what exactly is being described by this word still remains. In order to answer it, two of the alternatives that critics of the term “globalization” have already proposed will be discussed, in order to suggest subsequently some modifications and additions to them.

The first of the alternative terminologies to be discussed is that suggested by Tsing (2005), who instead of using the term “globalization” uses the expression global connections. This is also somewhat similar to Nustad's visualization of globalization through networks; he argues that this representation allows thinking of the local and the global as coexisting everywhere, while negating any universal claims (Nustad, 2003). The second alternative to the term globalization, as identified by Eriksen among many others, is the idea of transnational flows: “Whether it is ideas or substances that flow, or both, they have origins and destinations, and the flows are instigated by people” (Eriksen, 2003, p. 4).

These two alternatives are in no way, contradictory with each other. They just stress different features, while narrowing the scope of what is to be understood as globalization. Nonetheless, as it will be seen, they also have some downfalls of their own. This is why instead of substituting an existing but misconceived

term such as “globalization” with new (but also limited) concepts, this paper suggests preserving the former, but clearly agreeing on a definition and certain specificities of how it should, and should not, be understood.

The first of the specificities here suggested is that globalization is, at its core, about connections. It is about people and things that are connected with each other and that build relationships. The fact that the breadth of these connections is expanding, and reaching a growing number of people and things from progressively more distant places is what makes those connections global. Hence Tsing's “global connections”. The problem with this terminology is that these connections are not static and their relevance doesn't necessarily lie in links themselves, as “global connections” seems to point out. What makes these connections particularly interesting is the flows that they allow, which is precisely what is stressed in the idea of “transnational flows”. The problem with this other term, though, is that it erroneously emphasizes the concept of nations, when this particular nuance is not a relevant aspect, by itself, of those connections and flows.

After keeping what is valuable in these two alternatives and turning down what is not, we have left that globalization is about connections and flows within those connections; it is also about the observed trend of the chains or networks so formed, to increase their length. In short, globalization refers to the flow of ideas and substances across nodes of progressively growing chains of (global) interconnectedness. It should be noted that, as has been defined, the concept of globalization is entirely descriptive, not prescriptive; the existence of these connections and flows does not entail a universally homogeneous future. As Tsing asserts, the chains of global connections “are made up of uneven and awkward links” (Tsing, 2005, p. 4).

Political connections

Before feeling completely comfortable with this vision of globalization, one last piece should be dealt with. It refers to the acknowledgement of the fact that these connections and flows occurring in a political framework. This is a response to D.L. Hodgson's claim that the idea of globalization has masked “the power relations implicit in [its] origins, assumptions, ideologies and practices.” (Hodgson, 2002, p. 5).

Making explicit that globalization must not be understood as a prescriptive concept and that it is not a project that aims to an endpoint of homogeneity, as we did above, is only part of the task of unmasking the power relations in globalization. It is still missing to acknowledge that the practice of globalization itself is also a political endeavor. In doing so, Eriksen's words, already

2524

Globalization: through political networks Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 21-35

mentioned, should be repeated: “Whether it is ideas or substances that flow, or both, they have origins and destinations, and the flows are instigated by people” (Eriksen, 2003, p. 4, italics out of text).

Acknowledging that globalization is about people is important in two senses. On the one hand, it recognizes the contribution of perspectives that focus on embodiment and the bodily experience. It reminds us that, in the end, globalization is at its core about people that are beings-in-the-world, as Csordas puts it (Csordas, 2002, p. 3). On the other hand, it opens a space to think about power, and its centrality in animating social life. Power is decisive in defining what flows, where, and when. Power is also what determines who in these global chains of connections has agency. Ideas and substances don't flow in a neutral vacuum; they do so instigated by people positioned alongside each other in political relations. This means, in particular, that power exists in each one of the nodes and flows of globalization. This explains why globalization is not a unidirectional project of universalization: power is not simply exercised by some “powerful people” who define goals and means, but it is rather constantly negotiated and exercised in all the levels of the connections. This allows for change and helps explain Tsing's “uneven and awkward links”.

Globalization in practice: the IMF audit (revisited)

As a way of better understanding the benefits of the definition of globalization offered above, a case study is now presented as a response to Nustad's discussion of the International Monetary Fund as a “global actor” (Nustad, 2003, pp. 131-134). As it will be argued, although Nustad would probably agree with most of what has been said about the concept of globalization (as a matter of fact, many of the points above mentioned were inspired by his own proposals), his case study is not consistent with it. In particular, Nustad seems to fall into the trap of covering power in globalization, and ignores the full potential to understand it as a political phenomenon. The present case study will add to his own development and, hopefully, will help build a stronger and clearer vision of globalization as a practice.

As it was explained above, Nustad proposes, as a model for understanding the globalization, the idea of a network, since it is simultaneously local and global and, therefore, offers an alternative to the paradigm of the global / local opposition. In this context, Nustad identifies what he calls “global actors”, which are the ones constituted through particularly long chains. He then argues, being consistent with his model, that the agency of these actors cannot be explained as the “global” impacting on the “local”, but rather as held together through practices. As a political consequence, he argues, these global actors become “less threatening” (Nustad, 2003, p. 125). In order to illustrate

his point, he makes use of R. Harper's ethnography of an IMF audit mission in a country identified as “Arcadia”.

This section will begin with a short presentation of both Harper's ethnographic work and Nustad's use of it; afterwards, Nustad's conclusions will be compared with another case study about another IMF audit mission, this time in a country

2that will be identified as “Ersilia” . An analysis of both case studies will follow, making use of the theoretical discussion presented above about globalization. Conclusions will then be presented, underscoring the new insights provided by that discussion.

The IMF as a “global actor”

Nustad's proposal regarding the study of global actors recommends the use of the network model, which means that globalization is not actually seen either as a global, nor as a local phenomenon; this starting point is clearly compatible with the theoretical discussion offered above. In accordance with this model, Nustad argues that “techniques such as audits are instrumental in keeping the different parts of the network associated together. Audits are tools used, among others, by global actors to create connectivity, because they can be used to associate a huge number of objects, people and processes.” He then continues: “They are furthermore powerful; because once these entities have been associated they define the extent of the possible.” (Nustad, 2003, p. 131)

All these deductions are quite compatible with the definition of globalization proposed here. Notwithstanding, as it will be shown, Nustad's own interpretation of the IMF case falls short in its scope and obscures two of the most important aspects of this phenomenon: its connectivity and its political nature.

Nustad's analysis of the IMF work focuses on one auditing mission of the IMF to the country anonymized by Harper as “Arcadia". It is stressed that this encounter is interpretative, negotiable, and social in nature; the goal of the mission is not to find a clear-cut picture of the country, but rather to “negotiate a version of the economy to which all could agree” (Nustad, 2003, p. 132). The mission begins with a report produced by Arcadia's authorities, which is given to the IMF team upon their arrival. Then, a process of inquiring into this report begins, which builds up through interviews and negotiations with different technicians and authorities of Arcadia. All the IMF team then gathers in a hotel room and, after long and exhausting nights of work, creates a particular picture

2 This case study is the result of extensive interviewing of a first-hand participant of the audit, who was involved in it as part of the government team in Ersilia.

2726

Globalization: through political networks Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 21-35

mentioned, should be repeated: “Whether it is ideas or substances that flow, or both, they have origins and destinations, and the flows are instigated by people” (Eriksen, 2003, p. 4, italics out of text).

Acknowledging that globalization is about people is important in two senses. On the one hand, it recognizes the contribution of perspectives that focus on embodiment and the bodily experience. It reminds us that, in the end, globalization is at its core about people that are beings-in-the-world, as Csordas puts it (Csordas, 2002, p. 3). On the other hand, it opens a space to think about power, and its centrality in animating social life. Power is decisive in defining what flows, where, and when. Power is also what determines who in these global chains of connections has agency. Ideas and substances don't flow in a neutral vacuum; they do so instigated by people positioned alongside each other in political relations. This means, in particular, that power exists in each one of the nodes and flows of globalization. This explains why globalization is not a unidirectional project of universalization: power is not simply exercised by some “powerful people” who define goals and means, but it is rather constantly negotiated and exercised in all the levels of the connections. This allows for change and helps explain Tsing's “uneven and awkward links”.

Globalization in practice: the IMF audit (revisited)

As a way of better understanding the benefits of the definition of globalization offered above, a case study is now presented as a response to Nustad's discussion of the International Monetary Fund as a “global actor” (Nustad, 2003, pp. 131-134). As it will be argued, although Nustad would probably agree with most of what has been said about the concept of globalization (as a matter of fact, many of the points above mentioned were inspired by his own proposals), his case study is not consistent with it. In particular, Nustad seems to fall into the trap of covering power in globalization, and ignores the full potential to understand it as a political phenomenon. The present case study will add to his own development and, hopefully, will help build a stronger and clearer vision of globalization as a practice.

As it was explained above, Nustad proposes, as a model for understanding the globalization, the idea of a network, since it is simultaneously local and global and, therefore, offers an alternative to the paradigm of the global / local opposition. In this context, Nustad identifies what he calls “global actors”, which are the ones constituted through particularly long chains. He then argues, being consistent with his model, that the agency of these actors cannot be explained as the “global” impacting on the “local”, but rather as held together through practices. As a political consequence, he argues, these global actors become “less threatening” (Nustad, 2003, p. 125). In order to illustrate

his point, he makes use of R. Harper's ethnography of an IMF audit mission in a country identified as “Arcadia”.

This section will begin with a short presentation of both Harper's ethnographic work and Nustad's use of it; afterwards, Nustad's conclusions will be compared with another case study about another IMF audit mission, this time in a country

2that will be identified as “Ersilia” . An analysis of both case studies will follow, making use of the theoretical discussion presented above about globalization. Conclusions will then be presented, underscoring the new insights provided by that discussion.

The IMF as a “global actor”

Nustad's proposal regarding the study of global actors recommends the use of the network model, which means that globalization is not actually seen either as a global, nor as a local phenomenon; this starting point is clearly compatible with the theoretical discussion offered above. In accordance with this model, Nustad argues that “techniques such as audits are instrumental in keeping the different parts of the network associated together. Audits are tools used, among others, by global actors to create connectivity, because they can be used to associate a huge number of objects, people and processes.” He then continues: “They are furthermore powerful; because once these entities have been associated they define the extent of the possible.” (Nustad, 2003, p. 131)

All these deductions are quite compatible with the definition of globalization proposed here. Notwithstanding, as it will be shown, Nustad's own interpretation of the IMF case falls short in its scope and obscures two of the most important aspects of this phenomenon: its connectivity and its political nature.

Nustad's analysis of the IMF work focuses on one auditing mission of the IMF to the country anonymized by Harper as “Arcadia". It is stressed that this encounter is interpretative, negotiable, and social in nature; the goal of the mission is not to find a clear-cut picture of the country, but rather to “negotiate a version of the economy to which all could agree” (Nustad, 2003, p. 132). The mission begins with a report produced by Arcadia's authorities, which is given to the IMF team upon their arrival. Then, a process of inquiring into this report begins, which builds up through interviews and negotiations with different technicians and authorities of Arcadia. All the IMF team then gathers in a hotel room and, after long and exhausting nights of work, creates a particular picture

2 This case study is the result of extensive interviewing of a first-hand participant of the audit, who was involved in it as part of the government team in Ersilia.

2726

Globalization: through political networks Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 21-35

of Arcadia's economy. This picture is then presented to the authorities in a highly ritualized meeting towards the end of the mission. This meeting becomes an arena of negotiation where the IMF team, through its chief, presents an interpretation of the situation of the country which the Arcadian authorities must either agree to, reject, or challenge. After some coming and going of challenges and responses to those challenges, and after some changes to the original scope of problems presented by the IMF team chief were made, an agreement was reached.

In Harper's account, the actual picture drawn by the IMF team uncovered some problems that, to the team's knowledge, the ministries and institutions of Arcadia were unaware of. In Harper's own words, this “played itself out in terms of the kinds of power relations displayed in the meeting. For in this case the mission would be telling the Arcadians something they needed to understand; the Arcadians would be obliged to listen” (Harper 2000, p. 38). As it will be later shown, this particular aspect will prove extremely important in order to fully understand the IMF's role as connector.

Another issue stressed by Harper, and by Nustad, about the audit is that, after the picture of the economy is agreed upon, the numbers in that picture change in status: as they are sanctioned, they acquire the ability to act. Therefore, those numbers then prove definitive on future economic policy. In his analysis of this situation, Nustad concludes:

Through this device, then, all the actions of the inhabitants that were classified as economic activities were represented in a single statement about the economy of the country, and what the relationship should be between the country and the IMF. The global power of the IMF is here seen as an outcome of a negotiation process. The audit that the IMF produced had as its outcome a framework, and understanding of economic reality, that made the work of the IMF relevant to the country. In this way the network was established and maintained through the device of the audit. But this conceptualization has a number of other consequences. First, it shows that, like Foucault's definition of power, the power of the IMF was an effect of the relation it established with the country. Second, this gives a rather less totalising picture of the power of a global actor like the IMF. Its power is not inherent in its being, and it is not global with the connotation of universal. Its power arises as an effect of the successful associations it establishes through ideas of the economy, negotiated through the audit (Nustad, 2003, p. 133).

Undoubtedly, most of Nustad's concluding points are consistent with the idea of globalization as determined by connections that are not universalizing, no

prescriptive, and highly political. His picture, nonetheless, gives a distorted account of the role of the IMF as a “global actor”. On it, he partially forgets his own model of the network, and misunderstands the role of power, somehow falling in the mistakes of the past. To better understand why this is so, the case of a somewhat different audit mission to the country anonymized as “Ersilia” is presented below.

Ersilia

In Ersilia, the process of the IMF audit mission seems to happen in exactly the same way as in Arcadia. Prior to the visit of the team, Ersilian authorities collected data about the country's economy, and fed them to the system known to be preferred by the chief of the team; the numbers used in doing so had been collected throughout the year by institutions of the government pertaining to several different sectors of the economy. Upon the team's arrival, these documents were in its possession; the following days were spent in a multitude of sector meetings between government representatives and the members of the IMF team responsible for those sectors. During these meetings, agreements regarding which numbers should be accepted and what the estimated projections for the future should be, were reached.

Afterwards, both the IMF team and the Ersilian authorities worked with those agreed numbers and constructed their own interpretations of what they meant; these interpretations were presented together in a centralized meeting, towards the end of the mission, with the IMF team and technicians from the Central Bank, the Ministry of Finance, and the Planning Department of Ersilia.

Up to this point, the auditing process in both Arcadia and Ersilia seems exactly the same. The truth is that fundamental issues are different in both cases, and this is reflected in the proceedings of the last meeting. The essence of the differences between the two cases can be reduced to two issues: knowledge and technical capacity. While the picture of Arcadia portrays a country that seems to rely heavily on the IMF team's know-how and insights, Ersilian government has developed highly efficient models and tools that aid the follow-up of public finances. In particular, this government uses what is called a “consistency model”, which is, basically, a program in which databases, that include, among others, all the numbers that the IMF team looks at, are collected and consolidated; more importantly, the program also performs economic projections while checking for consistency across data. In practice, the existence of this tool, in concert with the technical expertise of Ersilian technicians and authorities, creates an image very different from that of Arcadia.

2928

Globalization: through political networks Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 21-35

of Arcadia's economy. This picture is then presented to the authorities in a highly ritualized meeting towards the end of the mission. This meeting becomes an arena of negotiation where the IMF team, through its chief, presents an interpretation of the situation of the country which the Arcadian authorities must either agree to, reject, or challenge. After some coming and going of challenges and responses to those challenges, and after some changes to the original scope of problems presented by the IMF team chief were made, an agreement was reached.

In Harper's account, the actual picture drawn by the IMF team uncovered some problems that, to the team's knowledge, the ministries and institutions of Arcadia were unaware of. In Harper's own words, this “played itself out in terms of the kinds of power relations displayed in the meeting. For in this case the mission would be telling the Arcadians something they needed to understand; the Arcadians would be obliged to listen” (Harper 2000, p. 38). As it will be later shown, this particular aspect will prove extremely important in order to fully understand the IMF's role as connector.

Another issue stressed by Harper, and by Nustad, about the audit is that, after the picture of the economy is agreed upon, the numbers in that picture change in status: as they are sanctioned, they acquire the ability to act. Therefore, those numbers then prove definitive on future economic policy. In his analysis of this situation, Nustad concludes:

Through this device, then, all the actions of the inhabitants that were classified as economic activities were represented in a single statement about the economy of the country, and what the relationship should be between the country and the IMF. The global power of the IMF is here seen as an outcome of a negotiation process. The audit that the IMF produced had as its outcome a framework, and understanding of economic reality, that made the work of the IMF relevant to the country. In this way the network was established and maintained through the device of the audit. But this conceptualization has a number of other consequences. First, it shows that, like Foucault's definition of power, the power of the IMF was an effect of the relation it established with the country. Second, this gives a rather less totalising picture of the power of a global actor like the IMF. Its power is not inherent in its being, and it is not global with the connotation of universal. Its power arises as an effect of the successful associations it establishes through ideas of the economy, negotiated through the audit (Nustad, 2003, p. 133).

Undoubtedly, most of Nustad's concluding points are consistent with the idea of globalization as determined by connections that are not universalizing, no

prescriptive, and highly political. His picture, nonetheless, gives a distorted account of the role of the IMF as a “global actor”. On it, he partially forgets his own model of the network, and misunderstands the role of power, somehow falling in the mistakes of the past. To better understand why this is so, the case of a somewhat different audit mission to the country anonymized as “Ersilia” is presented below.

Ersilia

In Ersilia, the process of the IMF audit mission seems to happen in exactly the same way as in Arcadia. Prior to the visit of the team, Ersilian authorities collected data about the country's economy, and fed them to the system known to be preferred by the chief of the team; the numbers used in doing so had been collected throughout the year by institutions of the government pertaining to several different sectors of the economy. Upon the team's arrival, these documents were in its possession; the following days were spent in a multitude of sector meetings between government representatives and the members of the IMF team responsible for those sectors. During these meetings, agreements regarding which numbers should be accepted and what the estimated projections for the future should be, were reached.

Afterwards, both the IMF team and the Ersilian authorities worked with those agreed numbers and constructed their own interpretations of what they meant; these interpretations were presented together in a centralized meeting, towards the end of the mission, with the IMF team and technicians from the Central Bank, the Ministry of Finance, and the Planning Department of Ersilia.

Up to this point, the auditing process in both Arcadia and Ersilia seems exactly the same. The truth is that fundamental issues are different in both cases, and this is reflected in the proceedings of the last meeting. The essence of the differences between the two cases can be reduced to two issues: knowledge and technical capacity. While the picture of Arcadia portrays a country that seems to rely heavily on the IMF team's know-how and insights, Ersilian government has developed highly efficient models and tools that aid the follow-up of public finances. In particular, this government uses what is called a “consistency model”, which is, basically, a program in which databases, that include, among others, all the numbers that the IMF team looks at, are collected and consolidated; more importantly, the program also performs economic projections while checking for consistency across data. In practice, the existence of this tool, in concert with the technical expertise of Ersilian technicians and authorities, creates an image very different from that of Arcadia.

2928

Globalization: through political networks Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 21-35

In particular, after both the government officials and the IMF team members reached mini-agreements in each of the different areas, Ersilian authorities fed the consistency model and produced extensive documents with the future projections of the country. These documents were the ones brought and used in the final meeting. Meanwhile, during the days of the mission, the IMF team members only had access to the same tools as the team members in Arcadia had had: their computers in the hotel room and their own expertise. As in the Arcadian case, the different resources available to each of the sides in the ending meeting determined what kinds of power relationships were displayed in it: in both cases someone talks and someone listens, only that in these cases, the roles are inverted.

In Ersilia, it was the country's presentation what constituted the backbone of the final meeting, while IMF team members participated mainly by asking questions regarding the numbers and the reasons for some of the results in the projections. After all the numbers and projections presented were accorded on, both sides defined an agreement regarding the fiscal goals of Ersilia for the coming year; how the country was to meet those goals was left for the authorities to decide.

In addition to these differences regarding the development of the final meeting of the audit, the differential access to certain resources also played a role in other aspects of the relationship between the Ersilian authorities and the IMF team. Due to the know-how of the economic team of Ersilia, part of the arrangements previous to the arrival of the IMF audit consisted in playing with the numbers so a credible, but favorable, image of the country would be portrayed. Additionally, although the goals defined with the IMF team were based on projections about the economy that were agreed between both parts, the Ersilian government didn't depend on those numbers to make its own internal policy decisions; in other words, while some of the numbers used for internal decisions coincided with those agreed upon with the team, some did not. In this sense, in the Ersilian case the role of the IMF audit was understood clearly, and almost exclusively, as that of a mediator with potential lenders, so it would present an endorsed view of the Ersilian economy to them.

Unlike the Arcadian case, the audit had very limited internal effects regarding the authorities' self-knowledge and self-conception of the country's present. Therefore, although there will be some incidence of the agreement on the future, it is bounded to the actual goals agreed upon. The case of Arcadia is different, since, apparently, the present defined in the audit was also the present accepted by the country for all other internal matters; this gave the audit a lot more of power.

What connections; what power.

As has been presented, although similar in many ways, the cases of the IMF audit missions to Arcadia and Ersilia have significant differences. These distinctions manifested particularly in the closing meeting between the IMF team and the government authorities. The most important one that has been stressed is that in the Arcadian and the Ersilian cases those who “talked” and those who “listened” were reversed. In the Arcadian case, this was interpreted by Harper as the result of an imbalance in knowledge and technical capacity of both parts; this explanation also seems applicable to Ersilia.

The problem, then, is still how to interpret the role played by power in these dynamics. Nustad had interpreted it as the result of the negotiation process. In the Ersilian case, nonetheless, this explanation seems inadequate, since Ersilian authorities have a pretty clear picture of Ersilian economy, and control tools and techniques good enough, actually better than those of the IMF team. It was the Ersilian authorities who created a picture of the country's economy and they tried to have the IMF team agree to it. It was them who constructed “successful associations” through “ideas of the economy, negotiated through the audit” which was what Nustad had identified as the IMF team´s source of power. Therefore, if that which is political in the IMF as global actor is to be found here, it doesn't fully account for all the cases of auditing missions.

In order to solve this problem, it is necessary to go back to the principles in the understanding of globalization processes. Nustad's failure in this case is that when focusing on the particular case of the connections materialized in the meetings between the IMF team and the authorities of Arcadia, he ignored the broader picture in which they were inscribed.

Figure 1: Scheme of a loop on the IMF audit mission network

3130

Globalization: through political networks Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 21-35

In particular, after both the government officials and the IMF team members reached mini-agreements in each of the different areas, Ersilian authorities fed the consistency model and produced extensive documents with the future projections of the country. These documents were the ones brought and used in the final meeting. Meanwhile, during the days of the mission, the IMF team members only had access to the same tools as the team members in Arcadia had had: their computers in the hotel room and their own expertise. As in the Arcadian case, the different resources available to each of the sides in the ending meeting determined what kinds of power relationships were displayed in it: in both cases someone talks and someone listens, only that in these cases, the roles are inverted.

In Ersilia, it was the country's presentation what constituted the backbone of the final meeting, while IMF team members participated mainly by asking questions regarding the numbers and the reasons for some of the results in the projections. After all the numbers and projections presented were accorded on, both sides defined an agreement regarding the fiscal goals of Ersilia for the coming year; how the country was to meet those goals was left for the authorities to decide.

In addition to these differences regarding the development of the final meeting of the audit, the differential access to certain resources also played a role in other aspects of the relationship between the Ersilian authorities and the IMF team. Due to the know-how of the economic team of Ersilia, part of the arrangements previous to the arrival of the IMF audit consisted in playing with the numbers so a credible, but favorable, image of the country would be portrayed. Additionally, although the goals defined with the IMF team were based on projections about the economy that were agreed between both parts, the Ersilian government didn't depend on those numbers to make its own internal policy decisions; in other words, while some of the numbers used for internal decisions coincided with those agreed upon with the team, some did not. In this sense, in the Ersilian case the role of the IMF audit was understood clearly, and almost exclusively, as that of a mediator with potential lenders, so it would present an endorsed view of the Ersilian economy to them.

Unlike the Arcadian case, the audit had very limited internal effects regarding the authorities' self-knowledge and self-conception of the country's present. Therefore, although there will be some incidence of the agreement on the future, it is bounded to the actual goals agreed upon. The case of Arcadia is different, since, apparently, the present defined in the audit was also the present accepted by the country for all other internal matters; this gave the audit a lot more of power.

What connections; what power.

As has been presented, although similar in many ways, the cases of the IMF audit missions to Arcadia and Ersilia have significant differences. These distinctions manifested particularly in the closing meeting between the IMF team and the government authorities. The most important one that has been stressed is that in the Arcadian and the Ersilian cases those who “talked” and those who “listened” were reversed. In the Arcadian case, this was interpreted by Harper as the result of an imbalance in knowledge and technical capacity of both parts; this explanation also seems applicable to Ersilia.

The problem, then, is still how to interpret the role played by power in these dynamics. Nustad had interpreted it as the result of the negotiation process. In the Ersilian case, nonetheless, this explanation seems inadequate, since Ersilian authorities have a pretty clear picture of Ersilian economy, and control tools and techniques good enough, actually better than those of the IMF team. It was the Ersilian authorities who created a picture of the country's economy and they tried to have the IMF team agree to it. It was them who constructed “successful associations” through “ideas of the economy, negotiated through the audit” which was what Nustad had identified as the IMF team´s source of power. Therefore, if that which is political in the IMF as global actor is to be found here, it doesn't fully account for all the cases of auditing missions.

In order to solve this problem, it is necessary to go back to the principles in the understanding of globalization processes. Nustad's failure in this case is that when focusing on the particular case of the connections materialized in the meetings between the IMF team and the authorities of Arcadia, he ignored the broader picture in which they were inscribed.

Figure 1: Scheme of a loop on the IMF audit mission network

3130

Globalization: through political networks Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 21-35

Using his own metaphor of the railroad networks, Nustad forgot that although one can focus on the train station, or in one particular section of the system, in order to interpret their role in the whole railroad system, it is imperative to remember that the stations connect with all its surrounding posts.

In the specific case of the IMF audit, what Nustad seems to forget is that the actual audience for the story that is being negotiated there is neither the team nor the authorities: it is the outside figures of the lenders to the countries being audited. The IMF team, then, acts as a connecting link between two nodes, the country and its lenders, since they will make decisions about the conditions of future loans according to the story resulting in the agreement at the IMF's auditing mission (see Figure 1). In this way, the power of the IMF is mainly explained by its position in the network. On the one hand, this global actor gives to the lenders a reliable story about the country's finances and economic perspectives. As a result of this, the lenders can make an accurate evaluation of the risks that they may incur in by lending money to a country, which at the end

3will be reflected on a risk prime . On the other hand, this process opens the possibility for countries to access sources of money that are sometimes unreachable without the IMF intervention, or eventually more expensive than with the intervention.

What is most interesting about this view of the global position of the IMF as actor is that it allows for a very dynamic vision of power. The IMF's power relies on its position in the network, which is sustained by the credibility it has (in what actually is a contended arena) with lenders. What it needs is to keep this trust and be able to remain as a viable institution by having its services demanded. The lenders, on the other hand, have economic resources, but they lack accurate information about the countries where they could invest those resources. Finally, the countries that have agreements with the IMF have that information, but need the economic resources of the lenders. In this arena, each of the nodes is actually directioning the flow of information, ideas, capital, and other resources, and in doing so, they are bargaining power.

A particular instance in which this bargaining can be examined is the audit meeting between the IMF team and the country's authorities in the two case studies presented. As it was explained, the distribution of power between the IMF team and the country authorities is very different in Arcadia and in Ersilia. In Arcadia, the IMF has technological resources and know-how that the authorities lack. In this way, the IMF team controls the construction of the story about Arcadia's economic situation; the country authorities must listen and

question, so their power is almost reduced to just agreeing or rejecting this picture. In this sense, there is little or no room for negotiating alternative scenarios. The case in Ersilia is completely different. At the moment of the meetings, Ersilian authorities had technical capabilities that were not available for the IMF team. Therefore, the government authorities had much more maneuverability in the construction of a credible story; after all, it was them who built that story and presented it to the IMF team members. In this case, the IMF team had to listen, question, agree, or reject. In this scenario, the country authorities were able to bid for a more favorable picture of the country, which, hopefully for them, would result in better loan conditions in the future; meanwhile, the IMF team members had to bargain for their trustworthiness. Since they could be accountable for the story agreed upon, they had to make sure that it was a credible and viable one.

It is important to underline at this point that at all moments in these cases the flows, connections, and negotiations were occurring between people. The IMF and the government are nothing but organized structures that are comprised of, and act through, people. This entails that at all times there were various flows and negotiations taking place simultaneously, sometimes pulling in different directions: each and every one of the links in the network is a political relationship. Each of the nodes has access to some resources, ideas, and connections, and negotiates its power with the others. In the cases studied this should be thought as follows: while the IMF team members negotiate with the country authorities, they are also being linked to their supervisors in Washington, with whom they have a labor relationship that is by nature politically charged. The same happens with the government authorities in that same meeting; they will respond to a superior, who might herself be linked to a constituency. The same happens with the lenders that will later look at the resulting agreement and make decisions upon it: if they do lend money, this money will most probably come from other lenders with whom they will have their own obligations. In this same sense, the existence itself of a connection between the IMF and a State is also the result of political negotiations and/or struggles inside that country. In this way, it is under this light that the influence of the IMF agreement on the country should be interpreted.

Conclusion

The case studies of the IMF audit missions to Arcadia and Ersilia show interesting aspects of what globalization is about, and how it can be studied through ethnographic research. These cases allow a visualization of the connections that make up globalization, the flows that occur through those connections, and the power relations that are played through them. They also permit an understanding of why these phenomena are called “global”. In this

3 Risk prime is understood as the interest rate points that are added to a standard international interest rate as a compensation for a risky situation that is taken by a lender on a particular loan.

3332

Globalization: through political networks Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 21-35

Using his own metaphor of the railroad networks, Nustad forgot that although one can focus on the train station, or in one particular section of the system, in order to interpret their role in the whole railroad system, it is imperative to remember that the stations connect with all its surrounding posts.

In the specific case of the IMF audit, what Nustad seems to forget is that the actual audience for the story that is being negotiated there is neither the team nor the authorities: it is the outside figures of the lenders to the countries being audited. The IMF team, then, acts as a connecting link between two nodes, the country and its lenders, since they will make decisions about the conditions of future loans according to the story resulting in the agreement at the IMF's auditing mission (see Figure 1). In this way, the power of the IMF is mainly explained by its position in the network. On the one hand, this global actor gives to the lenders a reliable story about the country's finances and economic perspectives. As a result of this, the lenders can make an accurate evaluation of the risks that they may incur in by lending money to a country, which at the end

3will be reflected on a risk prime . On the other hand, this process opens the possibility for countries to access sources of money that are sometimes unreachable without the IMF intervention, or eventually more expensive than with the intervention.

What is most interesting about this view of the global position of the IMF as actor is that it allows for a very dynamic vision of power. The IMF's power relies on its position in the network, which is sustained by the credibility it has (in what actually is a contended arena) with lenders. What it needs is to keep this trust and be able to remain as a viable institution by having its services demanded. The lenders, on the other hand, have economic resources, but they lack accurate information about the countries where they could invest those resources. Finally, the countries that have agreements with the IMF have that information, but need the economic resources of the lenders. In this arena, each of the nodes is actually directioning the flow of information, ideas, capital, and other resources, and in doing so, they are bargaining power.

A particular instance in which this bargaining can be examined is the audit meeting between the IMF team and the country's authorities in the two case studies presented. As it was explained, the distribution of power between the IMF team and the country authorities is very different in Arcadia and in Ersilia. In Arcadia, the IMF has technological resources and know-how that the authorities lack. In this way, the IMF team controls the construction of the story about Arcadia's economic situation; the country authorities must listen and

question, so their power is almost reduced to just agreeing or rejecting this picture. In this sense, there is little or no room for negotiating alternative scenarios. The case in Ersilia is completely different. At the moment of the meetings, Ersilian authorities had technical capabilities that were not available for the IMF team. Therefore, the government authorities had much more maneuverability in the construction of a credible story; after all, it was them who built that story and presented it to the IMF team members. In this case, the IMF team had to listen, question, agree, or reject. In this scenario, the country authorities were able to bid for a more favorable picture of the country, which, hopefully for them, would result in better loan conditions in the future; meanwhile, the IMF team members had to bargain for their trustworthiness. Since they could be accountable for the story agreed upon, they had to make sure that it was a credible and viable one.

It is important to underline at this point that at all moments in these cases the flows, connections, and negotiations were occurring between people. The IMF and the government are nothing but organized structures that are comprised of, and act through, people. This entails that at all times there were various flows and negotiations taking place simultaneously, sometimes pulling in different directions: each and every one of the links in the network is a political relationship. Each of the nodes has access to some resources, ideas, and connections, and negotiates its power with the others. In the cases studied this should be thought as follows: while the IMF team members negotiate with the country authorities, they are also being linked to their supervisors in Washington, with whom they have a labor relationship that is by nature politically charged. The same happens with the government authorities in that same meeting; they will respond to a superior, who might herself be linked to a constituency. The same happens with the lenders that will later look at the resulting agreement and make decisions upon it: if they do lend money, this money will most probably come from other lenders with whom they will have their own obligations. In this same sense, the existence itself of a connection between the IMF and a State is also the result of political negotiations and/or struggles inside that country. In this way, it is under this light that the influence of the IMF agreement on the country should be interpreted.

Conclusion

The case studies of the IMF audit missions to Arcadia and Ersilia show interesting aspects of what globalization is about, and how it can be studied through ethnographic research. These cases allow a visualization of the connections that make up globalization, the flows that occur through those connections, and the power relations that are played through them. They also permit an understanding of why these phenomena are called “global”. In this

3 Risk prime is understood as the interest rate points that are added to a standard international interest rate as a compensation for a risky situation that is taken by a lender on a particular loan.

3332

Globalization: through political networks Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 21-35

case, globality refers to the fact that, because of the extremely long networks in which both the IMF and the states are placed, the effects of the agreements reached in the meetings described will be felt by a vast number of people. Inside the country, the goals agreed to and the policy decisions taken to abide by them, will affect (positively or negatively) all the people in reach by those policies. The money received through loans that result from the agreement will also have an impact on policy decisions regarding funding to specific programs that will affect specific people. Looking towards the other side of the network, the fact that other countries are making similar agreements results in even more people being linked by similar visions and expectations. Additionally, it also means that any strengthening or weakening of the IMF position as a credible auditor in any country will have effects in the relative position of all the other countries as well.

In addition to aiding the understand what is global in globalization, the definition here offered, as used in the IMF case studies, also draws a dynamic picture of the processes that take place through this phenomenon. Power, and how it plays in the relations and flows of globalization, can be grasped. Not only this, but by understanding the global connections and flows inside a political context, it is possible to define determinate objects of study that can shed light on the process and that can, as Nustad expected, make the global actors less threatening.

The visualization of globalization as the flow of ideas and substances across nodes of progressively growing chains of (global) interconnectedness, chains that are placed in the political context of people in action, allows the explanation of the discontinuities and ruggedness that Tsing identified; in particular the political arena, and understanding of all the connections as power charged. For example, it is because of this that in the past Ersilia has been able to successfully defy the IMF team's recommendations; each agreement is an arena of power bargaining, and any unbalance can be used favorably by either part. In Nustad's explanation of global actors and their power, this would've been unexplainable.

Globalization is a dynamic phenomenon that is in constant change, and given its size and its complexity, it is impossible to grasp in its entirety at any point. But it is not unreachable. Globalization can be observed if its discreteness is understood, and if various scales are used to approach it.

Bibliography

Csordas, Thomas J. (2002). Body / Meaning / Healing. New York: Palgrave Macmillan. Eriksen, Thomas Hylland. (2003). Globalisation. London: Pluto Press.

Harper, Richard. (2000). The social organization of the IMF's mission work: an examination of international auditing. In M. Strathern (ed.) Audit Cultures: Anthropological Studies in Accountability, Ethics and the Academy. London: Routledge.Hodgson, Dorothy L., ed. (2002). Gendered Modernities. New York: Palgrave. Nustad, Knut G. (2003). Considering global/local relations: beyond dualism. In T.H. Eriksen Globalisation. London: Pluto Press.Santos, Boaventura de Sousa. (1991). Estado, Derecho y Luchas Sociales. Bogotá: Instituto Latinoamericano de Servicios Legales Alternativos. Tsing, Anna Lowenhaupt. (2005). Friction: An Ethnography of Global Connection. Princeton: Princeton University Press.

3534

Globalization: through political networks Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 21-35

case, globality refers to the fact that, because of the extremely long networks in which both the IMF and the states are placed, the effects of the agreements reached in the meetings described will be felt by a vast number of people. Inside the country, the goals agreed to and the policy decisions taken to abide by them, will affect (positively or negatively) all the people in reach by those policies. The money received through loans that result from the agreement will also have an impact on policy decisions regarding funding to specific programs that will affect specific people. Looking towards the other side of the network, the fact that other countries are making similar agreements results in even more people being linked by similar visions and expectations. Additionally, it also means that any strengthening or weakening of the IMF position as a credible auditor in any country will have effects in the relative position of all the other countries as well.

In addition to aiding the understand what is global in globalization, the definition here offered, as used in the IMF case studies, also draws a dynamic picture of the processes that take place through this phenomenon. Power, and how it plays in the relations and flows of globalization, can be grasped. Not only this, but by understanding the global connections and flows inside a political context, it is possible to define determinate objects of study that can shed light on the process and that can, as Nustad expected, make the global actors less threatening.

The visualization of globalization as the flow of ideas and substances across nodes of progressively growing chains of (global) interconnectedness, chains that are placed in the political context of people in action, allows the explanation of the discontinuities and ruggedness that Tsing identified; in particular the political arena, and understanding of all the connections as power charged. For example, it is because of this that in the past Ersilia has been able to successfully defy the IMF team's recommendations; each agreement is an arena of power bargaining, and any unbalance can be used favorably by either part. In Nustad's explanation of global actors and their power, this would've been unexplainable.

Globalization is a dynamic phenomenon that is in constant change, and given its size and its complexity, it is impossible to grasp in its entirety at any point. But it is not unreachable. Globalization can be observed if its discreteness is understood, and if various scales are used to approach it.

Bibliography

Csordas, Thomas J. (2002). Body / Meaning / Healing. New York: Palgrave Macmillan. Eriksen, Thomas Hylland. (2003). Globalisation. London: Pluto Press.

Harper, Richard. (2000). The social organization of the IMF's mission work: an examination of international auditing. In M. Strathern (ed.) Audit Cultures: Anthropological Studies in Accountability, Ethics and the Academy. London: Routledge.Hodgson, Dorothy L., ed. (2002). Gendered Modernities. New York: Palgrave. Nustad, Knut G. (2003). Considering global/local relations: beyond dualism. In T.H. Eriksen Globalisation. London: Pluto Press.Santos, Boaventura de Sousa. (1991). Estado, Derecho y Luchas Sociales. Bogotá: Instituto Latinoamericano de Servicios Legales Alternativos. Tsing, Anna Lowenhaupt. (2005). Friction: An Ethnography of Global Connection. Princeton: Princeton University Press.

3534

Globalization: through political networks Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 21-35

Ilya Prigogine y la sutura de la brecha epistemológica entre las ciencias y las humanidades

Roberto González*

Resumen

En el presente, nos hemos propuesto la factura de un recuento crítico en torno a la sutura de la brecha epistemológica que, desde el siglo XVI, ha separado a las ciencias respecto de las humanidades. Nuestra interpretación parte de la lectura que precisamente Ilya Prigogine hace acerca de esta misma cuestión. Prigogine proviene de las ciencias duras y en 1977 recibe el premio Nobel de física por su investigación en torno a los sistemas inestables y estructuras disipativas. Una constante en toda su obra es la reiterada alusión a la “flecha del tiempo”: en el orden de lo real, todo cuanto es acontece una sola vez y no existe posibilidad para la reversibilidad, trastocando con esto la tradicional idea de una verdad inmutable, arrastrada por la física clásica. En lugar de esto florece la idea de una verdad en permanente reconstrucción. Es justamente esta idea del tiempo irreversible lo que permite a Prigogine volver los ojos hacia las ciencias blandas y las humanidades como dignos baluartes de esta nueva forma del conocimiento: cada disciplina posee su peculio de verdad. El conocimiento se construye de un modo interdisciplinario. He aquí el pretexto “científico” para la reincorporación del hombre en el claro de la naturaleza, y para la recuperación del diálogo entre las ciencias y las humanidades. El estudio de la realidad no es propiedad exclusiva de una ciencia en específico. La física requiere el concurso de la metafísica y viceversa.

Palabras clave: ciencia, filosofía, tiempo, hombre, ser.

Abstract

In this paper we have aimed to elaborate a critical account on the closing of the epistemological gap that has separated sciences and humanities since the XVI century. Our interpretation takes Ilya Prigogine's discussion of this matter as a starting point. The reiterated reference to “the arrow of time” is a constant theme in Prigogine's work: In the realm of reality, everything that is happens only once and reversibility is not possible; thus disrupting the traditional idea of an immutable truth, harbored by classical physics. Instead, the notion of a truth in permanent reconstruction flourishes. It is precisely this idea of an irreversible time what allows Prigogine to turn his eyes to the soft sciences and humanities as worthy bastions of this new form of knowledge: each discipline has its own share of truth. Knowledge is constructed in an interdisciplinary way. So, here lays the “scientific” pretext for reincorporating man to the clearing of nature, and for retaking the dialogue between science and humanities.

Key Words: sciences, humanities, Ilya Prigogine, philosophy, time, man, being.

* Doctorado en Filosofía por la Universidad Nacional Autónoma de México, maestría en Filosofía Contemporánea por la Universidad Autónoma del Estado de México. Profesor e investigador en la Facultad de Humanidades de la misma universidad.

37

Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 37-47

Presentación

El presente trabajo parte del dato del divorcio, comúnmente aceptado por la epistemología moderna, entre y la filosofía, impulsado/provocado por la irrupción de la “nueva ciencia” inaugurada por Galileo y Newton. Este divorcio, que en otro tiempo dio ocasión a la configuración del rostro de la ciencia estricta en aras del discurso matemático y la experimentación, ahora se trastoca en problema, pues se ha venido descubriendo que existen ciertas porciones de la realidad que se sustraen al radio jurisdiccional de la mecánica clásica, tales como las estructuras disipativas enunciadas por la teoría del caos o el ser mismo del hombre. Podría decirse, siguiendo a Prigogine, que el triunfo de la mecánica clásica se fincó en el olvido del tiempo, y en la expulsión del hombre allende la naturaleza y la ciencia misma. La consigna, en este sentido, de la ciencia contemporánea se trazará en la búsqueda de un camino que lleve de vuelta al hombre hacia el mundo y pueda ser tenido como objeto estricto de una meditación científica. Esta operación implica, desde luego, la superación del divorcio entre las dos culturas (las ciencias y la filosofía), y el reconocimiento de la objetividad del tiempo irrepetible en la naturaleza.

Ilya Prigogine fue un físico matemático que obtuvo en 1977 el premio Nobel por sus investigaciones realizadas en torno a los sistemas inestables y las estructuras disipativas. La envergadura de su obra tiene la notable, característica de haber venido a suscitar nuevas interpretaciones en el dominio de varias ciencias, tales como la economía, la sociología, la biología, la filosofía, entre otras. Asimismo, vino a conferir una nueva imagen del conocimiento e idea de la ciencia. Uno de sus aportes más relevantes consiste en el reconocimiento de la complementariedad epistemológica entre las ciencias y las humanidades; de hecho, esta es la estrategia del autor ruso con respecto a la integración de las dos culturas.

Contenido

El divorcio entre las ciencias y la filosofía puede apreciarse a propósito de tres contrastes diferentes: primero, en la irreconciliación entre el criterio de verdad que sustentó la “nueva ciencia”, de Galileo y Newton, -que nace hacia finales del siglo XVI y principios del siglo XVII, a propósito de la matematización del conocimiento de la naturaleza- y el criterio que sostiene la filosofía; segundo, en el anhelo por parte de las ciencias en pos de su demarcación epistemológica, contrastándose y diferenciándose respecto de las demás formas de saber que no son precisamente ciencia. Y, en tercer lugar, en la expulsión del hombre respecto del sistema de la naturaleza (y de la ciencia) que dibuja la mecánica clásica.

Es Galileo quien, al interpretar que la naturaleza está escrita en códigos matemáticos, introduce un ingrediente novedoso dentro de la concepción del método del conocimiento científico. Si la naturaleza encuentra en el lenguaje matemático la justa clave para ser leída e interpretada, el conocimiento científico resultará precisamente de la verificación reiterada por la experimentación subsecuente, la cual, estando sustentada en un lenguaje matemático, es susceptible de ser probada en cualquier lugar y por cualquier especialista. Galileo se congratula de que en la ciencia puedan encontrar coincidencia dos tipos de lenguaje: el lenguaje discursivo y el lenguaje matemático, porque es propiamente la matemática la que vendrá a infundir firmeza a las conclusiones de la ciencia, y permitirá asimismo la corroboración de resultados. Con Galileo, la regularidad causal se convierte en el objeto de la ciencia. La ciencia está enderezada hacia estos dos propósitos: conocer y prever. Todo conocimiento, para ser tenido como válido, deberá probarse; sin el recurso de la prueba, en Galileo, no puede haber ciencia.

Cabe mencionar que la comprobación ulterior mediante la experimentación es una novedad importada por la “nueva ciencia”. Así, el criterio de verdad que se yergue enarbolado por la física clásica viene a trastocar completamente los hábitos epistemológicos de la verdad acostumbrados en la filosofía, pues. en esta última, jamás antes se había considerado el recurso a la experimentación como criterio de verdad. El acontecimiento de este nuevo criterio de verdad en la historia del conocimiento es el indicio que marca la dislocación entre la ciencia y la filosofía.

A propósito de esta ruptura, Philipp Frank nos ofrece una explicación importante, y dice:

El rompimiento de la cadena que conecta la ciencia con la filosofía surgió del hecho de que el criterio para la aceptación de un principio no era el mismo en ambas partes […] En la ciencia utilizamos el criterio de la verdad [donde] podamos derivar de estas leyes hechos que estén de acuerdo con la experiencia […] [mientras que en] el criterio filosófico de la verdad, una hipótesis se considera válida cuando se la puede deducir de principios evidentes de suyo, claros, inteligibles (Frank, 1965, pp. 14, 18-19. Subrayado del autor).

Es decir, en la ciencia, un principio puede ser demostrado sólo en virtud de sus consecuencias experimentables y observables. Por ejemplo, a partir de las leyes de Newton (principios de la mecánica) se puede estudiar el comportamiento de los cuerpos celestes, dando razón del comportamiento de algún planeta en específico. En la filosofía, por el contrario, no toda hipótesis admite el recurso de la experimentación. En el principio de causalidad o de razón suficiente, el

3938

Ilya Prigogine y la sutura de la brecha epistemológica entre las ciencias y las humanidades Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 37-47

Presentación

El presente trabajo parte del dato del divorcio, comúnmente aceptado por la epistemología moderna, entre y la filosofía, impulsado/provocado por la irrupción de la “nueva ciencia” inaugurada por Galileo y Newton. Este divorcio, que en otro tiempo dio ocasión a la configuración del rostro de la ciencia estricta en aras del discurso matemático y la experimentación, ahora se trastoca en problema, pues se ha venido descubriendo que existen ciertas porciones de la realidad que se sustraen al radio jurisdiccional de la mecánica clásica, tales como las estructuras disipativas enunciadas por la teoría del caos o el ser mismo del hombre. Podría decirse, siguiendo a Prigogine, que el triunfo de la mecánica clásica se fincó en el olvido del tiempo, y en la expulsión del hombre allende la naturaleza y la ciencia misma. La consigna, en este sentido, de la ciencia contemporánea se trazará en la búsqueda de un camino que lleve de vuelta al hombre hacia el mundo y pueda ser tenido como objeto estricto de una meditación científica. Esta operación implica, desde luego, la superación del divorcio entre las dos culturas (las ciencias y la filosofía), y el reconocimiento de la objetividad del tiempo irrepetible en la naturaleza.

Ilya Prigogine fue un físico matemático que obtuvo en 1977 el premio Nobel por sus investigaciones realizadas en torno a los sistemas inestables y las estructuras disipativas. La envergadura de su obra tiene la notable, característica de haber venido a suscitar nuevas interpretaciones en el dominio de varias ciencias, tales como la economía, la sociología, la biología, la filosofía, entre otras. Asimismo, vino a conferir una nueva imagen del conocimiento e idea de la ciencia. Uno de sus aportes más relevantes consiste en el reconocimiento de la complementariedad epistemológica entre las ciencias y las humanidades; de hecho, esta es la estrategia del autor ruso con respecto a la integración de las dos culturas.

Contenido

El divorcio entre las ciencias y la filosofía puede apreciarse a propósito de tres contrastes diferentes: primero, en la irreconciliación entre el criterio de verdad que sustentó la “nueva ciencia”, de Galileo y Newton, -que nace hacia finales del siglo XVI y principios del siglo XVII, a propósito de la matematización del conocimiento de la naturaleza- y el criterio que sostiene la filosofía; segundo, en el anhelo por parte de las ciencias en pos de su demarcación epistemológica, contrastándose y diferenciándose respecto de las demás formas de saber que no son precisamente ciencia. Y, en tercer lugar, en la expulsión del hombre respecto del sistema de la naturaleza (y de la ciencia) que dibuja la mecánica clásica.

Es Galileo quien, al interpretar que la naturaleza está escrita en códigos matemáticos, introduce un ingrediente novedoso dentro de la concepción del método del conocimiento científico. Si la naturaleza encuentra en el lenguaje matemático la justa clave para ser leída e interpretada, el conocimiento científico resultará precisamente de la verificación reiterada por la experimentación subsecuente, la cual, estando sustentada en un lenguaje matemático, es susceptible de ser probada en cualquier lugar y por cualquier especialista. Galileo se congratula de que en la ciencia puedan encontrar coincidencia dos tipos de lenguaje: el lenguaje discursivo y el lenguaje matemático, porque es propiamente la matemática la que vendrá a infundir firmeza a las conclusiones de la ciencia, y permitirá asimismo la corroboración de resultados. Con Galileo, la regularidad causal se convierte en el objeto de la ciencia. La ciencia está enderezada hacia estos dos propósitos: conocer y prever. Todo conocimiento, para ser tenido como válido, deberá probarse; sin el recurso de la prueba, en Galileo, no puede haber ciencia.

Cabe mencionar que la comprobación ulterior mediante la experimentación es una novedad importada por la “nueva ciencia”. Así, el criterio de verdad que se yergue enarbolado por la física clásica viene a trastocar completamente los hábitos epistemológicos de la verdad acostumbrados en la filosofía, pues. en esta última, jamás antes se había considerado el recurso a la experimentación como criterio de verdad. El acontecimiento de este nuevo criterio de verdad en la historia del conocimiento es el indicio que marca la dislocación entre la ciencia y la filosofía.

A propósito de esta ruptura, Philipp Frank nos ofrece una explicación importante, y dice:

El rompimiento de la cadena que conecta la ciencia con la filosofía surgió del hecho de que el criterio para la aceptación de un principio no era el mismo en ambas partes […] En la ciencia utilizamos el criterio de la verdad [donde] podamos derivar de estas leyes hechos que estén de acuerdo con la experiencia […] [mientras que en] el criterio filosófico de la verdad, una hipótesis se considera válida cuando se la puede deducir de principios evidentes de suyo, claros, inteligibles (Frank, 1965, pp. 14, 18-19. Subrayado del autor).

Es decir, en la ciencia, un principio puede ser demostrado sólo en virtud de sus consecuencias experimentables y observables. Por ejemplo, a partir de las leyes de Newton (principios de la mecánica) se puede estudiar el comportamiento de los cuerpos celestes, dando razón del comportamiento de algún planeta en específico. En la filosofía, por el contrario, no toda hipótesis admite el recurso de la experimentación. En el principio de causalidad o de razón suficiente, el

3938

Ilya Prigogine y la sutura de la brecha epistemológica entre las ciencias y las humanidades Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 37-47

encadenamiento del ser se torna muy complicado y es imposible de probar mediante la experimentación. Sin embargo, la razón ha de aceptar que todas las cosas son como son precisamente debido a una causa. Aquí, el principio, la razón lo acepta en virtud de que asiente filosóficamente que dicho principio es evidente e inteligible.

Ahora bien, en lo que respecta al divorcio entre la ciencia y la filosofía, con respecto al afán de demarcación territorial por parte de la ciencia, dice Serge Moscovici (1996, p. 123) que éste se ha venido dando precisamente con el surgimiento de la ciencia nueva, ocasionando ciertas consecuencias desastrosas. En primer lugar, como resultado del ejercicio de este afán, la metafísica fue relegada a un nivel de pseudociencia, ya que al carecer del recurso de la experimentación carecía igualmente del ingrediente para retener el título de ciencia. El ejercicio de demarcación de la ciencia comenzó necesariamente con su contrastación por oposición a la estructura arquitectónica de la metafísica. Esta última se vio increpada pusilánimemente por dos frentes: por un lado, tenía la obligación de demostrar la cientificidad de sus conocimientos y, por otro, para pervivir tenía la consigna de emular tanto como fuera posible a la física. Este juicio contra la metafísica ha sido magistralmente orquestado y expuesto por Kant en la Crítica de la razón pura y Los prolegómenos.

El tercer episodio que podemos recoger acerca de la ruptura entre la senda de las ciencias y la de la filosofía queda plasmado, precisamente, en la expulsión u omisión del hombre del mapa de la naturaleza que dibuja la mecánica clásica. El sistema de los principios de la física clásica, ciertamente, permitía conocer el comportamiento de la naturaleza, en cuanto ésta, se pensó, estaba regida por leyes causales. El conocimiento de la ley permitía conocer la ubicación de cualquier objeto en cualquier lugar y momento. El método experimental, evidentemente, se acomodaba convenientemente a este tipo de objetos que pasivamente toleraban la manipulación y la experimentación controlada. Sin embargo, no toda la realidad es reductible a este tipo de seres. Galileo y Newton formulan una mecánica para la naturaleza, en la que no tienen cabida un ser con las características que presenta el hombre. Acerca de este punto, Moscovici dice que el avance de la mecánica clásica se concibió a condición de la supresión del hombre de la esfera de la realidad y del horizonte de la ciencia: “Como si no pudiese haber progreso más que a condición de echar al hombre fuera de la ciencia y fuera del mundo” (Moscovici, 1996, p. 124). La ciencia no siempre es consciente de sus actos, en la historia del conocimiento se toman decisiones bruscas y repentinas inundadas con el color del riesgo. Evidentemente, la ciencia está trazada por distintos caminos de exploración, algunos pueden ser afortunado, otros, por el contrario desafortunados.

La historia de la ciencia es una secuencia marcada por la condición que le fincan los antecedentes de la misma ciencia, los antecedentes teóricos y situacionales. Pero, al mismo tiempo, es una empresa libre, gestionada por la capacidad e ingenio del científico. Por más audaz e inteligente que éste sea, no está exento de riesgos, algunos de los cuales pueden ser pecata minuta, mientras que otros, llegan a ser lamentables. Es loable el gran paso dado por Newton al formular la mecánica. Se estaba asistiendo a un acontecimiento sui generis en la historia, ya que, por un tiempo, se pensó que las leyes de Newton eran en efecto las leyes inmutables que regían el universo. Es lamentable, sin embargo, que en la concepción de este sistema mecánico no se encontrase un lugar para el hombre. En él, “sólo conocemos allí donde estamos ausentes del conocimiento y no nos adueñamos más que de un mundo del cual estamos definitivamente excluidos” (Moscovici, 1996, p. 124). El hombre queda excluido no sólo de la naturaleza, también de la ciencia.

Ilya Prigogine dice que “la ciencia, es un diálogo con la naturaleza” (Prigogine, 2000, p. 167). El divorcio entre la filosofía respecto de la ciencia, en cierta medida, también es un divorcio entre la naturaleza y el hombre. Dicho divorcio aconteció favorecido por el anhelo de la física clásica de hallar las leyes inmutables del universo, las cuales aplicaban a los seres indiferentes de la naturaleza, no así al hombre. Prigogine considera que esta obsesión por parte de la mecánica clásica, y de la física de viejo cuño, como la aristotélica, fue lo que llevó a la ciencia a soterrar algunos datos, pasados por alto aun siendo evidentes. El principal dato que fue omitido es precisamente el tiempo y la repercusión de esta omisión revertirá asimismo en la obnubilación de la realidad. De acuerdo con este autor, “el tiempo y la realidad están irreductiblemente vinculados. Negar el tiempo puede parecer un consuelo o semejar un triunfo de la razón humana, pero es siempre una negación de la realidad” (2000, p. 209). Esta negación del tiempo es una constante en la historia del conocimiento, desde los griegos hasta Hawking. Acerca de esto, desde Aristóteles, dice Prigogine, “hasta Feynman y Hawking, la física ha venido repitiendo la más paradójica de las negaciones, la flecha del tiempo, que sin embargo refleja la solidaridad de nuestra experiencia interior con el mundo en que vivimos” (1999, pp. 7-8). Para el autor ruso, la flecha del tiempo, es decir, el devenir irrepetible de las cosas, es algo que constata permanentemente la experiencia común.

Prigogine denuncia que el olvido del tiempo en la ciencia clásica se corresponde con un periodo donde la razón ha sido endiosada, de otra manera no se explicaría la obnubilación del tiempo efectivo, el cual es de suyo incierto para el conocimiento y riesgoso ante cualquier intento de predicción. El tiempo en la era del idealismo, es producto de la razón, y el devenir refulge como una ficción con un nulo interés científico. “Reducir nuestro tiempo vivido a una ilusión”,

4140

Ilya Prigogine y la sutura de la brecha epistemológica entre las ciencias y las humanidades Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 37-47

encadenamiento del ser se torna muy complicado y es imposible de probar mediante la experimentación. Sin embargo, la razón ha de aceptar que todas las cosas son como son precisamente debido a una causa. Aquí, el principio, la razón lo acepta en virtud de que asiente filosóficamente que dicho principio es evidente e inteligible.

Ahora bien, en lo que respecta al divorcio entre la ciencia y la filosofía, con respecto al afán de demarcación territorial por parte de la ciencia, dice Serge Moscovici (1996, p. 123) que éste se ha venido dando precisamente con el surgimiento de la ciencia nueva, ocasionando ciertas consecuencias desastrosas. En primer lugar, como resultado del ejercicio de este afán, la metafísica fue relegada a un nivel de pseudociencia, ya que al carecer del recurso de la experimentación carecía igualmente del ingrediente para retener el título de ciencia. El ejercicio de demarcación de la ciencia comenzó necesariamente con su contrastación por oposición a la estructura arquitectónica de la metafísica. Esta última se vio increpada pusilánimemente por dos frentes: por un lado, tenía la obligación de demostrar la cientificidad de sus conocimientos y, por otro, para pervivir tenía la consigna de emular tanto como fuera posible a la física. Este juicio contra la metafísica ha sido magistralmente orquestado y expuesto por Kant en la Crítica de la razón pura y Los prolegómenos.

El tercer episodio que podemos recoger acerca de la ruptura entre la senda de las ciencias y la de la filosofía queda plasmado, precisamente, en la expulsión u omisión del hombre del mapa de la naturaleza que dibuja la mecánica clásica. El sistema de los principios de la física clásica, ciertamente, permitía conocer el comportamiento de la naturaleza, en cuanto ésta, se pensó, estaba regida por leyes causales. El conocimiento de la ley permitía conocer la ubicación de cualquier objeto en cualquier lugar y momento. El método experimental, evidentemente, se acomodaba convenientemente a este tipo de objetos que pasivamente toleraban la manipulación y la experimentación controlada. Sin embargo, no toda la realidad es reductible a este tipo de seres. Galileo y Newton formulan una mecánica para la naturaleza, en la que no tienen cabida un ser con las características que presenta el hombre. Acerca de este punto, Moscovici dice que el avance de la mecánica clásica se concibió a condición de la supresión del hombre de la esfera de la realidad y del horizonte de la ciencia: “Como si no pudiese haber progreso más que a condición de echar al hombre fuera de la ciencia y fuera del mundo” (Moscovici, 1996, p. 124). La ciencia no siempre es consciente de sus actos, en la historia del conocimiento se toman decisiones bruscas y repentinas inundadas con el color del riesgo. Evidentemente, la ciencia está trazada por distintos caminos de exploración, algunos pueden ser afortunado, otros, por el contrario desafortunados.

La historia de la ciencia es una secuencia marcada por la condición que le fincan los antecedentes de la misma ciencia, los antecedentes teóricos y situacionales. Pero, al mismo tiempo, es una empresa libre, gestionada por la capacidad e ingenio del científico. Por más audaz e inteligente que éste sea, no está exento de riesgos, algunos de los cuales pueden ser pecata minuta, mientras que otros, llegan a ser lamentables. Es loable el gran paso dado por Newton al formular la mecánica. Se estaba asistiendo a un acontecimiento sui generis en la historia, ya que, por un tiempo, se pensó que las leyes de Newton eran en efecto las leyes inmutables que regían el universo. Es lamentable, sin embargo, que en la concepción de este sistema mecánico no se encontrase un lugar para el hombre. En él, “sólo conocemos allí donde estamos ausentes del conocimiento y no nos adueñamos más que de un mundo del cual estamos definitivamente excluidos” (Moscovici, 1996, p. 124). El hombre queda excluido no sólo de la naturaleza, también de la ciencia.

Ilya Prigogine dice que “la ciencia, es un diálogo con la naturaleza” (Prigogine, 2000, p. 167). El divorcio entre la filosofía respecto de la ciencia, en cierta medida, también es un divorcio entre la naturaleza y el hombre. Dicho divorcio aconteció favorecido por el anhelo de la física clásica de hallar las leyes inmutables del universo, las cuales aplicaban a los seres indiferentes de la naturaleza, no así al hombre. Prigogine considera que esta obsesión por parte de la mecánica clásica, y de la física de viejo cuño, como la aristotélica, fue lo que llevó a la ciencia a soterrar algunos datos, pasados por alto aun siendo evidentes. El principal dato que fue omitido es precisamente el tiempo y la repercusión de esta omisión revertirá asimismo en la obnubilación de la realidad. De acuerdo con este autor, “el tiempo y la realidad están irreductiblemente vinculados. Negar el tiempo puede parecer un consuelo o semejar un triunfo de la razón humana, pero es siempre una negación de la realidad” (2000, p. 209). Esta negación del tiempo es una constante en la historia del conocimiento, desde los griegos hasta Hawking. Acerca de esto, desde Aristóteles, dice Prigogine, “hasta Feynman y Hawking, la física ha venido repitiendo la más paradójica de las negaciones, la flecha del tiempo, que sin embargo refleja la solidaridad de nuestra experiencia interior con el mundo en que vivimos” (1999, pp. 7-8). Para el autor ruso, la flecha del tiempo, es decir, el devenir irrepetible de las cosas, es algo que constata permanentemente la experiencia común.

Prigogine denuncia que el olvido del tiempo en la ciencia clásica se corresponde con un periodo donde la razón ha sido endiosada, de otra manera no se explicaría la obnubilación del tiempo efectivo, el cual es de suyo incierto para el conocimiento y riesgoso ante cualquier intento de predicción. El tiempo en la era del idealismo, es producto de la razón, y el devenir refulge como una ficción con un nulo interés científico. “Reducir nuestro tiempo vivido a una ilusión”,

4140

Ilya Prigogine y la sutura de la brecha epistemológica entre las ciencias y las humanidades Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 37-47

anota Prigogine, “corresponde a una empresa de deificación de la razón, que accede así a lo eterno” (1996, p. 164). El olvido del tiempo en el sistema de la ciencia clásica se traduce también en la expulsión del hombre. En este sentido, si la obnubilación del tiempo en la ciencia fue lo que ocasionó el destierro del hombre, la consigna ahora consistirá en revertir semejante brecha a través de la incorporación del tiempo como dato primero de la experiencia común y de la ciencia.

Podría decirse que, en el horizonte de la meditación de Prigogine, la superación de la fisura histórica entre las dos culturas -filosofía y ciencia-, se pondrá en marcha sólo a partir, y a propósito, de la reintegración del hombre en la naturaleza y en la ciencia. El primer paso de este programa consistirá en reconocer la objetividad del tiempo, es decir, que “nosotros no engendramos la flecha del tiempo. Por el contrario, somos sus vástagos” (2000, p. 12). La reincorporación del hombre en el mundo es como una travesía pero en sentido inverso; se trata en cierta manera de desandar un camino que se pensó era el más firme. Pero el anhelo de dicha firmeza será justamente lo que motive la consideración del no equilibrio, la irreversibilidad y la inestabilidad como propiedades de la realidad, haciendo con esto justicia a los fenómenos que vemos.

Es importante mencionar que la trama del reingreso del hombre a la naturaleza por conducto de la ciencia, no ha sucedido de un golpe. Éste ha sido gradual, y ha sucedido, en primer lugar, gracias al reconocimiento del tiempo. Podría decirse que cuando se involucra el tiempo en la reflexión de la ciencia entonces surge una nueva forma de dialogar con la naturaleza, es decir, surge una nueva alianza entre la ciencia y la naturaleza. Esto implica “un cambio de todas nuestras relaciones con el mundo: tanto de la relación hombre-naturaleza como de la relación hombre-hombre” (Prigogine, 1996, p. 171). Este cambio en nuestras relaciones se finca principalmente en el respeto hacia lo otro y hacia el otro, porque “la razón, en lo sucesivo, está más a la escucha del mundo que al acecho de un dominio sobre un mundo sometido sin condiciones” (1996, p. 189). Dice Prigogine que es precisamente aquí cuando se reconoce la objetividad del devenir y se deja en libertad al ser. Cuando al ser se le emancipa del imperio de la razón, entonces las cosas comienzan, por así decirlo, a seguir su propio cauce, comienzan a ver. En adelante, el papel del estudioso no va a consistir en imponer sus cuadros mentales al comportamiento de la realidad, por el contrario, se le exigirá estar en permanente estado de alerta a fin de dar cuenta y razón del aparecer del ser.

La incorporación de la flecha del tiempo al sistema de la ciencia de la naturaleza, trae aparejada una vicisitud epistemológica, a saber, marca el fin de las certidumbres, esto es, la metamorfosis de la ciencia contemporánea. Porque

es precisamente el tiempo el que hace imposible la reversibilidad del ser: en la naturaleza no hay cabida para las repeticiones, las cosas suceden una vez y nada más. En este contexto, resulta imposible sustentar la validez de una proposición en la recurrencia de un experimento bajo condiciones controladas. Ningún experimento es el mismo nunca. El universo ya es otro a cada segundo y cada proposición vale para cada momento del fluir de la realidad. Esto hace efectivamente imposible la previsión, que fue uno de los elementos que arropó la arrogancia de la física clásica. En lugar de la predicción, ahora la física de Prigogine apuesta mejor por una humilde aproximación estadística. No nos encontramos en un universo caótico desprovisto de leyes, la presencia de la flecha del tiempo marca simplemente una restricción en la certidumbre de la predicción. La ciencia ahora tiene que aceptar con humildad que el ser sobrepasa a cualquier formulación simbólica.

Sin embargo, podría decirse que la recuperación del tiempo, en el programa que se atisba en Prigogine, como pieza fundamental para la incorporación del hombre en el mundo y la superación de la dicotomía entre las dos culturas, no figura como una estrategia metodológica, sino como un paso indispensable hacia la articulación de la realidad en un todo sistemático.

De acuerdo con Moscovici “el reingreso del hombre en la naturaleza, tuvo lugar por etapas. Estas han exigido un buen número de renunciamientos a ideas claras, rigurosas, formadas en un mundo menos complicado, antes de penetrar en el dominio complejo de la energía y sus átomos” (1996, p. 126). Son en total tres las etapas que pueden contarse en la secuencia de esta escarpada científica del hombre hacia la naturaleza. Primero, la teoría de la relatividad, segundo, la mecánica cuántica, y tercero, la teoría del caos de Prigogine.

Este reingreso ha comenzado, tímidamente, con la relatividad […] Lo hizo mostrando que las mediciones del tiempo son esencialmente relativas. Dependen del punto de vista del observador. Por consiguiente, son diferentes para dos observadores en movimiento uno en relación con el otro. Para la observación de los fenómenos depende del marco de referencia en el cual uno se sitúe y no de su ausencia, como se pensaba. Y se necesitan por lo menos dos observadores para distinguir entre dos eventos. Solos, no percibimos más que apariencias; varios, aprehendemos la realidad. Toda verdad que valga la pena conocerse supone así una comunicación de información, de un observador a otro (Moscovici, 1996, p. 126).

Uno de los grandes méritos de la teoría de la relatividad a propósito del reingreso del hombre al mundo ha consistido en venir a demostrar, desde la física, que el conocimiento no puede realizarse en solitario. Obligatoriamente,

4342

Ilya Prigogine y la sutura de la brecha epistemológica entre las ciencias y las humanidades Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 37-47

anota Prigogine, “corresponde a una empresa de deificación de la razón, que accede así a lo eterno” (1996, p. 164). El olvido del tiempo en el sistema de la ciencia clásica se traduce también en la expulsión del hombre. En este sentido, si la obnubilación del tiempo en la ciencia fue lo que ocasionó el destierro del hombre, la consigna ahora consistirá en revertir semejante brecha a través de la incorporación del tiempo como dato primero de la experiencia común y de la ciencia.

Podría decirse que, en el horizonte de la meditación de Prigogine, la superación de la fisura histórica entre las dos culturas -filosofía y ciencia-, se pondrá en marcha sólo a partir, y a propósito, de la reintegración del hombre en la naturaleza y en la ciencia. El primer paso de este programa consistirá en reconocer la objetividad del tiempo, es decir, que “nosotros no engendramos la flecha del tiempo. Por el contrario, somos sus vástagos” (2000, p. 12). La reincorporación del hombre en el mundo es como una travesía pero en sentido inverso; se trata en cierta manera de desandar un camino que se pensó era el más firme. Pero el anhelo de dicha firmeza será justamente lo que motive la consideración del no equilibrio, la irreversibilidad y la inestabilidad como propiedades de la realidad, haciendo con esto justicia a los fenómenos que vemos.

Es importante mencionar que la trama del reingreso del hombre a la naturaleza por conducto de la ciencia, no ha sucedido de un golpe. Éste ha sido gradual, y ha sucedido, en primer lugar, gracias al reconocimiento del tiempo. Podría decirse que cuando se involucra el tiempo en la reflexión de la ciencia entonces surge una nueva forma de dialogar con la naturaleza, es decir, surge una nueva alianza entre la ciencia y la naturaleza. Esto implica “un cambio de todas nuestras relaciones con el mundo: tanto de la relación hombre-naturaleza como de la relación hombre-hombre” (Prigogine, 1996, p. 171). Este cambio en nuestras relaciones se finca principalmente en el respeto hacia lo otro y hacia el otro, porque “la razón, en lo sucesivo, está más a la escucha del mundo que al acecho de un dominio sobre un mundo sometido sin condiciones” (1996, p. 189). Dice Prigogine que es precisamente aquí cuando se reconoce la objetividad del devenir y se deja en libertad al ser. Cuando al ser se le emancipa del imperio de la razón, entonces las cosas comienzan, por así decirlo, a seguir su propio cauce, comienzan a ver. En adelante, el papel del estudioso no va a consistir en imponer sus cuadros mentales al comportamiento de la realidad, por el contrario, se le exigirá estar en permanente estado de alerta a fin de dar cuenta y razón del aparecer del ser.

La incorporación de la flecha del tiempo al sistema de la ciencia de la naturaleza, trae aparejada una vicisitud epistemológica, a saber, marca el fin de las certidumbres, esto es, la metamorfosis de la ciencia contemporánea. Porque

es precisamente el tiempo el que hace imposible la reversibilidad del ser: en la naturaleza no hay cabida para las repeticiones, las cosas suceden una vez y nada más. En este contexto, resulta imposible sustentar la validez de una proposición en la recurrencia de un experimento bajo condiciones controladas. Ningún experimento es el mismo nunca. El universo ya es otro a cada segundo y cada proposición vale para cada momento del fluir de la realidad. Esto hace efectivamente imposible la previsión, que fue uno de los elementos que arropó la arrogancia de la física clásica. En lugar de la predicción, ahora la física de Prigogine apuesta mejor por una humilde aproximación estadística. No nos encontramos en un universo caótico desprovisto de leyes, la presencia de la flecha del tiempo marca simplemente una restricción en la certidumbre de la predicción. La ciencia ahora tiene que aceptar con humildad que el ser sobrepasa a cualquier formulación simbólica.

Sin embargo, podría decirse que la recuperación del tiempo, en el programa que se atisba en Prigogine, como pieza fundamental para la incorporación del hombre en el mundo y la superación de la dicotomía entre las dos culturas, no figura como una estrategia metodológica, sino como un paso indispensable hacia la articulación de la realidad en un todo sistemático.

De acuerdo con Moscovici “el reingreso del hombre en la naturaleza, tuvo lugar por etapas. Estas han exigido un buen número de renunciamientos a ideas claras, rigurosas, formadas en un mundo menos complicado, antes de penetrar en el dominio complejo de la energía y sus átomos” (1996, p. 126). Son en total tres las etapas que pueden contarse en la secuencia de esta escarpada científica del hombre hacia la naturaleza. Primero, la teoría de la relatividad, segundo, la mecánica cuántica, y tercero, la teoría del caos de Prigogine.

Este reingreso ha comenzado, tímidamente, con la relatividad […] Lo hizo mostrando que las mediciones del tiempo son esencialmente relativas. Dependen del punto de vista del observador. Por consiguiente, son diferentes para dos observadores en movimiento uno en relación con el otro. Para la observación de los fenómenos depende del marco de referencia en el cual uno se sitúe y no de su ausencia, como se pensaba. Y se necesitan por lo menos dos observadores para distinguir entre dos eventos. Solos, no percibimos más que apariencias; varios, aprehendemos la realidad. Toda verdad que valga la pena conocerse supone así una comunicación de información, de un observador a otro (Moscovici, 1996, p. 126).

Uno de los grandes méritos de la teoría de la relatividad a propósito del reingreso del hombre al mundo ha consistido en venir a demostrar, desde la física, que el conocimiento no puede realizarse en solitario. Obligatoriamente,

4342

Ilya Prigogine y la sutura de la brecha epistemológica entre las ciencias y las humanidades Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 37-47

se requiere del concurso del otro para contrastar puntos de vista a fin de extraer conclusiones. Podría decirse que, con la teoría de la relatividad, el solipsismo cartesiano viene a truncarse, y aparece, en el horizonte de la realidad epistemológica, el otro como correlato de mi punto de vista.

La segunda etapa está representada por la mecánica cuántica:

La mecánica cuántica ha ido más lejos, ha descubierto que, gracias al refinamiento de los instrumentos de la experiencia, podemos hacer observaciones de procesos atómicos, [en donde] cada experiencia y cada medida 'perturba' los fenómenos […] Según la mecánica cuántica, nosotros formamos parte de este mundo completo. Lo observamos y al observarlo lo cambiamos cada vez (Moscovici, 1996, p. 127).

Es sabido que en la mecánica cuántica la interacción entre el observador y lo observado constituyen un sistema indesglosable. El mundo, podría decirse, desde esta óptica, es un sistema constituido por dos relieves inseparables, el sujeto y el objeto. Cada cual se define recíprocamente. El mundo es uno, el sujeto afecta el objeto, y a su vez, el objeto al no estar desvinculado del sujeto forman un una unidad sistemática.

Finalmente, la tercera etapa está marcada por la teoría del caos de Prigogine. Precisamente porque ésta afirma que toda la realidad está atravesada por la flecha del tiempo. Pero la función de esta flecha no sólo consiste en recordar que en la naturaleza no existen hechos repetibles sino, además, que esta flecha es una suerte de común denominador en todos los seres. Es el principio de unidad del ser. No existe ser alguno que se sustraiga a la flecha del tiempo. Es precisamente el tiempo quien permite hablar de una articulación sistemática de la realidad. Por el tiempo el ser se posee desde su centro y desde el interior, no hay cabida para el afuera. En este sentido, anota Prigogine, el tiempo “es una propiedad global, que obliga a considerar el sistema dinámico como un todo” (2000, 170). El tiempo es la noción que permite hablar en Prigogine de la unidad de la realidad. La realidad ahora aparece como una y diversa a la vez; es una por la imposibilidad que posee, en cuanto temporal, de desarticularse en fragmentos, y es diversa, porque a cada momento cada parte configura el rostro de una diferencia específica e irrepetible. “La hipótesis indeterminista nos lleva a entender los dos rasgos principales de la naturaleza: su unidad y su diversidad. La flecha del tiempo, común a todas las partes del universo, da testimonio de dicha unidad” (2000, 61). La unidad es correlativa de la diversidad y a su vez la diversidad es relativa a la unidad.

En realidad, Prigogine, con la alusión a la flecha del tiempo, está dando esbozos de una ontología estricta, retoma indirectamente el tópico espinoso del ser y su

relación con el tiempo, sutura la herida metafísica de la dislocación entre el ser y el tiempo a través de la incorporación del tiempo como nota esencial de la realidad. ¿Y el hombre dónde queda?, “¿qué decir de nuestro mundo que ha alimentado la metamorfosis contemporánea de la ciencia? Es un mundo que podemos comprender como natural en el mismo instante en el que comprendemos que formamos parte de él” (Prigogine y Stengers, 1997, p. 323). En Prigogine no hay posibilidad para un más allá, o un afuera ontológico. Por el devenir todo el ser está interconectado, y el puesto del hombre por fin se afianza en el interior de la realidad. Con Prigogine, la travesía científica en pos de la reincorporación del hombre en la naturaleza encuentra una resolución contundente: el hombre piensa la naturaleza desde la naturaleza. El sistema de la realidad es un todo que remite a la parte, y a su vez la parte se explica por el todo.

En la visión sistemática de la realidad de Prigogine, cada parte tienen que ver con el resto, cada porción de la realidad repercute en lo otro. Cada movimiento mueve de alguna u otra forma el resto del sistema. Cada parte se explica por el conjunto de interacciones que guarda con el contexto que le circunda: “estructura y función son inseparables” (2000, p. 69).

Ahora bien, si trasladamos esta argamasa a un ámbito epistemológico, veremos, en primer lugar, el concierto de voces hablando inclusive sobre un mismo tópico desde distintos puntos de vista. La tolerancia que merece cada opinión se finca en el respeto hacia el aparecer objetivo del ser, porque “cuando aprendemos el respeto que la teoría física nos impone hacia la naturaleza, debemos igualmente aprender a respetar las demás formas de abordar las demás formas intelectuales” (Prigogine y Stengers, 1997, p. 323). Para Prigogine, la física es solamente una de las tantas voces y maneras de abordar el estudio de la naturaleza, pero no es en absoluto la única ni la última palabra. La filosofía es otra voz legítima para hablar acerca de la realidad natural y social.

Afirma Emmanuel Wallerstein que en el pensamiento de Prigogine “la ciencia y la filosofía son actividades complementarias con una base epistemológica común” (Wallerstein, 2005, p. 51). Son complementarias porque irremisiblemente requieren cada cual del concurso del punto de vista ajeno para efectuar el conocimiento. Asimismo, poseen una base común porque ambas son gestionadas por el ser del hombre y tienen a la naturaleza como el mismo punto teórico de partida. La realidad es la condición para el surgimiento de una teoría o de una filosofía (Moscovici, 1996, p. 145). En este sentido, la ciencia es ante todo ciencia humana, porque es una creación histórica y humana. Hoy las llamadas ciencias duras, que otrora se consideraron ahistóricas, “se afirman como ciencia humana ciencia hecha por hombres para hombres. En el seno de una población rica y diversa de practicas cognitivas” (Prigogine y Stengers,

4544

Ilya Prigogine y la sutura de la brecha epistemológica entre las ciencias y las humanidades Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 37-47

se requiere del concurso del otro para contrastar puntos de vista a fin de extraer conclusiones. Podría decirse que, con la teoría de la relatividad, el solipsismo cartesiano viene a truncarse, y aparece, en el horizonte de la realidad epistemológica, el otro como correlato de mi punto de vista.

La segunda etapa está representada por la mecánica cuántica:

La mecánica cuántica ha ido más lejos, ha descubierto que, gracias al refinamiento de los instrumentos de la experiencia, podemos hacer observaciones de procesos atómicos, [en donde] cada experiencia y cada medida 'perturba' los fenómenos […] Según la mecánica cuántica, nosotros formamos parte de este mundo completo. Lo observamos y al observarlo lo cambiamos cada vez (Moscovici, 1996, p. 127).

Es sabido que en la mecánica cuántica la interacción entre el observador y lo observado constituyen un sistema indesglosable. El mundo, podría decirse, desde esta óptica, es un sistema constituido por dos relieves inseparables, el sujeto y el objeto. Cada cual se define recíprocamente. El mundo es uno, el sujeto afecta el objeto, y a su vez, el objeto al no estar desvinculado del sujeto forman un una unidad sistemática.

Finalmente, la tercera etapa está marcada por la teoría del caos de Prigogine. Precisamente porque ésta afirma que toda la realidad está atravesada por la flecha del tiempo. Pero la función de esta flecha no sólo consiste en recordar que en la naturaleza no existen hechos repetibles sino, además, que esta flecha es una suerte de común denominador en todos los seres. Es el principio de unidad del ser. No existe ser alguno que se sustraiga a la flecha del tiempo. Es precisamente el tiempo quien permite hablar de una articulación sistemática de la realidad. Por el tiempo el ser se posee desde su centro y desde el interior, no hay cabida para el afuera. En este sentido, anota Prigogine, el tiempo “es una propiedad global, que obliga a considerar el sistema dinámico como un todo” (2000, 170). El tiempo es la noción que permite hablar en Prigogine de la unidad de la realidad. La realidad ahora aparece como una y diversa a la vez; es una por la imposibilidad que posee, en cuanto temporal, de desarticularse en fragmentos, y es diversa, porque a cada momento cada parte configura el rostro de una diferencia específica e irrepetible. “La hipótesis indeterminista nos lleva a entender los dos rasgos principales de la naturaleza: su unidad y su diversidad. La flecha del tiempo, común a todas las partes del universo, da testimonio de dicha unidad” (2000, 61). La unidad es correlativa de la diversidad y a su vez la diversidad es relativa a la unidad.

En realidad, Prigogine, con la alusión a la flecha del tiempo, está dando esbozos de una ontología estricta, retoma indirectamente el tópico espinoso del ser y su

relación con el tiempo, sutura la herida metafísica de la dislocación entre el ser y el tiempo a través de la incorporación del tiempo como nota esencial de la realidad. ¿Y el hombre dónde queda?, “¿qué decir de nuestro mundo que ha alimentado la metamorfosis contemporánea de la ciencia? Es un mundo que podemos comprender como natural en el mismo instante en el que comprendemos que formamos parte de él” (Prigogine y Stengers, 1997, p. 323). En Prigogine no hay posibilidad para un más allá, o un afuera ontológico. Por el devenir todo el ser está interconectado, y el puesto del hombre por fin se afianza en el interior de la realidad. Con Prigogine, la travesía científica en pos de la reincorporación del hombre en la naturaleza encuentra una resolución contundente: el hombre piensa la naturaleza desde la naturaleza. El sistema de la realidad es un todo que remite a la parte, y a su vez la parte se explica por el todo.

En la visión sistemática de la realidad de Prigogine, cada parte tienen que ver con el resto, cada porción de la realidad repercute en lo otro. Cada movimiento mueve de alguna u otra forma el resto del sistema. Cada parte se explica por el conjunto de interacciones que guarda con el contexto que le circunda: “estructura y función son inseparables” (2000, p. 69).

Ahora bien, si trasladamos esta argamasa a un ámbito epistemológico, veremos, en primer lugar, el concierto de voces hablando inclusive sobre un mismo tópico desde distintos puntos de vista. La tolerancia que merece cada opinión se finca en el respeto hacia el aparecer objetivo del ser, porque “cuando aprendemos el respeto que la teoría física nos impone hacia la naturaleza, debemos igualmente aprender a respetar las demás formas de abordar las demás formas intelectuales” (Prigogine y Stengers, 1997, p. 323). Para Prigogine, la física es solamente una de las tantas voces y maneras de abordar el estudio de la naturaleza, pero no es en absoluto la única ni la última palabra. La filosofía es otra voz legítima para hablar acerca de la realidad natural y social.

Afirma Emmanuel Wallerstein que en el pensamiento de Prigogine “la ciencia y la filosofía son actividades complementarias con una base epistemológica común” (Wallerstein, 2005, p. 51). Son complementarias porque irremisiblemente requieren cada cual del concurso del punto de vista ajeno para efectuar el conocimiento. Asimismo, poseen una base común porque ambas son gestionadas por el ser del hombre y tienen a la naturaleza como el mismo punto teórico de partida. La realidad es la condición para el surgimiento de una teoría o de una filosofía (Moscovici, 1996, p. 145). En este sentido, la ciencia es ante todo ciencia humana, porque es una creación histórica y humana. Hoy las llamadas ciencias duras, que otrora se consideraron ahistóricas, “se afirman como ciencia humana ciencia hecha por hombres para hombres. En el seno de una población rica y diversa de practicas cognitivas” (Prigogine y Stengers,

4544

Ilya Prigogine y la sutura de la brecha epistemológica entre las ciencias y las humanidades Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 37-47

1997, pp. 309-310). Ya no son históricas únicamente las humanidades, también lo son las ciencias. Y esto es “lo que destruye ciertamente la idea de una oposición fundamental entre la ciencia y la metafísica” (Prigogine y Stengers, 1997, p. 131). Se inicia así un diálogo entre la ciencia y la filosofía en el marco de una estructura de relación, es cierto que cada porción de la realidad recibe su identidad en el claro de sus relaciones con lo otro. La mismidad se alcanza en el contraste con el resto del lo que es. Así, entonces la filosofía y la ciencia recibirán su identidad en función de su interacción recíproca en el devenir innovador del conocimiento.

Podría decirse que, así como es posible derivar una ontología sistémica de la realidad en Prigogine, también es posible hablar de una articulación sistemática en el orden del conocer, sustentado en la naturaleza insuficiente de cada disciplina y teoría, ya sea en ciencia o en filosofía. De hecho, como dice Wallerstein, Prigogine

[…] reivindicó el llamado a una ciencia unificada, pero no en la línea de los filósofos analíticos […], sino en el sentido de que las ciencias naturales formaran parte de una familia científica más grande en la cual el tema común fuesen las premisas socioculturales y las relaciones entre todas las actividades vinculadas con el saber, y en la que se supera la división de las dos culturas (2005, p. 51).

Sistema, aquí, ya no significa algo concluso o cerrado. Por el contrario, alude a la articulación de diferentes partes en la unidad de un cuerpo. Filosofía y ciencia son partes de un sistema, ciertamente irreductibles una respecto de la otra, pero ambas forman parte del sistema general del conocimiento.

Prigogine supera la dicotomía entre la ciencia y la metafísica configurando la idea de una ciencia unificada: “Sólo conocemos las ciencias, en las que cada una, solidaria con las otras, conserva, sin embargo, su fisonomía propia” (Moscovici, 1996, pp. 140-141). De hecho, la misma noción de ciencia queda ahora trastocada, pues esta noción no alude a una especialidad, sino más bien a una comunidad de saberes en donde la misma metafísica encuentra también cabida. De modo que el carácter propio de la ciencia moderna no reside en que cualitativamente pueda distinguirse de la metafísica o de otros modos de conocimiento. Consiste en que define una nueva relación con el mundo externo, que incluye a los hombres y su acción en el horizonte del tiempo irrepetible.

Bibliografía

Aristóteles (1995). Física, versión castellana de Guillermo R. De Echandía, Madrid: Biblioteca Clásica Gredos.

Frank, P. (1965). Filosofía de la ciencia. Versión castellana de Francisco González, México: Ed. Herreros Hermanos Sucesores. Kuhn, T. S. (2004). La estructura de las revoluciones científicas. Versión castellana de Carlos Solís Santos, México: Fondo de Cultura Económica.Lakatos, I. (2002). Escritos filosóficos, 1 la metodología de los programas de investigación científica, versión castellana de Juan Carlos Zapatero, Madrid: Alianza.Martínez Miguélez, M. (1997). El paradigma emergente. México: Ed. Trillas.Moscovici, S. (1996). La historia humana de la naturaleza. En I. Prigogine (Ed.). El tiempo y el devenir, Coloquio de Cerisy, Barcelona: Gedisa, 121-154.Nicol, E. (1974). Metafísica de la expresión, México: Fondo de Cultura Económica.Popper, K. R. (1999). La lógica de la investigación científica. Versión castellana de Víctor Sánchez de Zavala, Madrid: Tecnos.Prigogine, I. (2000). El fin de las certidumbres. Chile: Ed. Andrés Bello. Prigogine, I. (1998). El nacimiento del tiempo. Barcelona, Tusquets.Prigogine, I. (1996). ¿Un siglo de esperanza? En, I. Prigogine. El tiempo y el devenir, Coloquio de Cerisy. Barcelona: Gedisa.Prigogine, I. (1999). Las leyes del caos, Barcelona: Crítica.Prigogine, I. y Stengers I. (1997). La nueva alianza, metamorfosis de la ciencia, Madrid: Alianza. Schneider, J. (1996). Irreversibilidad, temporalidad y pulsión. En I. Prigogine (Ed.). El tiempo y el devenir, Coloquio de Cerisy. Barcelona: Gedisa, 345-352.Vargas Guillen, G. (2003). Tratado de epistemología. Bogotá: Ed. San Pablo.Wallerstein, I. (2005). Las incertidumbres del saber. Barcelona: Gedisa.

4746

Ilya Prigogine y la sutura de la brecha epistemológica entre las ciencias y las humanidades Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 37-47

1997, pp. 309-310). Ya no son históricas únicamente las humanidades, también lo son las ciencias. Y esto es “lo que destruye ciertamente la idea de una oposición fundamental entre la ciencia y la metafísica” (Prigogine y Stengers, 1997, p. 131). Se inicia así un diálogo entre la ciencia y la filosofía en el marco de una estructura de relación, es cierto que cada porción de la realidad recibe su identidad en el claro de sus relaciones con lo otro. La mismidad se alcanza en el contraste con el resto del lo que es. Así, entonces la filosofía y la ciencia recibirán su identidad en función de su interacción recíproca en el devenir innovador del conocimiento.

Podría decirse que, así como es posible derivar una ontología sistémica de la realidad en Prigogine, también es posible hablar de una articulación sistemática en el orden del conocer, sustentado en la naturaleza insuficiente de cada disciplina y teoría, ya sea en ciencia o en filosofía. De hecho, como dice Wallerstein, Prigogine

[…] reivindicó el llamado a una ciencia unificada, pero no en la línea de los filósofos analíticos […], sino en el sentido de que las ciencias naturales formaran parte de una familia científica más grande en la cual el tema común fuesen las premisas socioculturales y las relaciones entre todas las actividades vinculadas con el saber, y en la que se supera la división de las dos culturas (2005, p. 51).

Sistema, aquí, ya no significa algo concluso o cerrado. Por el contrario, alude a la articulación de diferentes partes en la unidad de un cuerpo. Filosofía y ciencia son partes de un sistema, ciertamente irreductibles una respecto de la otra, pero ambas forman parte del sistema general del conocimiento.

Prigogine supera la dicotomía entre la ciencia y la metafísica configurando la idea de una ciencia unificada: “Sólo conocemos las ciencias, en las que cada una, solidaria con las otras, conserva, sin embargo, su fisonomía propia” (Moscovici, 1996, pp. 140-141). De hecho, la misma noción de ciencia queda ahora trastocada, pues esta noción no alude a una especialidad, sino más bien a una comunidad de saberes en donde la misma metafísica encuentra también cabida. De modo que el carácter propio de la ciencia moderna no reside en que cualitativamente pueda distinguirse de la metafísica o de otros modos de conocimiento. Consiste en que define una nueva relación con el mundo externo, que incluye a los hombres y su acción en el horizonte del tiempo irrepetible.

Bibliografía

Aristóteles (1995). Física, versión castellana de Guillermo R. De Echandía, Madrid: Biblioteca Clásica Gredos.

Frank, P. (1965). Filosofía de la ciencia. Versión castellana de Francisco González, México: Ed. Herreros Hermanos Sucesores. Kuhn, T. S. (2004). La estructura de las revoluciones científicas. Versión castellana de Carlos Solís Santos, México: Fondo de Cultura Económica.Lakatos, I. (2002). Escritos filosóficos, 1 la metodología de los programas de investigación científica, versión castellana de Juan Carlos Zapatero, Madrid: Alianza.Martínez Miguélez, M. (1997). El paradigma emergente. México: Ed. Trillas.Moscovici, S. (1996). La historia humana de la naturaleza. En I. Prigogine (Ed.). El tiempo y el devenir, Coloquio de Cerisy, Barcelona: Gedisa, 121-154.Nicol, E. (1974). Metafísica de la expresión, México: Fondo de Cultura Económica.Popper, K. R. (1999). La lógica de la investigación científica. Versión castellana de Víctor Sánchez de Zavala, Madrid: Tecnos.Prigogine, I. (2000). El fin de las certidumbres. Chile: Ed. Andrés Bello. Prigogine, I. (1998). El nacimiento del tiempo. Barcelona, Tusquets.Prigogine, I. (1996). ¿Un siglo de esperanza? En, I. Prigogine. El tiempo y el devenir, Coloquio de Cerisy. Barcelona: Gedisa.Prigogine, I. (1999). Las leyes del caos, Barcelona: Crítica.Prigogine, I. y Stengers I. (1997). La nueva alianza, metamorfosis de la ciencia, Madrid: Alianza. Schneider, J. (1996). Irreversibilidad, temporalidad y pulsión. En I. Prigogine (Ed.). El tiempo y el devenir, Coloquio de Cerisy. Barcelona: Gedisa, 345-352.Vargas Guillen, G. (2003). Tratado de epistemología. Bogotá: Ed. San Pablo.Wallerstein, I. (2005). Las incertidumbres del saber. Barcelona: Gedisa.

4746

Ilya Prigogine y la sutura de la brecha epistemológica entre las ciencias y las humanidades Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 37-47

Las Comunidades de Paz como modelo de cooperación

Carlos Escobar Uribe*

Resumen

Desde la emergencia de las Comunidades de Paz se hace visible la pertinencia de la teoría de la cooperación no solo para el examen de las condiciones de posibilidad de su estabilidad sistémica, sino también en el intento de hacer un análisis más o menos prospectivo de las comunidades de paz en términos de su permanencia como actores políticos.

Palabras clave: cooperación, comunidades de paz, violencia, sistemas autopoiéticos.

Abstract

Since the peace communities arised, the pertinence of cooperation theory, not only for the study of their systemic stability' conditions of possibility, but also as an attempt of a more or less prospective analysis of peace communities in terms of their permanence as political actors, has become clear.

Key Words: cooperation, peace communities, violence, autopoietic systems.

* Abogado de la Universidad del Rosario (Bogotá), Especialista en Filosofía de la Ciencia de la Universidad El Bosque (Bogotá) y profesor de la Universidad Javeriana (Bogotá).

49

Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 49-60

Contexto de las Comunidades de Paz

Las Comunidades de Paz surgen en la región de Urabá, ubicada en la esquina noroeste de Colombia, en una frontera entre el mar, la selva y la zona andina central. La región de Urabá integra municipios de los departamentos de Chocó, Córdoba y Antioquia; se estima que tiene una extensión de 1'230.000 hectáreas dedicadas principalmente al cultivo del banano primitivo y a la ganadería extensiva. Tuvo un poblamiento tardío, que no se inició sino hasta mediados del siglo XX, como consecuencia de la violencia desatada desde 1948, y del desarrollo de proyectos económicos que generaron un movimiento migratorio amplio y vertiginoso, lo que implicó la emergencia de conflictos territoriales, laborales y sociales.

La explotación de la que fueron objeto los trabajadores de las plantaciones bananeras, impulsó el surgimiento de otros conflictos sociales y políticos y generó nuevos actores en esta región. La forma en que los actores involucrados actuaron frente a este panorama supuso el inicio de una dinámica altamente violenta (Hernández, 2005). Como consecuencia, en la región se consolidó el dominio de las FARC-EP durante más o menos 15 años, hasta la incursión en la década de los 1990 del paramiliarismo, generando una agudización del conflicto y la búsqueda de nuevas alternativas por parte de los pobladores. Con el apoyo de la iglesia católica y organizaciones no gubernamentales las comunidades más afectadas se declararon Comunidades de Paz, invocando la distinción entre civiles y actores armados establecida en el Derecho Internacional Humanitario. El presente artículo estudia el caso de las comunidades pioneras: San José de Apartadó y San Francisco de Asís.

En la literatura canónica sobre sistemas políticos se han hecho explícitas las concepciones de la política que subyacen a sus propuestas analíticas. Easton por ejemplo habla de “vida política” y la caracteriza a través de dos variables esenciales: la asignación de valores a una sociedad y el carácter autoritativo de esta asignación, es decir lograr que la mayoría de sus miembros acepten estas asignaciones como obligatorias, al menos la mayor parte del tiempo (Easton, 1966).

Menos preciso pero más inclusivo, Bouza-Brey habla de “la política” y la define en sentido amplio como el gobierno de las situaciones sociales, en el sentido de dirigirlas, ordenarlas e integrarlas. Así, “Toda actividad humana tendiente a orientar hacia metas las situaciones sociales; o a ordenarlas e integrarlas, asignando papeles, recompensas, sanciones y resolviendo conflictos, es una actividad política” (Bouza-Brey, p. 39); y al hablar en sentido estricto, reconoce el poder como imprescindible en la política. Hasta aquí, esta definición parecería en principio contribuir a la concepción de las dinámicas de las

comunidades de paz como políticas y por lo tanto a éstas como actores políticos. No obstante, tanto Easton como Bouza-Brey, entienden el poder atado a la obediencia, nos remiten a la dominación como piedra de toque de todo sistema político y es allí donde este texto toma distancia.

Espero demostrar que las definiciones de la esfera política planteadas por los autores citados, no permiten explicar fenómenos de indudable naturaleza política que escapan a definiciones verticales o de obediencia. La fuerza analítica de las escuelas sistémicas y la interesante ampliación de esferas por ellas propuesta, vuelve a restringirse al ser el gobierno el elemento central del

1sistema político . Acogerse a una definición “gobiernocéntrica” implica preguntarse por la influencia de las comunidades de paz en las decisiones de gobierno, quedando implícito que su existencia política depende de esta relación, mediada o no por las elites.

Incluso rechazando al poder central, las comunidades de paz se nos aparecen sin relación directa con el Estado. Ello no disminuye la enorme fuerza política que representan como agentes colectivos, en palabras de uno de sus furibundos

2detractores , estas comunidades “destierran al Estado” (Clavijo, 2005).

¿Desde qué perspectiva epistemológica se debe abordar el objeto de estudio “comunidades de paz”? Como vimos, las teorías sistémicas imposibilitan el abordaje al tema porpuesto debido a su enorme carga legaliforme que se traduce en suponer la política con una estructura vertical de poder y en cierta medida al Estado como aglutinante y condición de inteligibilidad de las relaciones políticas. Su caso no es singular. Procede de una estirpe de pensamiento claramente definida en términos epistemológicos como el realismo. El auge de la filosofía analítica es sólo el correlato de esa postura cognitiva de base.

Examinado detenidamente la evolución de las comunidades de paz, es posible observar que su desarrollo procede de un conjunto muy complejo de elementos que difícilmente se separan de, la historia vital de sus protagonistas así como de las condiciones socio-estructurales que soportan y permiten esa historia vital. Podemos sostener, con Maldonado, que “la importancia de la política consiste en la comprensión de la vida misma en su multiplicidad de facetas y dimensiones, con sus entrecuzamientos e influencias diversas y recíprocas” (Maldonado, 2002, p. 9)

1 “…aquellos problemas, demandas y expresiones de descontento o violencia o apoyos, que requieren decisiones o acciones colectivas de gobierno” (Bouza-Brey, 1996, p. 64)2 Clavijo, Adolfo. ¿Comunidades de Paz? Semana On Line, Edición 1194. Bogotá, marzo 17 de 2005, El mismo columnista, indignado reclama: “Ninguna parte del territorio colombiano puede tener un letrero que diga: "Prohibida la entrada a militares y policías" o sea, a los organismos de seguridad del Estado”.

5150

Las Comunidades de Paz como modelo de Cooperación Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 49-60

Contexto de las Comunidades de Paz

Las Comunidades de Paz surgen en la región de Urabá, ubicada en la esquina noroeste de Colombia, en una frontera entre el mar, la selva y la zona andina central. La región de Urabá integra municipios de los departamentos de Chocó, Córdoba y Antioquia; se estima que tiene una extensión de 1'230.000 hectáreas dedicadas principalmente al cultivo del banano primitivo y a la ganadería extensiva. Tuvo un poblamiento tardío, que no se inició sino hasta mediados del siglo XX, como consecuencia de la violencia desatada desde 1948, y del desarrollo de proyectos económicos que generaron un movimiento migratorio amplio y vertiginoso, lo que implicó la emergencia de conflictos territoriales, laborales y sociales.

La explotación de la que fueron objeto los trabajadores de las plantaciones bananeras, impulsó el surgimiento de otros conflictos sociales y políticos y generó nuevos actores en esta región. La forma en que los actores involucrados actuaron frente a este panorama supuso el inicio de una dinámica altamente violenta (Hernández, 2005). Como consecuencia, en la región se consolidó el dominio de las FARC-EP durante más o menos 15 años, hasta la incursión en la década de los 1990 del paramiliarismo, generando una agudización del conflicto y la búsqueda de nuevas alternativas por parte de los pobladores. Con el apoyo de la iglesia católica y organizaciones no gubernamentales las comunidades más afectadas se declararon Comunidades de Paz, invocando la distinción entre civiles y actores armados establecida en el Derecho Internacional Humanitario. El presente artículo estudia el caso de las comunidades pioneras: San José de Apartadó y San Francisco de Asís.

En la literatura canónica sobre sistemas políticos se han hecho explícitas las concepciones de la política que subyacen a sus propuestas analíticas. Easton por ejemplo habla de “vida política” y la caracteriza a través de dos variables esenciales: la asignación de valores a una sociedad y el carácter autoritativo de esta asignación, es decir lograr que la mayoría de sus miembros acepten estas asignaciones como obligatorias, al menos la mayor parte del tiempo (Easton, 1966).

Menos preciso pero más inclusivo, Bouza-Brey habla de “la política” y la define en sentido amplio como el gobierno de las situaciones sociales, en el sentido de dirigirlas, ordenarlas e integrarlas. Así, “Toda actividad humana tendiente a orientar hacia metas las situaciones sociales; o a ordenarlas e integrarlas, asignando papeles, recompensas, sanciones y resolviendo conflictos, es una actividad política” (Bouza-Brey, p. 39); y al hablar en sentido estricto, reconoce el poder como imprescindible en la política. Hasta aquí, esta definición parecería en principio contribuir a la concepción de las dinámicas de las

comunidades de paz como políticas y por lo tanto a éstas como actores políticos. No obstante, tanto Easton como Bouza-Brey, entienden el poder atado a la obediencia, nos remiten a la dominación como piedra de toque de todo sistema político y es allí donde este texto toma distancia.

Espero demostrar que las definiciones de la esfera política planteadas por los autores citados, no permiten explicar fenómenos de indudable naturaleza política que escapan a definiciones verticales o de obediencia. La fuerza analítica de las escuelas sistémicas y la interesante ampliación de esferas por ellas propuesta, vuelve a restringirse al ser el gobierno el elemento central del

1sistema político . Acogerse a una definición “gobiernocéntrica” implica preguntarse por la influencia de las comunidades de paz en las decisiones de gobierno, quedando implícito que su existencia política depende de esta relación, mediada o no por las elites.

Incluso rechazando al poder central, las comunidades de paz se nos aparecen sin relación directa con el Estado. Ello no disminuye la enorme fuerza política que representan como agentes colectivos, en palabras de uno de sus furibundos

2detractores , estas comunidades “destierran al Estado” (Clavijo, 2005).

¿Desde qué perspectiva epistemológica se debe abordar el objeto de estudio “comunidades de paz”? Como vimos, las teorías sistémicas imposibilitan el abordaje al tema porpuesto debido a su enorme carga legaliforme que se traduce en suponer la política con una estructura vertical de poder y en cierta medida al Estado como aglutinante y condición de inteligibilidad de las relaciones políticas. Su caso no es singular. Procede de una estirpe de pensamiento claramente definida en términos epistemológicos como el realismo. El auge de la filosofía analítica es sólo el correlato de esa postura cognitiva de base.

Examinado detenidamente la evolución de las comunidades de paz, es posible observar que su desarrollo procede de un conjunto muy complejo de elementos que difícilmente se separan de, la historia vital de sus protagonistas así como de las condiciones socio-estructurales que soportan y permiten esa historia vital. Podemos sostener, con Maldonado, que “la importancia de la política consiste en la comprensión de la vida misma en su multiplicidad de facetas y dimensiones, con sus entrecuzamientos e influencias diversas y recíprocas” (Maldonado, 2002, p. 9)

1 “…aquellos problemas, demandas y expresiones de descontento o violencia o apoyos, que requieren decisiones o acciones colectivas de gobierno” (Bouza-Brey, 1996, p. 64)2 Clavijo, Adolfo. ¿Comunidades de Paz? Semana On Line, Edición 1194. Bogotá, marzo 17 de 2005, El mismo columnista, indignado reclama: “Ninguna parte del territorio colombiano puede tener un letrero que diga: "Prohibida la entrada a militares y policías" o sea, a los organismos de seguridad del Estado”.

5150

Las Comunidades de Paz como modelo de Cooperación Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 49-60

Analizar la vida y la organización política de las comunidades de paz, son una y la misma cosa. De allí la necesaria redefinición conceptual que la política debe realizar: “...la democracia no consiste en absoluto en temas y problemas de gobernabilidad y legitimidad, por ejemplo, sino, fundamentalmente, en la creación y/o ampliación de espacios y contenidos de vida; o mejor, en espacios y contenidos de convivencia, y sobre esta base puede comprenderse la democracia como un orden político (politiké), administrativo, judicial y demás” (Maldonado, 2002, p. 17). Además, la consideración del pluralismo como característico de la democracia y entendido como afirmación de la diversidad con la posibilidad del conflicto siempre que no sea violento, refuerza la idea de que las comunidades de paz son un ejercicio de la democracia en su más originario sentido.

Esta concepción compleja de la política, atraviesa y define el mundo de la vida. Contempla la emergencia de nuevos actores y la dinámica de creciente y acelerada diferenciación y retroalimentación (Zolo, 1994) como características de la vida-política. Características estas que el realismo epistemológico difícilmente puede asimilar.

Volviendo entonces a la pregunta del abordaje objetual, el examen de la evolución del sistema complejo adaptativo “comunidades de paz” debe ser visto por la única teoría moderna capaz de observar dicho fenómeno: la teoría de la evolución.

La distancia entre la teoría de la evolución y el realismo epistemológico es inmensa. No es nuestro propósito hacer la comparación de las dos formas de pensamiento, bástenos con reconocer que cualquier criterio de verdad derivado de la perspectiva evolutiva tiene valor relativo al objeto de estudio en la medida en que las conclusiones deductivas parten de un factum adaptativo que privilegia la construcción de la adaptación por medio de la selección natural o cultural. De la emergencia de ese fructífero territorio de frontera, nace un importante contingente de teóricos que desde finales de la década de los sesenta se han preocupado por la ampliación epistemológica de la teoría de la evolución y en particular sus relaciones con la política.

La obra de Axelrod, es un buen ejemplo de ese desarrollo. En lo que sigue, se intentará aplicar la teoría de Axelrod en su versión ya canónica de 1984, a las comunidades de paz, con el objetivo de ampliar el espectro analítico que hasta la fecha ha propuesto la ciencia política tradicional (Axelrod, 2004, p. 156).

Las dinámicas evolutivas de las comunidades de paz se caracterizan por un proceso de “abajo-arriba” en donde los individuos interactúan de acuerdo con

un sistema de subreglas definidas localmente. El resultado de esa interacción es un sistema complejo adaptativo no lineal de propiedades emergentes auto-organizadas.

Intentaré mostrar algunas de las variables que permiten explicar a las comunidades de paz como un actor emergente. Desde el punto de vista interno, es decir para el análisis de la forma de consistencia evolutiva de la comunidad de paz, se utilizará como herramienta básica la teoría de la cooperación en la

3versión de Robert Axelrod (1984) .

El punto de vista externo, es decir, el intento por describir la respuesta que diversos actores dieron al fenómeno posibilitado la visibilidad, el acompañamiento o su exclusión de la comunidad del sistema mayor de relaciones políticas nacionales e internacionales. En éste caso la teoría cibernética parece ser la herramienta idónea.

Análisis Interno

En el contexto de la cooperación se pretende verificar el grado de pertinencia que ofrece la teoría de la cooperación en el marco de la emergencia de las comunidades de paz como nuevos actores políticos. En efecto, la política contemporánea no es inteligible sin analizar los procesos de agregación y desagregación de actores: “La cuestión de cómo puede situarse al mundo en un camino sustentable de desarrollo es una cuestión particularmente acuciante. La emergencia de nuevos actores políticos es fundamental para la cuestión de la sustentabilidad” (Axelrod, 2004, p. 157).

El caso de las comunidades de paz es un ejemplo paradigmático de la superación de la tragedia de los comunes y la teoría de la cooperación permite entender el porqué. Nos detendremos en un análisis comparativo de las principales proposiciones que caracterizan la teoría con las comunidades de paz con el fin de concluir que en efecto la teoría de la cooperación es una forma de comprender el actor político citado y además es una herramienta analítica para: 1. Proponer la replicabilidad del modelo. 2. Especificar cuales son las condiciones de posibilidad del modelo.

3 El libro La evolución de la cooperación (Axelrod, 2004) es un ineludible eslabón en la historia de la biopolítica. Si bien Axelrod ha hecho importantísimas modificaciones a su teoría, llegando hasta la aplicación explícita de algoritmos genéticos en la simulación computacional de fenómenos socio-políticos, se verá que el valor de las comunidades de paz, en términos de fortaleza de sus lazos sociales, horizontalidad en las estrategias de decisión y éxito cooperativo pueden ser explicadas idóneamente con la teoría “clásica” de Axelrod sin tener que acudir a sofisticadas metodologías útiles para fenómenos mas complejos.

5352

Las Comunidades de Paz como modelo de Cooperación Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 49-60

Analizar la vida y la organización política de las comunidades de paz, son una y la misma cosa. De allí la necesaria redefinición conceptual que la política debe realizar: “...la democracia no consiste en absoluto en temas y problemas de gobernabilidad y legitimidad, por ejemplo, sino, fundamentalmente, en la creación y/o ampliación de espacios y contenidos de vida; o mejor, en espacios y contenidos de convivencia, y sobre esta base puede comprenderse la democracia como un orden político (politiké), administrativo, judicial y demás” (Maldonado, 2002, p. 17). Además, la consideración del pluralismo como característico de la democracia y entendido como afirmación de la diversidad con la posibilidad del conflicto siempre que no sea violento, refuerza la idea de que las comunidades de paz son un ejercicio de la democracia en su más originario sentido.

Esta concepción compleja de la política, atraviesa y define el mundo de la vida. Contempla la emergencia de nuevos actores y la dinámica de creciente y acelerada diferenciación y retroalimentación (Zolo, 1994) como características de la vida-política. Características estas que el realismo epistemológico difícilmente puede asimilar.

Volviendo entonces a la pregunta del abordaje objetual, el examen de la evolución del sistema complejo adaptativo “comunidades de paz” debe ser visto por la única teoría moderna capaz de observar dicho fenómeno: la teoría de la evolución.

La distancia entre la teoría de la evolución y el realismo epistemológico es inmensa. No es nuestro propósito hacer la comparación de las dos formas de pensamiento, bástenos con reconocer que cualquier criterio de verdad derivado de la perspectiva evolutiva tiene valor relativo al objeto de estudio en la medida en que las conclusiones deductivas parten de un factum adaptativo que privilegia la construcción de la adaptación por medio de la selección natural o cultural. De la emergencia de ese fructífero territorio de frontera, nace un importante contingente de teóricos que desde finales de la década de los sesenta se han preocupado por la ampliación epistemológica de la teoría de la evolución y en particular sus relaciones con la política.

La obra de Axelrod, es un buen ejemplo de ese desarrollo. En lo que sigue, se intentará aplicar la teoría de Axelrod en su versión ya canónica de 1984, a las comunidades de paz, con el objetivo de ampliar el espectro analítico que hasta la fecha ha propuesto la ciencia política tradicional (Axelrod, 2004, p. 156).

Las dinámicas evolutivas de las comunidades de paz se caracterizan por un proceso de “abajo-arriba” en donde los individuos interactúan de acuerdo con

un sistema de subreglas definidas localmente. El resultado de esa interacción es un sistema complejo adaptativo no lineal de propiedades emergentes auto-organizadas.

Intentaré mostrar algunas de las variables que permiten explicar a las comunidades de paz como un actor emergente. Desde el punto de vista interno, es decir para el análisis de la forma de consistencia evolutiva de la comunidad de paz, se utilizará como herramienta básica la teoría de la cooperación en la

3versión de Robert Axelrod (1984) .

El punto de vista externo, es decir, el intento por describir la respuesta que diversos actores dieron al fenómeno posibilitado la visibilidad, el acompañamiento o su exclusión de la comunidad del sistema mayor de relaciones políticas nacionales e internacionales. En éste caso la teoría cibernética parece ser la herramienta idónea.

Análisis Interno

En el contexto de la cooperación se pretende verificar el grado de pertinencia que ofrece la teoría de la cooperación en el marco de la emergencia de las comunidades de paz como nuevos actores políticos. En efecto, la política contemporánea no es inteligible sin analizar los procesos de agregación y desagregación de actores: “La cuestión de cómo puede situarse al mundo en un camino sustentable de desarrollo es una cuestión particularmente acuciante. La emergencia de nuevos actores políticos es fundamental para la cuestión de la sustentabilidad” (Axelrod, 2004, p. 157).

El caso de las comunidades de paz es un ejemplo paradigmático de la superación de la tragedia de los comunes y la teoría de la cooperación permite entender el porqué. Nos detendremos en un análisis comparativo de las principales proposiciones que caracterizan la teoría con las comunidades de paz con el fin de concluir que en efecto la teoría de la cooperación es una forma de comprender el actor político citado y además es una herramienta analítica para: 1. Proponer la replicabilidad del modelo. 2. Especificar cuales son las condiciones de posibilidad del modelo.

3 El libro La evolución de la cooperación (Axelrod, 2004) es un ineludible eslabón en la historia de la biopolítica. Si bien Axelrod ha hecho importantísimas modificaciones a su teoría, llegando hasta la aplicación explícita de algoritmos genéticos en la simulación computacional de fenómenos socio-políticos, se verá que el valor de las comunidades de paz, en términos de fortaleza de sus lazos sociales, horizontalidad en las estrategias de decisión y éxito cooperativo pueden ser explicadas idóneamente con la teoría “clásica” de Axelrod sin tener que acudir a sofisticadas metodologías útiles para fenómenos mas complejos.

5352

Las Comunidades de Paz como modelo de Cooperación Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 49-60

Proposiciones:

Proposición 1. Si el parámetro de actualización, W, es lo suficientemente grande, no existe una estrategia óptima independiente de la estrategia utilizada por el otro jugador (Axelrod, 1996, p. 26).

Esta proposición referencia un dictum al interior de la realidad política contemporánea y en efecto grafica además el problema central de las comunidades de paz. La consistencia de las estrategias políticas de las comunidades de paz, más aún de los demás actores del contexto colombiano, es profundamente inestable en términos de la cantidad y diversidad de interacciones y estrategias que se entrecruzan en un sistema.

El parámetro W, entendido como el peso o la importancia relativa de la siguiente jugada frente a la actual, es el factor central para dicha inestabilidad y entre más interacciones a futuro más inestable es la posición individual frente al

4sistema . En cualquier caso para el ejemplo que nos ocupa las Comunidades de Paz, han desarrollado una labor estratégica no solo individual sino que ha comportado la acción conjunta de otros vectores de acción política de una relevancia comprobada, a saber: Iglesia y comunidad internacional

Proposición 2. La condición necesaria y suficiente para que TOMA Y DACA sea colectivamente estable es que el valor de W sea suficientemente grande. El valor crítico de W es función de los cuatro parámetros de T, R, P e I.

El factor de W en este caso se debe comprender como el umbral de futuro que la comunidad posee y que se convierte en un factor decisivo para la robustez de la comunidad; el mismo Axelrod trae a colación un ejemplo suficientemente ilustrativo: “He aquí la explicación de César de por qué los aliados de Pompeyo dejaron de cooperar con él: Consideraban sin esperanza su futuro (el de Pompeyo) y actuaron según la regla habitual, por la cual, en la adversidad, los amigos de un hombre se convierten en enemigos suyos”(Axelrod, 1996, p. 66).

Lo anterior se evidencia porque en las comunidades objeto de estudio la fragilidad Estatal generó presencia insurgente en la zona desde mediados de la década de los setentas, consolidada durante aproximadamente 15 años, siendo especialmente escenario de dominio territorial de las FARC.

Durante ese tiempo, este actor armado sustituyó al Estado en su función reguladora del orden y las relaciones sociales. La población campesina convivió de manera forzada con las FARC, generalmente bajo el temor de su intimidación, aunque también -como era de esperarse- se registraron expresiones de simpatía frente al proyecto político o armado de la insurgencia.

La llegada del paramilitarismo a mediados de la década de los noventa agudizó el conflicto, pues supuso la disputa del control territorial que había consolidado la insurgencia. Esta agudización tuvo un fuerte impacto sobre población campesina, que durante la máxima expresión de la escalada, durante el período comprendido entre finales de 1996 y principios de 1997, tuvo que soportar asesinatos selectivos, masacres, tor turas, desapariciones forzadas, bombardeos, desplazamiento forzado y un retén paramilitar durante nueve meses, periodo durante el cual se perpetraron detenciones arbitrarias y asesinatos y se restringió el paso de alimentos y de medicamentos.

En ese orden de ideas, el umbral de futuro quiebra la relación de la comunidad 5con la insurgencia y se presenta una nueva valoración de los pagos correlativos

entre la comunidad y los actores. Más aún, las comunidades no aceptaron en su momento la propuesta de constituirse como territorio neutral acompañadas de la fuerza del Estado pues la actualización de los pagos que la comunidad establece incluye la violencia del Estado como otra violencia sin consideración de la legitimidad de su uso. Lo contrario hubiese sido el inicio de la destrucción del modelo cooperativo y el avance hacia otra estrategia, tal vez nuevamente a una de protección y amparo de uno de los actores, que bien pocos resultados presenta en un contexto inestable y de múltiples interacciones como el regional

6colombiano .

4 “[…] Lo positivo tal vez es que con el recorrido que llevamos, hay mucha gente que realmente se ha concientizado de la necesidad de vivir en comunidad, de que tenemos que ser solidarios los unos con los otros, de que tenemos que vivir cada día más unidos y que la única salida para poder sobrevivir en una región como esta, es la Comunidad de Paz...”(Consejo Comunitario Mayor de la Asociación Campesina Integral del Atrato, 2002, pp. 89-90).

5 “Pagos” es la forma de discriminar un esquema básico de dilema del prisionero: Jugador B

Donde: R= recompensa por mutua cooperación.I= pago al incauto.T= tentación para no cooperar.P= Penalización por defección mutua.6 La misma comunidad planteó una suerte de concepto de neutralidad general que no supone acogerse a la tesis de la neutralidad con el estado: “...Yo creo que cuando una comunidad se declara neutral frente a todos los actores armados y de hecho les hace saber que se puede salir adelante y reclamar nuestros derechos sin necesidad de utilizar las armas, es un ejemplo para hacer lo mismo, para muchas comunidades que están en las mismas circunstancias en la que estuvimos, y esto ayuda también para que tarde o temprano los mismo actores armados entiendan que la opción que ellos ofrecen no es la única, entiendan que hay otras opciones siempre y cuando el pueblo se decida a luchas sin necesidad de tener un arma, sin necesidad de tener que quitarle la vida a otro ser humano, para que le puedan reconocer sus derechos...” (Hernández Delgado, 1999, p. 90).

5554

Las Comunidades de Paz como modelo de Cooperación Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 49-60

Proposiciones:

Proposición 1. Si el parámetro de actualización, W, es lo suficientemente grande, no existe una estrategia óptima independiente de la estrategia utilizada por el otro jugador (Axelrod, 1996, p. 26).

Esta proposición referencia un dictum al interior de la realidad política contemporánea y en efecto grafica además el problema central de las comunidades de paz. La consistencia de las estrategias políticas de las comunidades de paz, más aún de los demás actores del contexto colombiano, es profundamente inestable en términos de la cantidad y diversidad de interacciones y estrategias que se entrecruzan en un sistema.

El parámetro W, entendido como el peso o la importancia relativa de la siguiente jugada frente a la actual, es el factor central para dicha inestabilidad y entre más interacciones a futuro más inestable es la posición individual frente al

4sistema . En cualquier caso para el ejemplo que nos ocupa las Comunidades de Paz, han desarrollado una labor estratégica no solo individual sino que ha comportado la acción conjunta de otros vectores de acción política de una relevancia comprobada, a saber: Iglesia y comunidad internacional

Proposición 2. La condición necesaria y suficiente para que TOMA Y DACA sea colectivamente estable es que el valor de W sea suficientemente grande. El valor crítico de W es función de los cuatro parámetros de T, R, P e I.

El factor de W en este caso se debe comprender como el umbral de futuro que la comunidad posee y que se convierte en un factor decisivo para la robustez de la comunidad; el mismo Axelrod trae a colación un ejemplo suficientemente ilustrativo: “He aquí la explicación de César de por qué los aliados de Pompeyo dejaron de cooperar con él: Consideraban sin esperanza su futuro (el de Pompeyo) y actuaron según la regla habitual, por la cual, en la adversidad, los amigos de un hombre se convierten en enemigos suyos”(Axelrod, 1996, p. 66).

Lo anterior se evidencia porque en las comunidades objeto de estudio la fragilidad Estatal generó presencia insurgente en la zona desde mediados de la década de los setentas, consolidada durante aproximadamente 15 años, siendo especialmente escenario de dominio territorial de las FARC.

Durante ese tiempo, este actor armado sustituyó al Estado en su función reguladora del orden y las relaciones sociales. La población campesina convivió de manera forzada con las FARC, generalmente bajo el temor de su intimidación, aunque también -como era de esperarse- se registraron expresiones de simpatía frente al proyecto político o armado de la insurgencia.

La llegada del paramilitarismo a mediados de la década de los noventa agudizó el conflicto, pues supuso la disputa del control territorial que había consolidado la insurgencia. Esta agudización tuvo un fuerte impacto sobre población campesina, que durante la máxima expresión de la escalada, durante el período comprendido entre finales de 1996 y principios de 1997, tuvo que soportar asesinatos selectivos, masacres, tor turas, desapariciones forzadas, bombardeos, desplazamiento forzado y un retén paramilitar durante nueve meses, periodo durante el cual se perpetraron detenciones arbitrarias y asesinatos y se restringió el paso de alimentos y de medicamentos.

En ese orden de ideas, el umbral de futuro quiebra la relación de la comunidad 5con la insurgencia y se presenta una nueva valoración de los pagos correlativos

entre la comunidad y los actores. Más aún, las comunidades no aceptaron en su momento la propuesta de constituirse como territorio neutral acompañadas de la fuerza del Estado pues la actualización de los pagos que la comunidad establece incluye la violencia del Estado como otra violencia sin consideración de la legitimidad de su uso. Lo contrario hubiese sido el inicio de la destrucción del modelo cooperativo y el avance hacia otra estrategia, tal vez nuevamente a una de protección y amparo de uno de los actores, que bien pocos resultados presenta en un contexto inestable y de múltiples interacciones como el regional

6colombiano .

4 “[…] Lo positivo tal vez es que con el recorrido que llevamos, hay mucha gente que realmente se ha concientizado de la necesidad de vivir en comunidad, de que tenemos que ser solidarios los unos con los otros, de que tenemos que vivir cada día más unidos y que la única salida para poder sobrevivir en una región como esta, es la Comunidad de Paz...”(Consejo Comunitario Mayor de la Asociación Campesina Integral del Atrato, 2002, pp. 89-90).

5 “Pagos” es la forma de discriminar un esquema básico de dilema del prisionero: Jugador B

Donde: R= recompensa por mutua cooperación.I= pago al incauto.T= tentación para no cooperar.P= Penalización por defección mutua.6 La misma comunidad planteó una suerte de concepto de neutralidad general que no supone acogerse a la tesis de la neutralidad con el estado: “...Yo creo que cuando una comunidad se declara neutral frente a todos los actores armados y de hecho les hace saber que se puede salir adelante y reclamar nuestros derechos sin necesidad de utilizar las armas, es un ejemplo para hacer lo mismo, para muchas comunidades que están en las mismas circunstancias en la que estuvimos, y esto ayuda también para que tarde o temprano los mismo actores armados entiendan que la opción que ellos ofrecen no es la única, entiendan que hay otras opciones siempre y cuando el pueblo se decida a luchas sin necesidad de tener un arma, sin necesidad de tener que quitarle la vida a otro ser humano, para que le puedan reconocer sus derechos...” (Hernández Delgado, 1999, p. 90).

5554

Las Comunidades de Paz como modelo de Cooperación Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 49-60

Proposición 3: Cualquier estrategia que pueda ser la primera en cooperar podrá llegar a ser colectivamente estable si, y solamente si, W es suficientemente grande.

Ésta proposición tiene que ver con el umbral de futuro propio de la comunidad, con la forma como la comunidad se sobrepone al reino de la necesidad y renueva los votos clásicos de la política como vida cualificada.

Las Comunidades de Paz, mediante acción colectiva, resistieron pacíficamente a la agresión de los actores del conflicto, a la pérdida de líderes importantes del proceso y consagraron el recurso a la no violencia en sus reglamentos internos, al establecer la prohibición de portar o tener armas y de hacer parte del

7conflicto en forma directa o indirecta .

Es de resaltar que este es uno de los factores preponderantes de robustez del sistema aunque al mismo tiempo de poca replicabilidad por lo menos en contextos no rurales. La vida urbana del país mucho tiempo ha que vive sumida en el espíritu del mercado, cuando menos diez años de sistemática destrucción de los vínculos e imaginarios que posibilitaban ese no temer a la muerte física por mor de un bien mas alto, que no por alto menos inmanente, hace que la sociedad urbana en Colombia viva, recordando a Guy Debord (1999), en la separación

8perfecta .

Proposición 4: Para que una estrategia sea colectivamente estable es preciso que sea provocada por la primera de las defecciones del otro jugador.

En este caso vale la pena resaltar el hecho que la provocación es en principio inconmensurable dado que los actores que intervienen tienen formas de defección en las cuales media la violencia armada y ante ese factor se puede pensar a primera vista que la provocación de la comunidad de paz sería inane. Frente a lo anterior la respuesta contrafáctica es que en efecto las comunidades han tenido éxito precisamente en tanto en cuanto sí han sido provocadas como han tenido un relativo éxito en su provocación. En ello evidentemente la comunidad internacional y la Iglesia tienen un valor indudable pues parece que la provocación de las comunidades se canaliza por estos dos medios que serán analizados bajo una perspectiva sistémico cibernética.

La principal conclusión frente al éxito de la provocación es que las comunidades han mantenido su poder frente a la invasión gracias a su poder de apiñamiento es decir frente a su alto grado de cohesión social. En efecto, y para decirlo en el lenguaje de la lógica de las conectividades, la evolución de una comunidad de paz se determina por el hecho de que las ayudas básicas que puede reunir para alcanzar el pico mas elevado de visión de conjunto, son sencillamente las de su propio contorno.

Análisis Externo

Después de haber analizado a la luz de la Teoría de la Cooperación de Axelrod, las características y dinámicas internas de las comunidades de paz y haber demostrado su fortaleza cooperativa, surgen de inmediato dos posibles objeciones: 1, que la robustez de estas comunidades dependen de los apoyos externos, que hasta ahora se han llamado acompañamientos y 2, que su permanencia está amenazada por las presiones de los grupos armados y la estigmatización del Estado.

Es así que se hace necesario emprender el análisis de las relaciones con los actores externos. Para este propósito resultan de gran utilidad algunas categorías básicas del modelo cibernético de Easton.

La propuesta es puntuar a la comunidad de paz como el subsistema estratégico y observar sus relaciones con otros actores en términos de transacciones e intercambios, de tal manera que denominemos demandas y apoyos (insumos) a las acciones de los actores externos a las comunidades sobre éstas y decisiones y acciones (productos) a las adoptadas por las comunidades de paz en respuesta a los insumos.

Los actores que se tendrán en cuenta en este análisis como actores externos, son los “acompañantes” ya mencionados: la iglesia católica, las ONG's nacionales y las Organizaciones internacionales; los actores armados involucrados en el conflicto armado en el que las comunidades están inmersas: las FARC-EP y las ACU. El Estado y el ejército conformarían un solo actor de escasa incidencia en el proceso, por a su ausencia o presencia ocasional.

Las relaciones entre la Iglesia católica y las comunidades de paz se han dado sobretodo en términos de apoyos. La Diócesis de Apartadó en persona de Monseñor Cansino acompañó tanto a los pobladores de San José de Apartadó como a los del municipio de Riosucio en la búsqueda de alternativas ante la escalada provoada por la incursión del paramilitarismo en los años 90. Fue uno de los actores que propuso el esquema de la comunidad de paz y su papel en la

7 “Para mí significa una opción y una alternativa para las futuras generaciones, porque de todas maneras uno mira en lo que lleva la violencia en Colombia, ha habido muchas opciones, y la mayoría de ellas han sido cosas muy diferentes a la que nosotros estamos desarrollando” (Hernández Delgado, E., 1999, p. 89).8 “Como la sociedad moderna, el espectáculo está al mismo tiempo unido y dividido. Como ella, edifica su unidad sobre el desgarramiento. Pero cuando la contradicción emerge en el espectáculo, ella es a su vez contradicha por una inversión de su sentido, de modo que la división que así aparece es unitaria, así como la unidad está dividida” (Debord, 1999).

5756

Las Comunidades de Paz como modelo de Cooperación Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 49-60

Proposición 3: Cualquier estrategia que pueda ser la primera en cooperar podrá llegar a ser colectivamente estable si, y solamente si, W es suficientemente grande.

Ésta proposición tiene que ver con el umbral de futuro propio de la comunidad, con la forma como la comunidad se sobrepone al reino de la necesidad y renueva los votos clásicos de la política como vida cualificada.

Las Comunidades de Paz, mediante acción colectiva, resistieron pacíficamente a la agresión de los actores del conflicto, a la pérdida de líderes importantes del proceso y consagraron el recurso a la no violencia en sus reglamentos internos, al establecer la prohibición de portar o tener armas y de hacer parte del

7conflicto en forma directa o indirecta .

Es de resaltar que este es uno de los factores preponderantes de robustez del sistema aunque al mismo tiempo de poca replicabilidad por lo menos en contextos no rurales. La vida urbana del país mucho tiempo ha que vive sumida en el espíritu del mercado, cuando menos diez años de sistemática destrucción de los vínculos e imaginarios que posibilitaban ese no temer a la muerte física por mor de un bien mas alto, que no por alto menos inmanente, hace que la sociedad urbana en Colombia viva, recordando a Guy Debord (1999), en la separación

8perfecta .

Proposición 4: Para que una estrategia sea colectivamente estable es preciso que sea provocada por la primera de las defecciones del otro jugador.

En este caso vale la pena resaltar el hecho que la provocación es en principio inconmensurable dado que los actores que intervienen tienen formas de defección en las cuales media la violencia armada y ante ese factor se puede pensar a primera vista que la provocación de la comunidad de paz sería inane. Frente a lo anterior la respuesta contrafáctica es que en efecto las comunidades han tenido éxito precisamente en tanto en cuanto sí han sido provocadas como han tenido un relativo éxito en su provocación. En ello evidentemente la comunidad internacional y la Iglesia tienen un valor indudable pues parece que la provocación de las comunidades se canaliza por estos dos medios que serán analizados bajo una perspectiva sistémico cibernética.

La principal conclusión frente al éxito de la provocación es que las comunidades han mantenido su poder frente a la invasión gracias a su poder de apiñamiento es decir frente a su alto grado de cohesión social. En efecto, y para decirlo en el lenguaje de la lógica de las conectividades, la evolución de una comunidad de paz se determina por el hecho de que las ayudas básicas que puede reunir para alcanzar el pico mas elevado de visión de conjunto, son sencillamente las de su propio contorno.

Análisis Externo

Después de haber analizado a la luz de la Teoría de la Cooperación de Axelrod, las características y dinámicas internas de las comunidades de paz y haber demostrado su fortaleza cooperativa, surgen de inmediato dos posibles objeciones: 1, que la robustez de estas comunidades dependen de los apoyos externos, que hasta ahora se han llamado acompañamientos y 2, que su permanencia está amenazada por las presiones de los grupos armados y la estigmatización del Estado.

Es así que se hace necesario emprender el análisis de las relaciones con los actores externos. Para este propósito resultan de gran utilidad algunas categorías básicas del modelo cibernético de Easton.

La propuesta es puntuar a la comunidad de paz como el subsistema estratégico y observar sus relaciones con otros actores en términos de transacciones e intercambios, de tal manera que denominemos demandas y apoyos (insumos) a las acciones de los actores externos a las comunidades sobre éstas y decisiones y acciones (productos) a las adoptadas por las comunidades de paz en respuesta a los insumos.

Los actores que se tendrán en cuenta en este análisis como actores externos, son los “acompañantes” ya mencionados: la iglesia católica, las ONG's nacionales y las Organizaciones internacionales; los actores armados involucrados en el conflicto armado en el que las comunidades están inmersas: las FARC-EP y las ACU. El Estado y el ejército conformarían un solo actor de escasa incidencia en el proceso, por a su ausencia o presencia ocasional.

Las relaciones entre la Iglesia católica y las comunidades de paz se han dado sobretodo en términos de apoyos. La Diócesis de Apartadó en persona de Monseñor Cansino acompañó tanto a los pobladores de San José de Apartadó como a los del municipio de Riosucio en la búsqueda de alternativas ante la escalada provoada por la incursión del paramilitarismo en los años 90. Fue uno de los actores que propuso el esquema de la comunidad de paz y su papel en la

7 “Para mí significa una opción y una alternativa para las futuras generaciones, porque de todas maneras uno mira en lo que lleva la violencia en Colombia, ha habido muchas opciones, y la mayoría de ellas han sido cosas muy diferentes a la que nosotros estamos desarrollando” (Hernández Delgado, E., 1999, p. 89).8 “Como la sociedad moderna, el espectáculo está al mismo tiempo unido y dividido. Como ella, edifica su unidad sobre el desgarramiento. Pero cuando la contradicción emerge en el espectáculo, ella es a su vez contradicha por una inversión de su sentido, de modo que la división que así aparece es unitaria, así como la unidad está dividida” (Debord, 1999).

5756

Las Comunidades de Paz como modelo de Cooperación Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 49-60

consolidación de estas fue principalmente como mediador de las conversaciones con los grupos armados para garantizar el respeto a la iniciativa.

La iglesia mediante misiones y trabajo evangelizador, había vivido y conocido las condiciones de marginalidad de los pobladores de la zona adoptando una actitud de solidaridad, denuncia y apoyo “incondicional”. Al mismo tiempo, conservó un lugar de reconocimiento y respeto por parte de la insurgencia, por su transparencia; además, durante el tiempo en que el ideario político de las FARC conservaba algún sentido entre sus combatientes, la acción de la iglesia se consideraba, si no coherente, al menos inocua para su realización.

Por otra parte, la relación que la iglesia católica sostuvo con el Estado durante la vigencia de la antigua constitución y su reconocimiento como sector dominante entre la opinión, permitió que el paramilitarismo la validara como interlocutora en este proceso; todo esto facilitó su rol mediador y su permanencia durante la hegemonía de los grupos armados.

Las acciones y decisiones de las comunidades en esta relación, son de dos tipos; 1, la solicitud del apoyo frente a la escalada del conflicto y 2, frente al apoyo recibido, la decisión de acoger la propuesta de erigirse como comunidades de paz.

Las relaciones con las ONG's nacionales, se facilitaron una vez más por la credibilidad que la iglesia tiene en la región, pues las que participaron tienen un claro vínculo con esta: El CINEP dirigido por la Compañía de Jesús y la Comisión intercongregacional. El caso de ANDAS y otras entidades que no son mencionadas, se acercaron por vínculos con la iglesia.

Los dos apoyos principales de estas entidades fueron por una parte, la capacitación en varias áreas y la formación política a las comunidades y por otra parte, la gestión de vínculo con la comunidad internacional. Además, junto con la Diócesis, algunas de estas organizaciones propusieron la figura de “Comunidad de Paz”.

Las acciones y decisiones de las comunidades frente a estos apoyos fueron el compromiso y la disciplina de acceder a la formación recibida y la iniciativa de acoger la figura de la comunidad de paz como alternativa a la grave situación que afrontaban en la agudización del conflicto.

Con respecto a la comunidad internacional, las organizaciones más activas fueron Pax Christi y el Parlamento Europeo. Organizaciones como Médicos del Mundo y ACNUR, acompañaron a las comunidades, especialmente a la

9asentada en Pavarandó, en su retorno a su lugar de origen y en la visibilización internacional el proceso de conformación de las comunidades de paz.

Podría considerarse que estos apoyos o las relaciones con los actores que se acaban de analizar, son los garantes de la existencia y la permanencia de las comunidades de paz. En contra de esa tesis se puede citar a Esperanza Hernández, sobre la declaratoria de la Comunidad de Paz de San José de Apartadó: “inicialmente fue un producto de una propuesta elaborada por las organizaciones acompañantes, no siendo por tanto suficientemente apropiada por la población.

Los posteriores acontecimientos que condujeron al desarrollo de la comunidad de paz, generaron un proceso interno participativo para la apropiación y la reforma de la declaración por parte de la comunidad”

Las comunidades en posteriores desarrollos han modificado por iniciativa propia sus reglas y algunos términos de sus declaratorias. Han decidido su forma de organización y sus mecanismos de regulación de la convivencia y toma de decisiones. Sus pilares siguen basados en su reconocimiento como comunidad: en la solidaridad y la cooperación.

Con respecto a las FARC-EP, la relación se caracterizaba por demandas acompañadas de presiones mediadas por la violencia armada. El grupo demandaba de las comunidades de paz ayuda logística (víveres, combustible, alojamiento), información estratégica y reclutas para sus filas.

Desde su incursión los grupos paramilitares hicieron tres tipos de demandas, mediadas también por la presión violenta: 1, lealtad en términos negativos, es decir, no entregar ayuda logística ni información, ni hijos a las FARC, 2, obediencia e información; 3, el desalojo del territorio. Huelga decir que como la hegemonía insurgente llevaba años, los paramilitares arremetieron con brutalidad física y simbólica como sanción y escarmiento ante la convivencia que durante ese tiempo hubo entre FARC y población.

Una vez conformadas las Comunidades de Paz, las decisiones de la comunidad frente a estos actores armados 1, fueron la negación frente a sus demandas, la exigencia de respeto y la prohibición de su presencia armada. 2, neutralidad y transparencia. 3. Generar un factor de “amenaza” que consistía en denunciar a los actores frente a la comunidad internacional ante cualquier irrespeto de su opción política.

9 Emprender el retorno, considerando este acompañamiento como garante de condición de posibilidad, fue la más importante decisión de las comunidades para garantizar la estabilidad cooperativa posterior.

5958

Las Comunidades de Paz como modelo de Cooperación Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 49-60

consolidación de estas fue principalmente como mediador de las conversaciones con los grupos armados para garantizar el respeto a la iniciativa.

La iglesia mediante misiones y trabajo evangelizador, había vivido y conocido las condiciones de marginalidad de los pobladores de la zona adoptando una actitud de solidaridad, denuncia y apoyo “incondicional”. Al mismo tiempo, conservó un lugar de reconocimiento y respeto por parte de la insurgencia, por su transparencia; además, durante el tiempo en que el ideario político de las FARC conservaba algún sentido entre sus combatientes, la acción de la iglesia se consideraba, si no coherente, al menos inocua para su realización.

Por otra parte, la relación que la iglesia católica sostuvo con el Estado durante la vigencia de la antigua constitución y su reconocimiento como sector dominante entre la opinión, permitió que el paramilitarismo la validara como interlocutora en este proceso; todo esto facilitó su rol mediador y su permanencia durante la hegemonía de los grupos armados.

Las acciones y decisiones de las comunidades en esta relación, son de dos tipos; 1, la solicitud del apoyo frente a la escalada del conflicto y 2, frente al apoyo recibido, la decisión de acoger la propuesta de erigirse como comunidades de paz.

Las relaciones con las ONG's nacionales, se facilitaron una vez más por la credibilidad que la iglesia tiene en la región, pues las que participaron tienen un claro vínculo con esta: El CINEP dirigido por la Compañía de Jesús y la Comisión intercongregacional. El caso de ANDAS y otras entidades que no son mencionadas, se acercaron por vínculos con la iglesia.

Los dos apoyos principales de estas entidades fueron por una parte, la capacitación en varias áreas y la formación política a las comunidades y por otra parte, la gestión de vínculo con la comunidad internacional. Además, junto con la Diócesis, algunas de estas organizaciones propusieron la figura de “Comunidad de Paz”.

Las acciones y decisiones de las comunidades frente a estos apoyos fueron el compromiso y la disciplina de acceder a la formación recibida y la iniciativa de acoger la figura de la comunidad de paz como alternativa a la grave situación que afrontaban en la agudización del conflicto.

Con respecto a la comunidad internacional, las organizaciones más activas fueron Pax Christi y el Parlamento Europeo. Organizaciones como Médicos del Mundo y ACNUR, acompañaron a las comunidades, especialmente a la

9asentada en Pavarandó, en su retorno a su lugar de origen y en la visibilización internacional el proceso de conformación de las comunidades de paz.

Podría considerarse que estos apoyos o las relaciones con los actores que se acaban de analizar, son los garantes de la existencia y la permanencia de las comunidades de paz. En contra de esa tesis se puede citar a Esperanza Hernández, sobre la declaratoria de la Comunidad de Paz de San José de Apartadó: “inicialmente fue un producto de una propuesta elaborada por las organizaciones acompañantes, no siendo por tanto suficientemente apropiada por la población.

Los posteriores acontecimientos que condujeron al desarrollo de la comunidad de paz, generaron un proceso interno participativo para la apropiación y la reforma de la declaración por parte de la comunidad”

Las comunidades en posteriores desarrollos han modificado por iniciativa propia sus reglas y algunos términos de sus declaratorias. Han decidido su forma de organización y sus mecanismos de regulación de la convivencia y toma de decisiones. Sus pilares siguen basados en su reconocimiento como comunidad: en la solidaridad y la cooperación.

Con respecto a las FARC-EP, la relación se caracterizaba por demandas acompañadas de presiones mediadas por la violencia armada. El grupo demandaba de las comunidades de paz ayuda logística (víveres, combustible, alojamiento), información estratégica y reclutas para sus filas.

Desde su incursión los grupos paramilitares hicieron tres tipos de demandas, mediadas también por la presión violenta: 1, lealtad en términos negativos, es decir, no entregar ayuda logística ni información, ni hijos a las FARC, 2, obediencia e información; 3, el desalojo del territorio. Huelga decir que como la hegemonía insurgente llevaba años, los paramilitares arremetieron con brutalidad física y simbólica como sanción y escarmiento ante la convivencia que durante ese tiempo hubo entre FARC y población.

Una vez conformadas las Comunidades de Paz, las decisiones de la comunidad frente a estos actores armados 1, fueron la negación frente a sus demandas, la exigencia de respeto y la prohibición de su presencia armada. 2, neutralidad y transparencia. 3. Generar un factor de “amenaza” que consistía en denunciar a los actores frente a la comunidad internacional ante cualquier irrespeto de su opción política.

9 Emprender el retorno, considerando este acompañamiento como garante de condición de posibilidad, fue la más importante decisión de las comunidades para garantizar la estabilidad cooperativa posterior.

5958

Las Comunidades de Paz como modelo de Cooperación Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 49-60

El Estado Colombiano estuvo conforme con la iniciativa de las comunidades de paz que se acogían a principios consignados en la carta constitucional y probablemente se asumía reconocido legítimamente en la exigencia de su presencia civil en Riosucio.

Pese a las negociaciones, la hostilidad contra las comunidades de paz no cesó del todo y los líderes de la iniciativa fueron sistemáticamente perseguidos y asesinados. A pesar de ello, las comunidades de paz fueron garantes de su propio éxito, a pesar de la presión armada y a la ausencia estatal.

En conclusión, la experiencia de las Comunidades de Paz muestra que las condiciones de replicabilidad necesarias son: la ausencia de un poder central y un alto parámetro de actualización que empuja al apiñamiento. Si bien el apoyo externo coadyuva en su consolidación, no es un factor suficiente y deja de ser necesario en algún momento del proceso. Igualmente, la inestabilidad provocada por la presión violenta no supone su desarticulación.

Bibliografía

Axelrod, R. (1996). La evolución de la cooperación, Madrid: Alianza Universidad. Axelrod, R. (2004). La complejidad de la cooperación, Buenos Aires: F. C. E.Bouza-Brey, L. (1996). El Poder y los Sistemas Políticos. En M. Caminal (Ed.). La teoría de los Sistemas en la Ciencia Política. Madrid: Tecnos.Clavijo, A. (2005). ¿Comunidades de Paz?. Semana On Line, 1194. Consejo Comunitario Mayor de la Asociación Campesina Integral del Atrato, Red de Solidaridad Social,. (2002). Medio Atrato, Territorio de Vida. Bogotá: Presidencia de la República de Colombia.Debord, G. (1999). La sociedad del espectáculo, Madrid: Pre-textos.Easton, D. (1966). Categorías para el análisis sistémico de la política. En: D. Easton (Comp.). Enfoques Sobre Teoría Política. Buenos Aires: Amorrourtu.Hernández Delgado, E. (1999). Con la esperanza intacta: experiencias comunitarias de resistencia civil no violenta. Bogotá: Arte y Folio. Hernández Delgado, E. (2005). Comunidad De Paz San José De Apartadó. Conferencia dictada en la cuarta sesión de la Cátedra Latinoamericana Antonio García Nossa, Curso de Análisis de Contexto. Resistencia: Lecciones de civilidad. Fecha. Martes 29 de Marzo de 2005.Maldonado, C. E. (2002). Filosofía de la sociedad civil. Bogotá: Siglo del Hombre. Zolo, D. (1994). Democracia y Complejidad, un enfoque realista. Buenos Aires: Nueva Vision, 1994.

Epistemología, progreso y diseño

Zenobio Saldivia Maldonado*

Resumen

Se analiza la idea de progreso a partir de algunas perspectivas disciplinarias y epistemológicas y se extrapolan las notas relevantes de las mismas al ámbito del diseño contemporáneo, para arribar a una compresión de lo que se entiende en la actualidad por progreso en el campo profesional del diseño. Se destaca además, la cooperación de la epistemología para las nuevas tareas tendientes al análisis de las categorías en el diseño.

Palabras clave: progreso, epistemología, diseño.

Abstract

In this paper, the idea of progress is analyzed from the point of view of some disciplinary and epistemological perspectives, and their relevant features are extrapolated to the realm of contemporary design, to arrive at an understanding of what is nowadays understood by progress in the professional field of design. In addition, the cooperation of epistemology in the new tasks that tend to the categories' analysis in design is highlighted.

Key Words: progress, epistemology, design.

* Doctor en Pensamiento Americano con mención Historia de las Ciencias, Universidad de Santiago de Chile, Magíster en Filosofía de las Ciencias de la misma universidad. Docente de la Facultad de Humanidades y Tecnologías de la Comunicación Social, Universidad Tecnológica Metropolitana, (UTEM), Santiago de Chile.

6160

Las Comunidades de Paz como modelo de Cooperación Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 61-69

El Estado Colombiano estuvo conforme con la iniciativa de las comunidades de paz que se acogían a principios consignados en la carta constitucional y probablemente se asumía reconocido legítimamente en la exigencia de su presencia civil en Riosucio.

Pese a las negociaciones, la hostilidad contra las comunidades de paz no cesó del todo y los líderes de la iniciativa fueron sistemáticamente perseguidos y asesinados. A pesar de ello, las comunidades de paz fueron garantes de su propio éxito, a pesar de la presión armada y a la ausencia estatal.

En conclusión, la experiencia de las Comunidades de Paz muestra que las condiciones de replicabilidad necesarias son: la ausencia de un poder central y un alto parámetro de actualización que empuja al apiñamiento. Si bien el apoyo externo coadyuva en su consolidación, no es un factor suficiente y deja de ser necesario en algún momento del proceso. Igualmente, la inestabilidad provocada por la presión violenta no supone su desarticulación.

Bibliografía

Axelrod, R. (1996). La evolución de la cooperación, Madrid: Alianza Universidad. Axelrod, R. (2004). La complejidad de la cooperación, Buenos Aires: F. C. E.Bouza-Brey, L. (1996). El Poder y los Sistemas Políticos. En M. Caminal (Ed.). La teoría de los Sistemas en la Ciencia Política. Madrid: Tecnos.Clavijo, A. (2005). ¿Comunidades de Paz?. Semana On Line, 1194. Consejo Comunitario Mayor de la Asociación Campesina Integral del Atrato, Red de Solidaridad Social,. (2002). Medio Atrato, Territorio de Vida. Bogotá: Presidencia de la República de Colombia.Debord, G. (1999). La sociedad del espectáculo, Madrid: Pre-textos.Easton, D. (1966). Categorías para el análisis sistémico de la política. En: D. Easton (Comp.). Enfoques Sobre Teoría Política. Buenos Aires: Amorrourtu.Hernández Delgado, E. (1999). Con la esperanza intacta: experiencias comunitarias de resistencia civil no violenta. Bogotá: Arte y Folio. Hernández Delgado, E. (2005). Comunidad De Paz San José De Apartadó. Conferencia dictada en la cuarta sesión de la Cátedra Latinoamericana Antonio García Nossa, Curso de Análisis de Contexto. Resistencia: Lecciones de civilidad. Fecha. Martes 29 de Marzo de 2005.Maldonado, C. E. (2002). Filosofía de la sociedad civil. Bogotá: Siglo del Hombre. Zolo, D. (1994). Democracia y Complejidad, un enfoque realista. Buenos Aires: Nueva Vision, 1994.

Epistemología, progreso y diseño

Zenobio Saldivia Maldonado*

Resumen

Se analiza la idea de progreso a partir de algunas perspectivas disciplinarias y epistemológicas y se extrapolan las notas relevantes de las mismas al ámbito del diseño contemporáneo, para arribar a una compresión de lo que se entiende en la actualidad por progreso en el campo profesional del diseño. Se destaca además, la cooperación de la epistemología para las nuevas tareas tendientes al análisis de las categorías en el diseño.

Palabras clave: progreso, epistemología, diseño.

Abstract

In this paper, the idea of progress is analyzed from the point of view of some disciplinary and epistemological perspectives, and their relevant features are extrapolated to the realm of contemporary design, to arrive at an understanding of what is nowadays understood by progress in the professional field of design. In addition, the cooperation of epistemology in the new tasks that tend to the categories' analysis in design is highlighted.

Key Words: progress, epistemology, design.

* Doctor en Pensamiento Americano con mención Historia de las Ciencias, Universidad de Santiago de Chile, Magíster en Filosofía de las Ciencias de la misma universidad. Docente de la Facultad de Humanidades y Tecnologías de la Comunicación Social, Universidad Tecnológica Metropolitana, (UTEM), Santiago de Chile.

6160

Las Comunidades de Paz como modelo de Cooperación Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 61-69

Antecedentes previos

Hoy día es muy frecuente el uso de la noción “epistemología” tanto en el universo de las comunidades científicas, cuanto en el ámbito académico en general, y más recientemente incluso, ya se observa el empleo del concepto en los medios de comunicación. También es frecuente escuchar su denominación en campos tales como la sociología, historiografía, educación, currículum, análisis del discurso, arquitectura y diseño, entre otros. Ello es un reflejo de la importancia que se le empieza a atribuir en nuestra cultura y sociedad contemporáneas. Empero, no siempre se comprende debidamente el significado de dicha noción, ni sus implicancias dialécticas en el desenvolvimiento cognitivo propio de la sociedad del conocimiento, en la cual nos encontramos inmersos. A menudo suele identificarse la voz “epistemología” con la noción de “teoría del conocimiento”, y en otras ocasiones, simplemente se usa como sinónimo de “filosofía”. Pero el primer caso, es una acepción muy reduccionista de la epistemología, que la restringe únicamente al estudio del proceso de aprehensión cognoscitiva, y a su vez, entender la epistemología como filosofía sin más, es una postura extraordinariamente amplia. Por ello, resulta conveniente precisar el concepto.

La epistemología es la ciencia que estudia a la ciencia. Es el estudio del conocimiento científico, de su génesis y de su desarrollo. Con lo anterior, queda de manifiesto que nos situamos en un campo de reflexión sobre el proceso mismo del desarrollo científico; lo cual a su vez, nos sitúa en el mismo marco que Popper concibe a la epistemología, por ejemplo en su Lógica de la investigación científica. La epistemología, en tanto es una disciplina que se interesa por el desarrollo y los resultados del conocimiento científico; apunta a un análisis cualitativo y holístico acerca de la ciencia como institución social y en cuanto estructura metodológica de apropiación cognitiva. Este tipo de preocupaciones por cierto, alude al análisis de tópicos de carácter metodológico, a aspectos vinculados a los supuestos últimos de la validez y de la objetividad de los conocimientos que va recabando la ciencia; y en general, apunta también a un análisis del cuerpo de reglas y procedimientos, que utiliza la ciencia para cumplir su tarea: nombrar, describir, explicar y predecir los hechos del mundo.

Luego, entre las preocupaciones más relevantes de la epistemología, figuran: los aspectos normativos de la ciencia como tal, los criterios de validez de la apropiación cognoscitiva, la clasificación de las ciencias, la idea de objetividad en las ciencias empíricas, la inducción, la noción de verdad, la noción de realidad en el campo de la física, el ámbito del descubrimiento y el ámbito de la justificación en la investigación científica, o la idea de progreso en la comunidad científica. Aquí por ejemplo, justamente, en torno al análisis y discusión del

concepto de progreso en el ámbito científico, desde las visiones propias del ámbito epistémico; nos iremos adentrando al campo del diseño, para decantar en una eventual idea del progreso en el diseño. Ello, como una modesta propuesta, para la posterior discusión en dicho campo, por parte de los propios diseñadores.

La cuestión del progreso

En nuestra sociedad, actualmente queda claro que el campo en que “el progreso es más evidente e incluso innegable es la técnica y, dentro de ella, especialmente en los dominios que se apoyan directamente en los resultados de las ciencias” (Radnitzky, Andersson, 1982) Pues bien, el diseño como quehacer profesional, y más exactamente como corpus cognitivo, si bien no ha llegado a un consenso en lo referente a su propia definición, tal como lo hemos destacado en otra ocasión (Saldivia, Silva, 2005); sí muestra un consenso entre sus exponentes, toda vez que los mismos están de acuerdo en que dicha disciplina, es en parte técnica, en parte arte y en parte teorización. Luego, un adecuado punto de anclaje entre epistemología y diseño, para efectos de este análisis y que articule efectivamente la tríada mencionada en el epígrafe, parece ser el interés por el progreso. ¿Pero que entendemos por progreso? La historiografía, la historia de las ciencias, la sociología, la epistemología y otras disciplinas, se han preocupado notoriamente por el tema.

Desde la perspectiva de la historiografía por ejemplo, muchos autores perciben que el progreso no es uniforme a un locus específico, o a un período específico, sino que metafóricamente sería como un gran río con múltiples canales y con distintas velocidades cada uno. O como lo expresa Paff Williams: “las sociedades progresan, pero también declinan” (Paff, 1994). Desde esta última perspectiva, por ejemplo, el progreso en el diseño, sería entonces un subir y bajar de productos, modelos y tendencias según el gusto y preferencias de los usuarios. Cabe hacer notar que desde esta mirada analítica, el diseño resultaría un producto social, dirigido, pensado y regulado por la comunidad, donde el diseñador es esencialmente una bisagra transmisora del externalismo y su participación como profesional, por tanto, sería más bien equivalente a vertebrar los requerimientos que fluyen desde la sociedad hacia su profesión.

Ahora, si entramos al universo de la historia de las ciencias, por ejemplo en cuanto a la idea de progreso específicamente en América durante el siglo XIX, se observa que éste, es entendido en esta centuria, como el resultado de la aprehensión cognitiva del universo orgánico e inorgánico que será utilizado por los gobiernos de las jóvenes repúblicas, como un corpus informativo para una posterior explotación, cultivo o industrialización de muchos referentes del cuerpo físico del país. El progreso, es entendido también en este período, como

6362

Epistemología, progreso y diseño Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 61-69

Antecedentes previos

Hoy día es muy frecuente el uso de la noción “epistemología” tanto en el universo de las comunidades científicas, cuanto en el ámbito académico en general, y más recientemente incluso, ya se observa el empleo del concepto en los medios de comunicación. También es frecuente escuchar su denominación en campos tales como la sociología, historiografía, educación, currículum, análisis del discurso, arquitectura y diseño, entre otros. Ello es un reflejo de la importancia que se le empieza a atribuir en nuestra cultura y sociedad contemporáneas. Empero, no siempre se comprende debidamente el significado de dicha noción, ni sus implicancias dialécticas en el desenvolvimiento cognitivo propio de la sociedad del conocimiento, en la cual nos encontramos inmersos. A menudo suele identificarse la voz “epistemología” con la noción de “teoría del conocimiento”, y en otras ocasiones, simplemente se usa como sinónimo de “filosofía”. Pero el primer caso, es una acepción muy reduccionista de la epistemología, que la restringe únicamente al estudio del proceso de aprehensión cognoscitiva, y a su vez, entender la epistemología como filosofía sin más, es una postura extraordinariamente amplia. Por ello, resulta conveniente precisar el concepto.

La epistemología es la ciencia que estudia a la ciencia. Es el estudio del conocimiento científico, de su génesis y de su desarrollo. Con lo anterior, queda de manifiesto que nos situamos en un campo de reflexión sobre el proceso mismo del desarrollo científico; lo cual a su vez, nos sitúa en el mismo marco que Popper concibe a la epistemología, por ejemplo en su Lógica de la investigación científica. La epistemología, en tanto es una disciplina que se interesa por el desarrollo y los resultados del conocimiento científico; apunta a un análisis cualitativo y holístico acerca de la ciencia como institución social y en cuanto estructura metodológica de apropiación cognitiva. Este tipo de preocupaciones por cierto, alude al análisis de tópicos de carácter metodológico, a aspectos vinculados a los supuestos últimos de la validez y de la objetividad de los conocimientos que va recabando la ciencia; y en general, apunta también a un análisis del cuerpo de reglas y procedimientos, que utiliza la ciencia para cumplir su tarea: nombrar, describir, explicar y predecir los hechos del mundo.

Luego, entre las preocupaciones más relevantes de la epistemología, figuran: los aspectos normativos de la ciencia como tal, los criterios de validez de la apropiación cognoscitiva, la clasificación de las ciencias, la idea de objetividad en las ciencias empíricas, la inducción, la noción de verdad, la noción de realidad en el campo de la física, el ámbito del descubrimiento y el ámbito de la justificación en la investigación científica, o la idea de progreso en la comunidad científica. Aquí por ejemplo, justamente, en torno al análisis y discusión del

concepto de progreso en el ámbito científico, desde las visiones propias del ámbito epistémico; nos iremos adentrando al campo del diseño, para decantar en una eventual idea del progreso en el diseño. Ello, como una modesta propuesta, para la posterior discusión en dicho campo, por parte de los propios diseñadores.

La cuestión del progreso

En nuestra sociedad, actualmente queda claro que el campo en que “el progreso es más evidente e incluso innegable es la técnica y, dentro de ella, especialmente en los dominios que se apoyan directamente en los resultados de las ciencias” (Radnitzky, Andersson, 1982) Pues bien, el diseño como quehacer profesional, y más exactamente como corpus cognitivo, si bien no ha llegado a un consenso en lo referente a su propia definición, tal como lo hemos destacado en otra ocasión (Saldivia, Silva, 2005); sí muestra un consenso entre sus exponentes, toda vez que los mismos están de acuerdo en que dicha disciplina, es en parte técnica, en parte arte y en parte teorización. Luego, un adecuado punto de anclaje entre epistemología y diseño, para efectos de este análisis y que articule efectivamente la tríada mencionada en el epígrafe, parece ser el interés por el progreso. ¿Pero que entendemos por progreso? La historiografía, la historia de las ciencias, la sociología, la epistemología y otras disciplinas, se han preocupado notoriamente por el tema.

Desde la perspectiva de la historiografía por ejemplo, muchos autores perciben que el progreso no es uniforme a un locus específico, o a un período específico, sino que metafóricamente sería como un gran río con múltiples canales y con distintas velocidades cada uno. O como lo expresa Paff Williams: “las sociedades progresan, pero también declinan” (Paff, 1994). Desde esta última perspectiva, por ejemplo, el progreso en el diseño, sería entonces un subir y bajar de productos, modelos y tendencias según el gusto y preferencias de los usuarios. Cabe hacer notar que desde esta mirada analítica, el diseño resultaría un producto social, dirigido, pensado y regulado por la comunidad, donde el diseñador es esencialmente una bisagra transmisora del externalismo y su participación como profesional, por tanto, sería más bien equivalente a vertebrar los requerimientos que fluyen desde la sociedad hacia su profesión.

Ahora, si entramos al universo de la historia de las ciencias, por ejemplo en cuanto a la idea de progreso específicamente en América durante el siglo XIX, se observa que éste, es entendido en esta centuria, como el resultado de la aprehensión cognitiva del universo orgánico e inorgánico que será utilizado por los gobiernos de las jóvenes repúblicas, como un corpus informativo para una posterior explotación, cultivo o industrialización de muchos referentes del cuerpo físico del país. El progreso, es entendido también en este período, como

6362

Epistemología, progreso y diseño Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 61-69

un desplazamiento de la naturaleza por la civilización europea, representado por los inmigrantes y sus valores culturales, políticos y sociales que irradian nuevos posibles de acción y desarrollo laboral. El ideario del progreso decimonónico que se da en estos científicos, por tanto, es entendido como el dinamismo de un eje confrontacional entre naturaleza y civilización. Ahora, desde esta perspectiva decimonónica, el progreso extrapolado al diseño, debería apuntar a ilustrar y difundir las bondades de lo europeo, debería mostrar productos y artificios que contribuyan a la dominación y sometimiento de la naturaleza americana, a mostrar las características de las razas nórdicas y de su supuesta superioridad. Sin embargo, como el diseño en los países americanos en dicho siglo aún no despega, el ideario será replicado solo a mediados del siglo XX.

Así, en el diseño de los productos de los años cuarenta y cincuenta del siglo XX, en diversos países americanos, se percibe lo mismo: potenciar y difundir lo europeo y norteamericano. Era la mentalidad eurocéntrica que continuaba el antiguo modelo decimonónico de superioridad anglosajona y norteamericana, que ya se vislumbrada en el siglo XIX y que denotaba una notoria confianza en el desempeño de los europeos frente al medio. Así, las carátulas de productos matizados de cabelleras rubias, de filas ordenadas de tarros de salsa de tomates, de cocinas espaciosas y de comidas a la norteamericana, mostrarían a mediados del siglo XX, una idea de progreso muy bienvenida para las estructuras del diseño incipiente hispanoamericano que está por eclosionar. Y a su vez, todavía desde el campo disciplinario de la historia de las ciencias, el progreso en el siglo XX, a finales, principia a asociarse con una adecuada descripción y comprensión del entorno auténticamente americano, de respeto a las etnias y de una mayor consideración por lo vernáculo.

Por eso no es extraño que en los años setenta y ochenta del siglo XX, por ejemplo, se principie a analizar desde las diversas ramas de la histórica y de la sociología; temas tales como las variables de la institucionalización de la ciencia en los distintos países de América, la eventual participación de la mujer en el sistema productivo, o el papel de los gobiernos locales en la consolidación y orientación de la ciencia en nuestro continente; y en general, se observa una revisión sobre el rol de los distintos agentes sociales latinoamericanos en la construcción científica.

Y esto, llevado al diseño, sería equivalente, a las primeras y audaces propuestas de ilustrar, graficar y difundir modelos estéticos que den cuenta de la naturaleza americana, de los picos andinos, de los lagos centroamericanos, de las estepas de la Patagonia, de las flores típicas del Amazona, o de una presencia de rostros de mujeres, hombres y niños morenos, con sus atuendos típicos y en interacción con su medio local o regional.

Epistemología y progreso

En el plano de la epistemología, a su vez, la noción de progreso no es fácil de identificar. Y es probablemente el campo más analítico y difícil, dado la diversidad de tendencias y enfoques críticos contemporáneos. En efecto, por ejemplo si partimos con la idea de ciencia de Gastón Bachelard, que la concibe como una expresión cognitiva y social siempre en ascenso, que deja de manifiesto los sucesivos valores del progreso del pensamiento casi como una línea diagonal hacia el infinito; entonces desde esta perspectiva, el progreso es un incremento cuantitativo que resulta de suyo de la mera actividad práctica de los exponentes de la comunidad científica. Y si esto lo extrapolamos al diseño, entonces, el progreso aquí sería entendido como la aparición continúa de nuevos aparatos que buscan la comodidad y el bienestar del ser humano, pero que resultan, per se de la actividad profesional e institucional del diseño. Esto es, sin influencias significativas, sin una matriz peculiar propia, puesto que la mera adición ya sería incremento cuantitativo, y entonces, el diseño, en tanto se comporte como un apéndice de la comunidad científica internacional, repetiría de suyo las innovaciones en el esquema del ascenso infinito. Así, en este esquema, si la ciencia muestra siempre nuevos conceptos y nuevas teorías, y las tecnologías nuevos materiales; entonces, el diseño a su vez, mostraría siempre novedades y artificios por la mera adición cumulativa de tales tecnologías y de los nuevos materiales que se van alcanzado. Aquí, más que la novedad, el incremento es el progreso. Y con alguna licencia, es posible ubicar aquí entonces, la idea de Escobar, que sostiene la conveniencia de estructurar “un proceso de diseño integral que anticipa y deduce las necesidades de los individuos para los cuales desarrolla su trabajo, y aprovecha las funcionalidades y posibilidades de las nuevas tecnologías” (Escobar, 2003).

Y desde otra escuela epistémica, por ejemplo desde la perspectiva de Kuhn, principalmente a partir de la difusión de sus tesis sobre la marcha y comportamiento de la ciencia, luego de la publicación de su texto: La estructura de las revoluciones científicas (1962), el progreso sería el resultado visible de los nuevos paradigmas en las distintas disciplinas, independientemente de si estos van todos en ascenso, al unísono, desfasados, articulados, o de cualquier otra forma. Así, la aparición de nuevas teorías que expliquen más hechos y resuelvan mejor los problemas, serían la máxima expresión de progreso en una ciencia en particular. Ahora bien, esto en el campo del diseño, sería equivalente a desenvolverse más adecuadamente con las exigencias de los clientes, del gobierno, o de los consumidores. Así, si algunos diseñadores están entrabados en la búsqueda de soluciones de aparatos e instrumentos, según los estándares de los años anteriores, o de un gobierno pasado, o de un modelo explicativo comprometido con ciertas tesis educacionales o sociales, se ven sobrepasados de pronto, por los productos más dinámicos, llamativos, ergonómicos,

6564

Epistemología, progreso y diseño Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 61-69

un desplazamiento de la naturaleza por la civilización europea, representado por los inmigrantes y sus valores culturales, políticos y sociales que irradian nuevos posibles de acción y desarrollo laboral. El ideario del progreso decimonónico que se da en estos científicos, por tanto, es entendido como el dinamismo de un eje confrontacional entre naturaleza y civilización. Ahora, desde esta perspectiva decimonónica, el progreso extrapolado al diseño, debería apuntar a ilustrar y difundir las bondades de lo europeo, debería mostrar productos y artificios que contribuyan a la dominación y sometimiento de la naturaleza americana, a mostrar las características de las razas nórdicas y de su supuesta superioridad. Sin embargo, como el diseño en los países americanos en dicho siglo aún no despega, el ideario será replicado solo a mediados del siglo XX.

Así, en el diseño de los productos de los años cuarenta y cincuenta del siglo XX, en diversos países americanos, se percibe lo mismo: potenciar y difundir lo europeo y norteamericano. Era la mentalidad eurocéntrica que continuaba el antiguo modelo decimonónico de superioridad anglosajona y norteamericana, que ya se vislumbrada en el siglo XIX y que denotaba una notoria confianza en el desempeño de los europeos frente al medio. Así, las carátulas de productos matizados de cabelleras rubias, de filas ordenadas de tarros de salsa de tomates, de cocinas espaciosas y de comidas a la norteamericana, mostrarían a mediados del siglo XX, una idea de progreso muy bienvenida para las estructuras del diseño incipiente hispanoamericano que está por eclosionar. Y a su vez, todavía desde el campo disciplinario de la historia de las ciencias, el progreso en el siglo XX, a finales, principia a asociarse con una adecuada descripción y comprensión del entorno auténticamente americano, de respeto a las etnias y de una mayor consideración por lo vernáculo.

Por eso no es extraño que en los años setenta y ochenta del siglo XX, por ejemplo, se principie a analizar desde las diversas ramas de la histórica y de la sociología; temas tales como las variables de la institucionalización de la ciencia en los distintos países de América, la eventual participación de la mujer en el sistema productivo, o el papel de los gobiernos locales en la consolidación y orientación de la ciencia en nuestro continente; y en general, se observa una revisión sobre el rol de los distintos agentes sociales latinoamericanos en la construcción científica.

Y esto, llevado al diseño, sería equivalente, a las primeras y audaces propuestas de ilustrar, graficar y difundir modelos estéticos que den cuenta de la naturaleza americana, de los picos andinos, de los lagos centroamericanos, de las estepas de la Patagonia, de las flores típicas del Amazona, o de una presencia de rostros de mujeres, hombres y niños morenos, con sus atuendos típicos y en interacción con su medio local o regional.

Epistemología y progreso

En el plano de la epistemología, a su vez, la noción de progreso no es fácil de identificar. Y es probablemente el campo más analítico y difícil, dado la diversidad de tendencias y enfoques críticos contemporáneos. En efecto, por ejemplo si partimos con la idea de ciencia de Gastón Bachelard, que la concibe como una expresión cognitiva y social siempre en ascenso, que deja de manifiesto los sucesivos valores del progreso del pensamiento casi como una línea diagonal hacia el infinito; entonces desde esta perspectiva, el progreso es un incremento cuantitativo que resulta de suyo de la mera actividad práctica de los exponentes de la comunidad científica. Y si esto lo extrapolamos al diseño, entonces, el progreso aquí sería entendido como la aparición continúa de nuevos aparatos que buscan la comodidad y el bienestar del ser humano, pero que resultan, per se de la actividad profesional e institucional del diseño. Esto es, sin influencias significativas, sin una matriz peculiar propia, puesto que la mera adición ya sería incremento cuantitativo, y entonces, el diseño, en tanto se comporte como un apéndice de la comunidad científica internacional, repetiría de suyo las innovaciones en el esquema del ascenso infinito. Así, en este esquema, si la ciencia muestra siempre nuevos conceptos y nuevas teorías, y las tecnologías nuevos materiales; entonces, el diseño a su vez, mostraría siempre novedades y artificios por la mera adición cumulativa de tales tecnologías y de los nuevos materiales que se van alcanzado. Aquí, más que la novedad, el incremento es el progreso. Y con alguna licencia, es posible ubicar aquí entonces, la idea de Escobar, que sostiene la conveniencia de estructurar “un proceso de diseño integral que anticipa y deduce las necesidades de los individuos para los cuales desarrolla su trabajo, y aprovecha las funcionalidades y posibilidades de las nuevas tecnologías” (Escobar, 2003).

Y desde otra escuela epistémica, por ejemplo desde la perspectiva de Kuhn, principalmente a partir de la difusión de sus tesis sobre la marcha y comportamiento de la ciencia, luego de la publicación de su texto: La estructura de las revoluciones científicas (1962), el progreso sería el resultado visible de los nuevos paradigmas en las distintas disciplinas, independientemente de si estos van todos en ascenso, al unísono, desfasados, articulados, o de cualquier otra forma. Así, la aparición de nuevas teorías que expliquen más hechos y resuelvan mejor los problemas, serían la máxima expresión de progreso en una ciencia en particular. Ahora bien, esto en el campo del diseño, sería equivalente a desenvolverse más adecuadamente con las exigencias de los clientes, del gobierno, o de los consumidores. Así, si algunos diseñadores están entrabados en la búsqueda de soluciones de aparatos e instrumentos, según los estándares de los años anteriores, o de un gobierno pasado, o de un modelo explicativo comprometido con ciertas tesis educacionales o sociales, se ven sobrepasados de pronto, por los productos más dinámicos, llamativos, ergonómicos,

6564

Epistemología, progreso y diseño Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 61-69

funcionales y operativos de sus pares; entonces, este último sería el nuevo paradigma imperante y exitoso en el universo del diseño. Por lo menos, mientras pueda satisfacer los requerimientos del mercado, de los empresarios y de los consumidores organizados y cada vez más organizados y exigentes. Entonces, lo más equivalente al modelo explicativo khuniano, para ilustrar el progreso en el diseño, sería una teoría ecléctica del diseño, que permita la presencia de diversas tendencias, gustos y formas en uso.

Y a su vez, desde la perspectiva de Feyerabend, y su postulado del “todo vale” en la investigación científica, el asunto se hace más complejo aún. En efecto, luego de la difusión de esta y otras tesis que lo hicieron famoso, tras la publicación de su texto Contra el Método; el autor divulga la idea de que la ciencia avanza o progresa, por la simple audacia y convicción de unos investigadores más audaces que otros. En especial, por el esfuerzo de aquellos que se alejan de la inducción y prefieren la contrainducción, o el pluralismo metodológico, por sobre el método racionalista tradicional de las ciencias. En este contexto, es conveniente recordar por ejemplo, como visualiza la metodología de Galileo o de Kepler, pues nos ilustra para formarnos una idea de su enfoque más global: “Ni Galileo, ni Kepler, ni Newton utilizaban métodos específicos bien definidos. Son más bien eclécticos, opor tunistas. Naturalmente cada individuo tiene un estilo de investigación que da a sus trabajos una cierta unidad; pero el estilo cambia de un individuo a otro y de un área de investigación a otra.” (Feyerabend, 1981, p. 43)

Esto, extrapolado al diseño, sería equivalente a las innovaciones propias de diseñadores más inconformistas, más contestatarios y más anárquicos que se lanzan contra los modus operandis tradicionales del diseño, contra la metodología de las formas estéticas, y contra las producciones enmarcadas en los consensos industriales y/o empresariales vigentes. Y si tales aparatos, constructos o implementos así audazmente diseñados, por la simple y fuerte energía de la constancia, de la innovación y de la búsqueda de una mayor flexibilidad democrática, o de una imaginería personal abundante, dan en el blanco, o “prenden” en el mercado, entonces, he ahí el progreso.

Ahora, si nos inclinamos a buscar criterios y categorías para la noción de progreso, desde el ámbito del constructivismo o epistemología genética, desarrollada por Jean Piaget, desde la década del cincuenta del Siglo XX, entonces cabe tener presente que para este epistemólogo, biólogo y psicólogo suizo, la epistemología es el estudio del paso de un conocimiento de menor validez, a otro de mayor validez (Piaget, 1967, p. 6). Y ello nos sitúa en el problema de la génesis y de las estructuras, puesto que el conocimiento científico así entendido, es en la práctica, el resultado de la movilidad y dinamismo de las estructuras; luego el progreso aquí es análogo al estadio del

paso de una estructura menos compleja otra de mayor complejidad. Y queda claro por tanto, que en este enfoque, el conocimiento no es un salto azaroso ni en un cuerpo disciplinario ni una iluminación súbita de un sujeto; sino que es el resultado lógico e inevitable de un cierto dominio estructural ya alcanzado, y que el mismo está preparado para avanzar a un estadio superior. O dicho en otros términos, el progreso sería el resultado de una transformación continua de los conocimientos que se reorganizan y reequilibran como consecuencia de la marcha ascendente e inevitable de estructuras constitutivas previas. Entonces, un esquema de esta naturaleza, llevado al diseño, se identificaría con una idea de progreso que resulta de las estructuras materiales y operativas e instrumentales alcanzadas sistemáticamente por el gremio, como un derrotero ascendente, en el cual alcanzado el nivel a, necesariamente se llegará al nivel b, y así sucesivamente, pero centrado principalmente en los aspectos cognitivos de la construcción estética, o en las fases operatorias y funcionales de los diseñadores, más que en el impacto de las influencias externas; las que en este caso, no tendrían tanta fuerza explicativa para alcanzar la innovación y el progreso por no ser parte de la propia estructura.

El progreso entonces, es aquí el resultado del propio mecanismo casi autónomo que toman las estructuras ya alcanzadas como aceptables y funcionales en un tiempo, las leyes de su composición interna y operativa; esto es, por ejemplo en el diseño, si ya se ha alcanzado el diseño ergonómico y funcional en muchos productos suecos para los bebés, entonces, ahora vendría de suyo llegar esa misma concepción a la cocina, a la totalidad de la casa y luego a la oficina y a los nuevos y más amplios espacios de interacción social. Estos serían los nuevos niveles cognitivos más avanzados y así sucesivamente. Pero, situados desde esta perspectiva, hay que tener muy presente - independientemente de si se es o no constructivista- que “las estructuras científicas corresponden a las concepciones de estructuras de los hombres mismos y que contribuyen a acuñar a largo plazo esas mismas concepciones” (Lenk, 1988, p. 6). La cita anterior, deja constancia de que tales estructuras, son principalmente una adecuación nominativa y cognoscitiva para tratar de “atrapar” los incrementos relevantes de las distintas disciplinas científicas y o profesiones, pero no son la “cosa en sí”, que garantice un aumento cualitativo y cuantitativo en las distintas disciplinas.

Por tanto, aquí la identificación y adecuada explicitación de los hitos de mayor riqueza lógico-matemática u operativa, en un campo disciplinario específico, estarían indicando el progreso, el nuevo dominio sobre los observables del mundo natural y social. Y el énfasis en este caso, queda centrado principalmente en un nuevo y mejor dominio lógico-operativo del sujeto sobre el medio, con lo cual queda de manifiesto que tales hitos superiores o más avanzados son cuantificables, medibles. En el caso de las ciencias formales por

6766

Epistemología, progreso y diseño Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 61-69

funcionales y operativos de sus pares; entonces, este último sería el nuevo paradigma imperante y exitoso en el universo del diseño. Por lo menos, mientras pueda satisfacer los requerimientos del mercado, de los empresarios y de los consumidores organizados y cada vez más organizados y exigentes. Entonces, lo más equivalente al modelo explicativo khuniano, para ilustrar el progreso en el diseño, sería una teoría ecléctica del diseño, que permita la presencia de diversas tendencias, gustos y formas en uso.

Y a su vez, desde la perspectiva de Feyerabend, y su postulado del “todo vale” en la investigación científica, el asunto se hace más complejo aún. En efecto, luego de la difusión de esta y otras tesis que lo hicieron famoso, tras la publicación de su texto Contra el Método; el autor divulga la idea de que la ciencia avanza o progresa, por la simple audacia y convicción de unos investigadores más audaces que otros. En especial, por el esfuerzo de aquellos que se alejan de la inducción y prefieren la contrainducción, o el pluralismo metodológico, por sobre el método racionalista tradicional de las ciencias. En este contexto, es conveniente recordar por ejemplo, como visualiza la metodología de Galileo o de Kepler, pues nos ilustra para formarnos una idea de su enfoque más global: “Ni Galileo, ni Kepler, ni Newton utilizaban métodos específicos bien definidos. Son más bien eclécticos, opor tunistas. Naturalmente cada individuo tiene un estilo de investigación que da a sus trabajos una cierta unidad; pero el estilo cambia de un individuo a otro y de un área de investigación a otra.” (Feyerabend, 1981, p. 43)

Esto, extrapolado al diseño, sería equivalente a las innovaciones propias de diseñadores más inconformistas, más contestatarios y más anárquicos que se lanzan contra los modus operandis tradicionales del diseño, contra la metodología de las formas estéticas, y contra las producciones enmarcadas en los consensos industriales y/o empresariales vigentes. Y si tales aparatos, constructos o implementos así audazmente diseñados, por la simple y fuerte energía de la constancia, de la innovación y de la búsqueda de una mayor flexibilidad democrática, o de una imaginería personal abundante, dan en el blanco, o “prenden” en el mercado, entonces, he ahí el progreso.

Ahora, si nos inclinamos a buscar criterios y categorías para la noción de progreso, desde el ámbito del constructivismo o epistemología genética, desarrollada por Jean Piaget, desde la década del cincuenta del Siglo XX, entonces cabe tener presente que para este epistemólogo, biólogo y psicólogo suizo, la epistemología es el estudio del paso de un conocimiento de menor validez, a otro de mayor validez (Piaget, 1967, p. 6). Y ello nos sitúa en el problema de la génesis y de las estructuras, puesto que el conocimiento científico así entendido, es en la práctica, el resultado de la movilidad y dinamismo de las estructuras; luego el progreso aquí es análogo al estadio del

paso de una estructura menos compleja otra de mayor complejidad. Y queda claro por tanto, que en este enfoque, el conocimiento no es un salto azaroso ni en un cuerpo disciplinario ni una iluminación súbita de un sujeto; sino que es el resultado lógico e inevitable de un cierto dominio estructural ya alcanzado, y que el mismo está preparado para avanzar a un estadio superior. O dicho en otros términos, el progreso sería el resultado de una transformación continua de los conocimientos que se reorganizan y reequilibran como consecuencia de la marcha ascendente e inevitable de estructuras constitutivas previas. Entonces, un esquema de esta naturaleza, llevado al diseño, se identificaría con una idea de progreso que resulta de las estructuras materiales y operativas e instrumentales alcanzadas sistemáticamente por el gremio, como un derrotero ascendente, en el cual alcanzado el nivel a, necesariamente se llegará al nivel b, y así sucesivamente, pero centrado principalmente en los aspectos cognitivos de la construcción estética, o en las fases operatorias y funcionales de los diseñadores, más que en el impacto de las influencias externas; las que en este caso, no tendrían tanta fuerza explicativa para alcanzar la innovación y el progreso por no ser parte de la propia estructura.

El progreso entonces, es aquí el resultado del propio mecanismo casi autónomo que toman las estructuras ya alcanzadas como aceptables y funcionales en un tiempo, las leyes de su composición interna y operativa; esto es, por ejemplo en el diseño, si ya se ha alcanzado el diseño ergonómico y funcional en muchos productos suecos para los bebés, entonces, ahora vendría de suyo llegar esa misma concepción a la cocina, a la totalidad de la casa y luego a la oficina y a los nuevos y más amplios espacios de interacción social. Estos serían los nuevos niveles cognitivos más avanzados y así sucesivamente. Pero, situados desde esta perspectiva, hay que tener muy presente - independientemente de si se es o no constructivista- que “las estructuras científicas corresponden a las concepciones de estructuras de los hombres mismos y que contribuyen a acuñar a largo plazo esas mismas concepciones” (Lenk, 1988, p. 6). La cita anterior, deja constancia de que tales estructuras, son principalmente una adecuación nominativa y cognoscitiva para tratar de “atrapar” los incrementos relevantes de las distintas disciplinas científicas y o profesiones, pero no son la “cosa en sí”, que garantice un aumento cualitativo y cuantitativo en las distintas disciplinas.

Por tanto, aquí la identificación y adecuada explicitación de los hitos de mayor riqueza lógico-matemática u operativa, en un campo disciplinario específico, estarían indicando el progreso, el nuevo dominio sobre los observables del mundo natural y social. Y el énfasis en este caso, queda centrado principalmente en un nuevo y mejor dominio lógico-operativo del sujeto sobre el medio, con lo cual queda de manifiesto que tales hitos superiores o más avanzados son cuantificables, medibles. En el caso de las ciencias formales por

6766

Epistemología, progreso y diseño Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 61-69

ejemplo, la geometría euclidiana de las tres dimensiones, sería un hito de menor conocimiento y otro superior, sería el paso al empleo de las geometrías de cuatro o más dimensiones, como las desarrolladas por Gauss y otros matemáticos desde el siglo XIX en adelante; este sería el dominio de mayor riqueza lógico matemática. A su vez, en el diseño entonces, el progreso entendido desde la perspectiva piagetana, sería equivalente a un set de formas y estructuras funcionales que puestas en uso por los consumidores, necesariamente dan paso a un nuevo hito en que se haga indispensable aplicar un mayor rigor lógico y cuantitativo en las proporciones, formas o ciertos diseños o artificios.

A manera de conclusión

Tal vez, debamos tener presente que desde la epistemología contemporánea, no se pretende entregar una idea de progreso compacta y uniforme que sea el rasero que permita ir determinando si en tal o cual campo disciplinario se va alcanzado el paradigma del progreso, así establecido. Lo que hace la epistemología principalmente, es el análisis de los conceptos; v. gr.: re-piensa las tradicionales categorías utilizadas por la comunidad científica, tales como por ejemplo: realidad, vida, verdad, objetividad, certeza, criterios de validez de las teorías, progreso científico y otras. Y justamente en esto radica su aporte, su fortaleza, pues los epistemólogos se dan el tiempo y el cometido profesional para ello, es su tarea esencial. Y desde esta perspectiva, se comprende que el análisis epistemológico de la noción de progreso, en la ciencia en general o en el diseño como expresión académica y profesional, simplemente, no entregue una estandarización o uniformización de las expresiones formales, empíricas o ergonómicas que aglutine las producciones del diseño dentro de un marco de matrices que muestren de suyo el progreso contemporáneo en dicho campo.

Esto porque la epistemología analiza las estructuras del pensamiento, la coherencia de nuestras conquistas racionales, el desenvolvimiento de la ciencia y las razones de la confianza en los productos de nuestro pensar y, no necesariamente entrega las certezas inamovibles con que sueña nuestro espíritu crítico, para llevarlas a una disciplina o a un campo profesional. Como por ejemplo cuando soñamos con encontrar hoy algo similar al idealizado Modelo cartesiano de las “Reglas para la dirección del espíritu”, y otras posturas afines. A este respecto, resulta conveniente recordar lo que señala Kart Jaspers: “…el progreso aporta ciertamente una unidad en lo cognoscible, pero no la unidad de la humanidad” (Jaspers, 1985, p. 325).

El discurso epistemológico es esencialmente referencial, basto y complementario, es un cuerpo teórico en que a partir de las tendencias y enfoques que podamos considerar, permitirá al diseñador en este caso,

extrapolar tales rasgos y encontrar sus propios parámetros para aportar desde el colectivo de su praxis, los productos, diseños, instrumentos, artificios, formas y materiales ensamblados por los requerimientos de la necesidad, la funcionalidad operativa, y el conocimiento de los materiales más apropiados para cada producto final. Y si de veraz tales productos o artificios, son la máxima expresión de progreso, lo dirán los usuarios y los diseñadores, articulados ambos, en virtud de criterios tales como: la preferencia de los solicitantes, la demanda asociada a los procesos industriales, la satisfacción gremial de los diseñadores, la sensación de comodidad de los usuarios, (puesto que es imposible saltarse el principio antrópico, que los diseñadores están obligados a tener en cuenta para la aceptación de sus propuestas), las leyes de la naturaleza, y de manera muy especial, además, junto a tales criterios, el diseñador deberá atender a las expresiones de goce estético y a los juicios acerca de la belleza o no de tales constructos.

Bibliografía

Escobar, E. (2003). Usuarios, marca y nuevas tecnologías; Encuentro Académico: “El Diseño en los entornos de las nuevas tecnologías: Una mirada a la digitalización del objeto”, Santiago de Chile: 2003.Feyerabend, P. (1981). Contra el Método. Barcelona: Ariel.Jaspers, K. (1985). Origen y meta de la historia. Madrid: Alianza Editorial. Lenk, H. (1988). Entre la epistemología y la ciencia social. Barcelona: Ed. Alfa.Piaget, J. (1967). Logique et connaissance scientifique. París: Gallimard.Radnitzky, G. y Andersson, G. (1982). “¿Hay criterios objetivos del progreso científico?”, en: Gerad Radidnitzky y Gunnar Andersson: Progreso y racionalidad en la ciencia. Madrid: Alianza Editorial.Saldivia, Z. y Silva, C. (2005). Epistemología y Diseño: un maridaje necesario, en la revista electrónica: www.critica.clWilliams, Paff (1994). La Ira de las naciones. Santiago: Ed. Andrés Bello.

6968

Epistemología, progreso y diseño Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 61-69

ejemplo, la geometría euclidiana de las tres dimensiones, sería un hito de menor conocimiento y otro superior, sería el paso al empleo de las geometrías de cuatro o más dimensiones, como las desarrolladas por Gauss y otros matemáticos desde el siglo XIX en adelante; este sería el dominio de mayor riqueza lógico matemática. A su vez, en el diseño entonces, el progreso entendido desde la perspectiva piagetana, sería equivalente a un set de formas y estructuras funcionales que puestas en uso por los consumidores, necesariamente dan paso a un nuevo hito en que se haga indispensable aplicar un mayor rigor lógico y cuantitativo en las proporciones, formas o ciertos diseños o artificios.

A manera de conclusión

Tal vez, debamos tener presente que desde la epistemología contemporánea, no se pretende entregar una idea de progreso compacta y uniforme que sea el rasero que permita ir determinando si en tal o cual campo disciplinario se va alcanzado el paradigma del progreso, así establecido. Lo que hace la epistemología principalmente, es el análisis de los conceptos; v. gr.: re-piensa las tradicionales categorías utilizadas por la comunidad científica, tales como por ejemplo: realidad, vida, verdad, objetividad, certeza, criterios de validez de las teorías, progreso científico y otras. Y justamente en esto radica su aporte, su fortaleza, pues los epistemólogos se dan el tiempo y el cometido profesional para ello, es su tarea esencial. Y desde esta perspectiva, se comprende que el análisis epistemológico de la noción de progreso, en la ciencia en general o en el diseño como expresión académica y profesional, simplemente, no entregue una estandarización o uniformización de las expresiones formales, empíricas o ergonómicas que aglutine las producciones del diseño dentro de un marco de matrices que muestren de suyo el progreso contemporáneo en dicho campo.

Esto porque la epistemología analiza las estructuras del pensamiento, la coherencia de nuestras conquistas racionales, el desenvolvimiento de la ciencia y las razones de la confianza en los productos de nuestro pensar y, no necesariamente entrega las certezas inamovibles con que sueña nuestro espíritu crítico, para llevarlas a una disciplina o a un campo profesional. Como por ejemplo cuando soñamos con encontrar hoy algo similar al idealizado Modelo cartesiano de las “Reglas para la dirección del espíritu”, y otras posturas afines. A este respecto, resulta conveniente recordar lo que señala Kart Jaspers: “…el progreso aporta ciertamente una unidad en lo cognoscible, pero no la unidad de la humanidad” (Jaspers, 1985, p. 325).

El discurso epistemológico es esencialmente referencial, basto y complementario, es un cuerpo teórico en que a partir de las tendencias y enfoques que podamos considerar, permitirá al diseñador en este caso,

extrapolar tales rasgos y encontrar sus propios parámetros para aportar desde el colectivo de su praxis, los productos, diseños, instrumentos, artificios, formas y materiales ensamblados por los requerimientos de la necesidad, la funcionalidad operativa, y el conocimiento de los materiales más apropiados para cada producto final. Y si de veraz tales productos o artificios, son la máxima expresión de progreso, lo dirán los usuarios y los diseñadores, articulados ambos, en virtud de criterios tales como: la preferencia de los solicitantes, la demanda asociada a los procesos industriales, la satisfacción gremial de los diseñadores, la sensación de comodidad de los usuarios, (puesto que es imposible saltarse el principio antrópico, que los diseñadores están obligados a tener en cuenta para la aceptación de sus propuestas), las leyes de la naturaleza, y de manera muy especial, además, junto a tales criterios, el diseñador deberá atender a las expresiones de goce estético y a los juicios acerca de la belleza o no de tales constructos.

Bibliografía

Escobar, E. (2003). Usuarios, marca y nuevas tecnologías; Encuentro Académico: “El Diseño en los entornos de las nuevas tecnologías: Una mirada a la digitalización del objeto”, Santiago de Chile: 2003.Feyerabend, P. (1981). Contra el Método. Barcelona: Ariel.Jaspers, K. (1985). Origen y meta de la historia. Madrid: Alianza Editorial. Lenk, H. (1988). Entre la epistemología y la ciencia social. Barcelona: Ed. Alfa.Piaget, J. (1967). Logique et connaissance scientifique. París: Gallimard.Radnitzky, G. y Andersson, G. (1982). “¿Hay criterios objetivos del progreso científico?”, en: Gerad Radidnitzky y Gunnar Andersson: Progreso y racionalidad en la ciencia. Madrid: Alianza Editorial.Saldivia, Z. y Silva, C. (2005). Epistemología y Diseño: un maridaje necesario, en la revista electrónica: www.critica.clWilliams, Paff (1994). La Ira de las naciones. Santiago: Ed. Andrés Bello.

6968

Epistemología, progreso y diseño Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 61-69

Valéry ou la conquête de la forme

Ciprian Valcan*

Resumen

Este artículo presenta una síntesis de los planteamientos de Paul Valéry que reivindican la importancia del intelecto, de la forma y de la creatividad en la representación de la realidad. Esta reivindicación, de acuerdo con el autor, constituye una respuesta a las propuestas que abogan por una representación pura y espontánea de esa realidad y que parecerían perder de vista que toda reconstrucción de la misma involucra la participación del espíritu.

Palabras clave: Paul Valéry, percepción, representación, realidad, forma.

Abstract

This article presents a synthesis of Paul Valéry's analysis vindicating the importance of intellect, form, and creativity in the representation of reality. According to the author, this vindication is a response to the proposals that advocate for a pure and spontaneous representation of reality, and that seem to ignore the fact that all reconstructions of reality involve the participation of the spirit.

Key Words: Paul Valéry, perception, representation, reality, form.

* Filósofo de la Universidad del Oeste de Timisoara, Doctor en Filosofía de la Universidad Babes-Bolyai de Cluj-Napoca, Doctor en Filología de la Universidad del Oeste de Timisoara, Doctor en Historia Cultural de l'École Pratique des Hautes Etudes de Paris, Profesor de la Universidad del Oeste de Timisoara.

71

Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 71-82

À Carlos Maldonado Castañeda De pair avec toute la tradition française du classicisme, de l'appréciation de la norme, de la convention, de la manière, au niveau social aussi bien qu'au niveau de la création artistique, Valéry essaie d'offrir par ses écrits une redoute contre l'assaut toujours plus fort des partisans d'une forme d'art qui se propose de présenter la réalité toute nue, la vérité sans travesti, le naturel pur, privilégiant à ce but l'effusion sentimentale, l'exaltation de l'authenticité, la célébration de la vie sous tous ses apects, quelque cruels et barbares qu'ils soient. Ainsi, il s'oppose à l'étrange mélange de romantisme, de naturalisme et de vitalisme qui avait réussi à imposer une méfiance croissante devant les productions de l'intelligence et l'entier contexte culturel du rationnalisme européen, essayant de démontrer qu'il n'y a pas de production supérieure de l'esprit dans l'absence du filtre indispensable de l'intellect. Ses arguments, divers et ingénieux, visent à mettre en évidence la naïveté théorique dont témoignent les adeptes de la transcription fidèle de la réalité, laquelle naïveté ressemble à celle des philosophes matérialistes qui, fascinés par leur vision sur l'indépendance du monde par rapport à l'esprit, perdent de vue le fait que la construction en question est toujors une construction de l'esprit, que l'accès direct aux choses implique, en fait, de façon nécessaire, le biais des facultés de connaissance de l'individu, que la palpation instantanée de la réalité est une simple illusion enfantine.

Réagissant devant cette attitude toujours plus répandue à la fin du XIXe siècle et surtout au début du XXe siècle, Valéry concentre tous ses efforts sur une explication aussi complète que possible du véritable travail de l'esprit, s'efforçant de démontrer que la spontanéité, l'authenticité, le naturel n'existent qu'en tant que figures stylistiques particulières, générées suite à un proccessus aussi laborieux que celui de l'intelligence. Et puisque derrière ces attitudes il y a en général l'exigence de sincérité, de présentation de la vérité toute nue, il s'arrête dans de nombreux fragments sur la vision traditionnelle sur la vérité, indiquant sa caducité et signalant la présence de l'artificiel, de la simulation et de la fasification dans le processus de production de la vérité. Pour lui, il est évident que la vérité n'est pas donnée tout simplement, mais elle est produite au bout d'un travail de filtration des éléments de la réalité extrêmement complexe, tout comme ce qui peut être connu manque d'immédiat, passant par la fabrication opérée par les catégories de l'intellect. Pour Valéry, connaître c'est fabriquer, enfermer le flux chaotique du vécu dans une série de formes qui peuvent être identifiées par la machinerie conceptuelle de l'individu, lui servant à la pacification et à la domination lucide du monde.

Dans le monde de Valéry, l'un des axiomes fondamentaux prévoit que “chacun dissimule quelque chose à quelqu'un, et chacun, quelque chose à soi-même”

(1966c, p. 861), mais cela n'implique pas une condamnation de l'hypocrisie de l'homme, des vices attachés à sa nature corrompue, tel que c'était le cas de Pascal et des moralistes, mais uniquement la constatation nécessaire des véritables principes qui gouvernent les relations entre les individus, permettant le démontage de notions purement fictives dont se détache la fameuse sincérité. L'impossibilité de la sincérité est démontrée en tant que conséquence naturelle de l'énonciation dudit axiome, car, si la dissimulation fonctionne par rapport à elle-même aussi bien que par rapport aux autres, il y a, nécessairement, “deux versants de <sincérité>” (1966c, p. 861), la relativisation de celle-ci consignant son impossibilité et impliquant pratiquement sa dissolution.

De plus, Valéry donne de nombreux exemples à l'appui de l'idée que la simulation est le propre des hommes, contribuant à leur insertion sociale, aussi bien qu'à la formation de la personnalité des individus. De cette perspective, elle apparaît comme un indice de la normalité, de la santé mentale, car “l'homme sain d'esprit est celui qui porte le fou à l'intérieur” (1966c, p. 848), celui qui est capable de contrôler la multitude de ses impulsions anarchiques, instincts désordonnés, désirs arbitraires, tout en gardant la démence diffuse présente dans chacun d'entre nous dans des proportions raisonnables, imperceptibles et, qui plus est, que l'on peut déguiser. Valéry est convaincu de ce que la différence entre la normalité et la folie est une question de degré et non de substance, les hommes ayant le même potentiel maladif, les mêmes réserves de manies, de délires ou bien de phobies. La différence entre ceux-ci est produite par l'inexplicable coagulation qui a lieu dans certains cas, rendant manifeste le pathologique latent jusqu'à ce moment-là et empêchant le camouflage de manifestations qu'avant auraient été considérées de simples bizarreries. Mais si l'individu n'éprouve pas le besoin de discipliner son comportement lorsqu'il est seul, la présence de l'autre agit telle une contrainte, l'obligeant à avoir recours à une série d'attitudes artificielles, essayant de correspondre aux attentes extérieures et estompant par là sa singularité (1966a, pp. 258-259). La société a besoin de la consistance des personnages que les hommes assument, elle ne peut tolérer une fluidité trop grande des manifestations et des caractères, privilégiant la stabilité et la convention, décourageant l'originalité, l'excès, l'incohérence:

Il y a un mensonge et une simulation <physiologiques> qui définissent l'état normal et raisonnable. Le milieu social exerce une sorte de pression sur nos réactions immédiates, nous contraint à être et à demeurer un certain personnage identique à lui-même, dont on puisse prévoir les actions, sur lequel on puisse compter, qui se conservera assez intelligible […] (1966c, pp. 848-849).

7372

Valéry ou la conquête de la forme Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 71-82

À Carlos Maldonado Castañeda De pair avec toute la tradition française du classicisme, de l'appréciation de la norme, de la convention, de la manière, au niveau social aussi bien qu'au niveau de la création artistique, Valéry essaie d'offrir par ses écrits une redoute contre l'assaut toujours plus fort des partisans d'une forme d'art qui se propose de présenter la réalité toute nue, la vérité sans travesti, le naturel pur, privilégiant à ce but l'effusion sentimentale, l'exaltation de l'authenticité, la célébration de la vie sous tous ses apects, quelque cruels et barbares qu'ils soient. Ainsi, il s'oppose à l'étrange mélange de romantisme, de naturalisme et de vitalisme qui avait réussi à imposer une méfiance croissante devant les productions de l'intelligence et l'entier contexte culturel du rationnalisme européen, essayant de démontrer qu'il n'y a pas de production supérieure de l'esprit dans l'absence du filtre indispensable de l'intellect. Ses arguments, divers et ingénieux, visent à mettre en évidence la naïveté théorique dont témoignent les adeptes de la transcription fidèle de la réalité, laquelle naïveté ressemble à celle des philosophes matérialistes qui, fascinés par leur vision sur l'indépendance du monde par rapport à l'esprit, perdent de vue le fait que la construction en question est toujors une construction de l'esprit, que l'accès direct aux choses implique, en fait, de façon nécessaire, le biais des facultés de connaissance de l'individu, que la palpation instantanée de la réalité est une simple illusion enfantine.

Réagissant devant cette attitude toujours plus répandue à la fin du XIXe siècle et surtout au début du XXe siècle, Valéry concentre tous ses efforts sur une explication aussi complète que possible du véritable travail de l'esprit, s'efforçant de démontrer que la spontanéité, l'authenticité, le naturel n'existent qu'en tant que figures stylistiques particulières, générées suite à un proccessus aussi laborieux que celui de l'intelligence. Et puisque derrière ces attitudes il y a en général l'exigence de sincérité, de présentation de la vérité toute nue, il s'arrête dans de nombreux fragments sur la vision traditionnelle sur la vérité, indiquant sa caducité et signalant la présence de l'artificiel, de la simulation et de la fasification dans le processus de production de la vérité. Pour lui, il est évident que la vérité n'est pas donnée tout simplement, mais elle est produite au bout d'un travail de filtration des éléments de la réalité extrêmement complexe, tout comme ce qui peut être connu manque d'immédiat, passant par la fabrication opérée par les catégories de l'intellect. Pour Valéry, connaître c'est fabriquer, enfermer le flux chaotique du vécu dans une série de formes qui peuvent être identifiées par la machinerie conceptuelle de l'individu, lui servant à la pacification et à la domination lucide du monde.

Dans le monde de Valéry, l'un des axiomes fondamentaux prévoit que “chacun dissimule quelque chose à quelqu'un, et chacun, quelque chose à soi-même”

(1966c, p. 861), mais cela n'implique pas une condamnation de l'hypocrisie de l'homme, des vices attachés à sa nature corrompue, tel que c'était le cas de Pascal et des moralistes, mais uniquement la constatation nécessaire des véritables principes qui gouvernent les relations entre les individus, permettant le démontage de notions purement fictives dont se détache la fameuse sincérité. L'impossibilité de la sincérité est démontrée en tant que conséquence naturelle de l'énonciation dudit axiome, car, si la dissimulation fonctionne par rapport à elle-même aussi bien que par rapport aux autres, il y a, nécessairement, “deux versants de <sincérité>” (1966c, p. 861), la relativisation de celle-ci consignant son impossibilité et impliquant pratiquement sa dissolution.

De plus, Valéry donne de nombreux exemples à l'appui de l'idée que la simulation est le propre des hommes, contribuant à leur insertion sociale, aussi bien qu'à la formation de la personnalité des individus. De cette perspective, elle apparaît comme un indice de la normalité, de la santé mentale, car “l'homme sain d'esprit est celui qui porte le fou à l'intérieur” (1966c, p. 848), celui qui est capable de contrôler la multitude de ses impulsions anarchiques, instincts désordonnés, désirs arbitraires, tout en gardant la démence diffuse présente dans chacun d'entre nous dans des proportions raisonnables, imperceptibles et, qui plus est, que l'on peut déguiser. Valéry est convaincu de ce que la différence entre la normalité et la folie est une question de degré et non de substance, les hommes ayant le même potentiel maladif, les mêmes réserves de manies, de délires ou bien de phobies. La différence entre ceux-ci est produite par l'inexplicable coagulation qui a lieu dans certains cas, rendant manifeste le pathologique latent jusqu'à ce moment-là et empêchant le camouflage de manifestations qu'avant auraient été considérées de simples bizarreries. Mais si l'individu n'éprouve pas le besoin de discipliner son comportement lorsqu'il est seul, la présence de l'autre agit telle une contrainte, l'obligeant à avoir recours à une série d'attitudes artificielles, essayant de correspondre aux attentes extérieures et estompant par là sa singularité (1966a, pp. 258-259). La société a besoin de la consistance des personnages que les hommes assument, elle ne peut tolérer une fluidité trop grande des manifestations et des caractères, privilégiant la stabilité et la convention, décourageant l'originalité, l'excès, l'incohérence:

Il y a un mensonge et une simulation <physiologiques> qui définissent l'état normal et raisonnable. Le milieu social exerce une sorte de pression sur nos réactions immédiates, nous contraint à être et à demeurer un certain personnage identique à lui-même, dont on puisse prévoir les actions, sur lequel on puisse compter, qui se conservera assez intelligible […] (1966c, pp. 848-849).

7372

Valéry ou la conquête de la forme Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 71-82

Imposant cette pression constante sur l'individu, la société contribue au dégagement de sa personnalité, dont la génèse n'est pas un processus naturel, un résultat perceptible tout de suite, mais représente la fin d'une démarche raffinée de décantation, de fixation laborieuse de traits relativement invariables pour l'imposition desquels il est nécessaire de surmonter toutes les caractéristiques accidentelles, le renoncement au chaos d'impressions, de gestes et de formes insuffisamment assimilées, le surmontage méthodique du fortuit au profit du tracement définitif de contours fermes et faciles à reconnaître, qui représentent la marque d'un comportement consolidé, devenu ainsi prévisible et facile à identifier, placé au dehors de toute fluctuation majeure. La simulation est le mécanisme responsable pour l'accomplissement de ce vaste projet indispensable à un bon fonctionnement de la société. Il s'agit d'un mécanisme spéculaire qui tend à harmoniser jusqu'à une superposition parfaite l'image du moi avec l'image que les autres se font sur le moi suite à un jeu subtil de réflexions dont la dynamique apparemment imprévisible conduit toujours au même résultat, l'estompement d'être au profit de paraître, la capture de l'être par l'apparence, sa vampirisation jusqu'au bord de la dissolution de sorte que l'artifice initial se transforme en nature, que le masque devienne la vraie et unique expression du visage. Tandis qu'au début du processus il y a un vrai abysse entre être et paraître, que les différences semblent irréconciliables, que la mise en scène est justement le résultat d'une réaction de l'individu contre

1sa propre nature, qu'il veut camoufler ou bien supprimer , à la fin l'apparence canibalise l'être, étant la seule qui survive. Mais la dynamique de cette relation est beaucoup plus complexe que peut imaginer celui qui la déclenche croyant pouvoir contrôler complètement l'image qu'il projette, obtenir l'effet envisagé, réussissant à être perçu comme il le veut.

En fait, le personnage créé s'échappe toujours au contrôle, car l'impression produite sur les autres ne peut être anticipée rigoureusement, et son apparence n'est pas identique à l'intention qui a présidé lors de son modelage, mais c'est bien le résultat des perceptions extérieures, c'est une somme des impressions des autres sur le moi, “un effet de l'effet qu'il produit sur un grand nombre d'inconnus” (1965b, p. 562). C'est ça l'apparence qui avale l'être, et pas sa simple projection initiale, le calcul de l'individu étant toujours contredit ou du moins modifié par l'expérience du contact avec les autres. L'homme est obligé à se conformer à l'image qu'il se fait, de se replier toujours plus devant le personnage, le laissant occuper toute la scène et devenant toujours plus dépendant de lui: “Dans toute carrière publique, une fois que le bruit qu'il fait

revient à son auteur et lui enseigne qui il paraît celui-ci joue son personnage ou plutôt son personnage le joue, et ne le lâche plus” (1965a, p. 392). Le processus ne se termine qu'après le contourage définitif des limites de l'individualité, qu'après la fixation de toutes les nuances de la personnalité homologuée de point de vue social, définitivant ainsi sa génèse compliquée:

Même notre personne, en tant que nous en tenons compte, est une simulation. On finit par être plus soi qu'on ne l'a jamais été. On se voit d'un trait, dans un raccourci, et l'on prend pour soi-même l'effet des actions extérieures qui ont tiré de nous tous ces traits, qui nous font un portrait (1966b, p. 708).

Selon Valéry, si, en général, le conflit entre être et paraître n'engendre pas de grandes convulsions, l'être étant obligé de s'incliner devant l'apparence, d'en emprunter les traits jusqu'à devenir identique à elle, pour ce qui est des grands esprits, ce conflit est violent, opposant ce qu'il appelle “deux instincts capitaux de l'intelligence” (1965b, p. 562), à savoir, d'un côté, le penchant vers la séduction, vers l'obtention de l'admiration des autres, de la gloire, et, d'autre côté, la volupté d'être seul, de se sentir unique, incomparable, de ne dépendre que de soi-même. Les auteurs qui succombent à la première tentation entrent dans un univers de l'exhibition, de comparaisons, d'évaluations réciproques qui les transforment en des marionnettes de l'opinion, du goût publique, devenant ainsi incapables de garder leur indépendance, et étant obligés de s'adapter finalement à l'image qu'ils ont générée: “L'homme connu tend à ne plus être qu'une émanation de ce nombre indistinct d'inconnus, c'est-à-dire, une créature de l'opinion, un monstre absurde et public auquel le vrai homme peu à peu le cède et se conforme” (1965b, p. 562). Les autres, qui misent sur leur irréductibilité radicale, qui ne reconnaissent aucun rapprochement entre eux et le reste de l'humanité, éprouvant une véritable horreur à la pensée qu'ils pourraient appartenir à une espèce composée d'exemplaires qui semblent se répéter presqu'à l'infini, essaient de conserver l'impression de leur singularité par l'invention d'une oeuvre censée les séparer des autres pour de bon, construisant par son intermédiaire une véritable redoute qui les tienne à l'écart de la grande masse des mortels. Derrière cette obsession il y aurait, selon Valéry, justement la crainte de la mort, l'impuissance d'accepter l'identité essentielle entre eux et les autre hommes, entre eux et ceux dont la disparition quotidienne rend compte de l'omnipotence de la mort:

Refuser d'être semblable, refuser d'avoir des semblables, refuser l'être à ceux qui sont apparemment et raisonnablement nos semblables, c'est refuser d'être mortel, et vouloir aveuglement ne pas être de même essence que ces gens qui passent et fondent l'un après l'autre autour de nous (1965b, p. 563).

1 Voir Valéry, 1965a, p. 381: “Voici un homme qui se présente à vous comme rationaliste, froid, méthodique, etc. Nous allons supposer qu'il est tout le contraire, et que ce qu'il paraît est l'effet de sa réaction contre ce qu'il est”.

7574

Valéry ou la conquête de la forme Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 71-82

Imposant cette pression constante sur l'individu, la société contribue au dégagement de sa personnalité, dont la génèse n'est pas un processus naturel, un résultat perceptible tout de suite, mais représente la fin d'une démarche raffinée de décantation, de fixation laborieuse de traits relativement invariables pour l'imposition desquels il est nécessaire de surmonter toutes les caractéristiques accidentelles, le renoncement au chaos d'impressions, de gestes et de formes insuffisamment assimilées, le surmontage méthodique du fortuit au profit du tracement définitif de contours fermes et faciles à reconnaître, qui représentent la marque d'un comportement consolidé, devenu ainsi prévisible et facile à identifier, placé au dehors de toute fluctuation majeure. La simulation est le mécanisme responsable pour l'accomplissement de ce vaste projet indispensable à un bon fonctionnement de la société. Il s'agit d'un mécanisme spéculaire qui tend à harmoniser jusqu'à une superposition parfaite l'image du moi avec l'image que les autres se font sur le moi suite à un jeu subtil de réflexions dont la dynamique apparemment imprévisible conduit toujours au même résultat, l'estompement d'être au profit de paraître, la capture de l'être par l'apparence, sa vampirisation jusqu'au bord de la dissolution de sorte que l'artifice initial se transforme en nature, que le masque devienne la vraie et unique expression du visage. Tandis qu'au début du processus il y a un vrai abysse entre être et paraître, que les différences semblent irréconciliables, que la mise en scène est justement le résultat d'une réaction de l'individu contre

1sa propre nature, qu'il veut camoufler ou bien supprimer , à la fin l'apparence canibalise l'être, étant la seule qui survive. Mais la dynamique de cette relation est beaucoup plus complexe que peut imaginer celui qui la déclenche croyant pouvoir contrôler complètement l'image qu'il projette, obtenir l'effet envisagé, réussissant à être perçu comme il le veut.

En fait, le personnage créé s'échappe toujours au contrôle, car l'impression produite sur les autres ne peut être anticipée rigoureusement, et son apparence n'est pas identique à l'intention qui a présidé lors de son modelage, mais c'est bien le résultat des perceptions extérieures, c'est une somme des impressions des autres sur le moi, “un effet de l'effet qu'il produit sur un grand nombre d'inconnus” (1965b, p. 562). C'est ça l'apparence qui avale l'être, et pas sa simple projection initiale, le calcul de l'individu étant toujours contredit ou du moins modifié par l'expérience du contact avec les autres. L'homme est obligé à se conformer à l'image qu'il se fait, de se replier toujours plus devant le personnage, le laissant occuper toute la scène et devenant toujours plus dépendant de lui: “Dans toute carrière publique, une fois que le bruit qu'il fait

revient à son auteur et lui enseigne qui il paraît celui-ci joue son personnage ou plutôt son personnage le joue, et ne le lâche plus” (1965a, p. 392). Le processus ne se termine qu'après le contourage définitif des limites de l'individualité, qu'après la fixation de toutes les nuances de la personnalité homologuée de point de vue social, définitivant ainsi sa génèse compliquée:

Même notre personne, en tant que nous en tenons compte, est une simulation. On finit par être plus soi qu'on ne l'a jamais été. On se voit d'un trait, dans un raccourci, et l'on prend pour soi-même l'effet des actions extérieures qui ont tiré de nous tous ces traits, qui nous font un portrait (1966b, p. 708).

Selon Valéry, si, en général, le conflit entre être et paraître n'engendre pas de grandes convulsions, l'être étant obligé de s'incliner devant l'apparence, d'en emprunter les traits jusqu'à devenir identique à elle, pour ce qui est des grands esprits, ce conflit est violent, opposant ce qu'il appelle “deux instincts capitaux de l'intelligence” (1965b, p. 562), à savoir, d'un côté, le penchant vers la séduction, vers l'obtention de l'admiration des autres, de la gloire, et, d'autre côté, la volupté d'être seul, de se sentir unique, incomparable, de ne dépendre que de soi-même. Les auteurs qui succombent à la première tentation entrent dans un univers de l'exhibition, de comparaisons, d'évaluations réciproques qui les transforment en des marionnettes de l'opinion, du goût publique, devenant ainsi incapables de garder leur indépendance, et étant obligés de s'adapter finalement à l'image qu'ils ont générée: “L'homme connu tend à ne plus être qu'une émanation de ce nombre indistinct d'inconnus, c'est-à-dire, une créature de l'opinion, un monstre absurde et public auquel le vrai homme peu à peu le cède et se conforme” (1965b, p. 562). Les autres, qui misent sur leur irréductibilité radicale, qui ne reconnaissent aucun rapprochement entre eux et le reste de l'humanité, éprouvant une véritable horreur à la pensée qu'ils pourraient appartenir à une espèce composée d'exemplaires qui semblent se répéter presqu'à l'infini, essaient de conserver l'impression de leur singularité par l'invention d'une oeuvre censée les séparer des autres pour de bon, construisant par son intermédiaire une véritable redoute qui les tienne à l'écart de la grande masse des mortels. Derrière cette obsession il y aurait, selon Valéry, justement la crainte de la mort, l'impuissance d'accepter l'identité essentielle entre eux et les autre hommes, entre eux et ceux dont la disparition quotidienne rend compte de l'omnipotence de la mort:

Refuser d'être semblable, refuser d'avoir des semblables, refuser l'être à ceux qui sont apparemment et raisonnablement nos semblables, c'est refuser d'être mortel, et vouloir aveuglement ne pas être de même essence que ces gens qui passent et fondent l'un après l'autre autour de nous (1965b, p. 563).

1 Voir Valéry, 1965a, p. 381: “Voici un homme qui se présente à vous comme rationaliste, froid, méthodique, etc. Nous allons supposer qu'il est tout le contraire, et que ce qu'il paraît est l'effet de sa réaction contre ce qu'il est”.

7574

Valéry ou la conquête de la forme Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 71-82

Toutefois, quelle que soit la direction que choisissent les grands esprits, quelle qu'en soit la motivation, le résultat est la création d'une oeuvre qui peut répondre soit à leur désir de gloire, de reconnaissance, soit à la volonté de séparation, de situation dans une zone de l'inaccessible et de l'incomparable, et cette oeuvre ne doit jamais être considérée une expression fidèle de leur nature, mais un produit de la simulation, une création nécessairement artificielle, qui n'a aucun rapport avec la vie, avec les accidents biographiques, avec la réalité de l'homme qui se trouve derrière. Pour Valéry, il est évident que l'oeuvre exprime non pas l'être de l'auteur, mais sa volonté de paraître, son art de soumettre le fortuit, d'éliminer l'accidentel, de construire obstinément une image sur sa propre pensée qui contredit visiblement sa vraie nature, toujours instable, inconstante, désordonnée, enclin au vague et à des jeux mentaux arbitraires.

Se présentant aux autres, le créateur brûle les étapes, cache les difficultés, ravale les contradictions qui lui ont hanté l'esprit, masque les intuitions initiales imprécises, proposant un édifice censé frapper par sa solidité, par sa clarté et par sa cohérence, laissant l'impression d'une intelligence sans fissure, maîtresse sur ses moyens d'expression et possédant une facilité à résoudre les difficultés qui exclut toute hésitation possible. Pour cette raison, la tentative de reconstitution de la personnalité de grands penseurs ayant comme point de départ unique leurs écrits “conduit à l'invention des monstres” (1965b, p. 817), tout comme la tentative d'expliquer l'oeuvre à travers d'épisodes biographiques est absolument inutile, révélant seulement nombre de manies, de détails sordides, de faiblesses purement humaines, misant précisément sur les éléments que l'auteur avait essayé de surmonter:

Mais le biographe les guette, qui se consacre à tirer cette grandeur qui les a signalés à son regard, de cette quantité de communes petitesses et de misères inévitables et universelles. Il compte les chaussettes, les maîtresses, les niaiseries de son sujet. Il fait, en somme, précisément l'inverse de ce qu'à voulu faire toute la vitalité de celui-ci, qui s'est dépensée contre ce que la vie impose de viles ou monotones similitudes à tous les organismes, et des diversions ou d'accidents improductifs à tous les esprits (1966c, p. 836).

Dans sa tentative de décrire le mécanisme de la création, Valéry part de la constatation qu'elle implique une attitude à l'antipode même du comportement naturel, une orientation antinaturelle, mais une attitude pareille “implique l'effort, la conscience de l'effort, l'intention, et donc l'artifice” (1965b, pp. 570-571). Pour arriver à l'excellence de la vision géniale, le créateur doit se détacher de la banalité du vécu nu, de son insignifiance manifeste, du véritable faux de la vie quotidienne, s'engageant dans un travail qui lui permet d'éliminer petit à petit la parasitation de l'anodin, arrivant à une image essentialisée, au

dégagement de la forme. L'atteinte du résultat, à savoir, la coagulation de l'oeuvre, a lieu uniquement après que l'auteur réussit à maîtriser l'impulsion initiale qui le pousse vers la création, la plaçant sous le contrôle de la raison qui est censée la corriger, la modérer et construire à partir d'elle, l'arrachant ainsi de son état brut et l'introduisant dans la machinerie du langage, la soumettant aux contraintes draconiennes de l'expression (1965c, p. 1205).

Du point de vue de Valéry, il est hors de doute que “le vrai à l'état brut est plus faux que le faux” (1965c, p. 1203), que la vérité factuelle, obtenue par la simple agglutination d'impressions éphémères, par la combinaison fortuite de données filtrées de façon arbitraire par les sens, par la restitution mécanique d'épisodes juxtaposés, impose une image partielle, appauvrie et privée de toute nécessité, dont l'acceptation signifierait la capitulation devant le hasard dépourvu de sens. La vérité ne s'obtient pas par un enregistrement passif des faits, par un enregistrement las de gestes et de formules, mais justement par la transformatiom de l'avalanche brutale des événements, par le dégagement de leur noyau significatif, par l'imposition triomphale de la forme. La vérité n'est pas donnée tout simplement, elle est une construction laborieuse, elle n'est pas quelque chose de saisissable tout de suite, mais le résultat d'un travail de durée de l'esprit, de sorte que son obtention se réalise grâce à la simulation, grâce à cette intervention de l'intention qui se trouve derrière toute création non-fortuite. Pour pouvoir exister, la vérité a besoin du faux, mais ce n'est pas pour s'imposer à son détriment, pour se détacher par rapport à son contraire, mais pour l'intégrer dans sa composition, pour aller au-delà de la banalité informe de la vérité factuelle: “Le vrai que l'on favorise se change par là insensiblement sous la plume dans le vrai qui est fait pour paraître vrai. Vérité et volonté de vérité forment ensemble un instable mélange où fermente une contradiction et d'où ne manque jamais à sortir une production falsifiée” (1965b, p. 570).

L'exemple le plus significatif selon Valéry est celui des auteurs de confessions ou bien de journaux, désireux d'impressionner leurs lecteurs par leur promesse de se présenter sans pitié sous le jour le plus conforme à la vérité de leur vie, par la création d'une attente de la révélation, du dévoilement des détails chocants ou bien exceptionnels. Mais puisqu'une personne réelle ne dispose d'une réserve trop significative de faits ou bien de gestes remarcables, car ses vécus sont, pour la plupart, anodins, ils sont en proie à la tension qu'ils ont suscitée et ils inventent un personnage conforme aux attentes du public, s'éloignant nécessairement de la platitude de la vérité:

on sait bien qu'une personne réelle n'a pas grand'chose à nous apprendre sur ce qu'elle est. On écrit donc les aveux de quelque autre plus remarquable, plus pur, plus noir, plus vif, plus sensible, et même plus soi qu'il n'est permis, car le soi a des degrés. Qui se confesse ment,

7776

Valéry ou la conquête de la forme Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 71-82

Toutefois, quelle que soit la direction que choisissent les grands esprits, quelle qu'en soit la motivation, le résultat est la création d'une oeuvre qui peut répondre soit à leur désir de gloire, de reconnaissance, soit à la volonté de séparation, de situation dans une zone de l'inaccessible et de l'incomparable, et cette oeuvre ne doit jamais être considérée une expression fidèle de leur nature, mais un produit de la simulation, une création nécessairement artificielle, qui n'a aucun rapport avec la vie, avec les accidents biographiques, avec la réalité de l'homme qui se trouve derrière. Pour Valéry, il est évident que l'oeuvre exprime non pas l'être de l'auteur, mais sa volonté de paraître, son art de soumettre le fortuit, d'éliminer l'accidentel, de construire obstinément une image sur sa propre pensée qui contredit visiblement sa vraie nature, toujours instable, inconstante, désordonnée, enclin au vague et à des jeux mentaux arbitraires.

Se présentant aux autres, le créateur brûle les étapes, cache les difficultés, ravale les contradictions qui lui ont hanté l'esprit, masque les intuitions initiales imprécises, proposant un édifice censé frapper par sa solidité, par sa clarté et par sa cohérence, laissant l'impression d'une intelligence sans fissure, maîtresse sur ses moyens d'expression et possédant une facilité à résoudre les difficultés qui exclut toute hésitation possible. Pour cette raison, la tentative de reconstitution de la personnalité de grands penseurs ayant comme point de départ unique leurs écrits “conduit à l'invention des monstres” (1965b, p. 817), tout comme la tentative d'expliquer l'oeuvre à travers d'épisodes biographiques est absolument inutile, révélant seulement nombre de manies, de détails sordides, de faiblesses purement humaines, misant précisément sur les éléments que l'auteur avait essayé de surmonter:

Mais le biographe les guette, qui se consacre à tirer cette grandeur qui les a signalés à son regard, de cette quantité de communes petitesses et de misères inévitables et universelles. Il compte les chaussettes, les maîtresses, les niaiseries de son sujet. Il fait, en somme, précisément l'inverse de ce qu'à voulu faire toute la vitalité de celui-ci, qui s'est dépensée contre ce que la vie impose de viles ou monotones similitudes à tous les organismes, et des diversions ou d'accidents improductifs à tous les esprits (1966c, p. 836).

Dans sa tentative de décrire le mécanisme de la création, Valéry part de la constatation qu'elle implique une attitude à l'antipode même du comportement naturel, une orientation antinaturelle, mais une attitude pareille “implique l'effort, la conscience de l'effort, l'intention, et donc l'artifice” (1965b, pp. 570-571). Pour arriver à l'excellence de la vision géniale, le créateur doit se détacher de la banalité du vécu nu, de son insignifiance manifeste, du véritable faux de la vie quotidienne, s'engageant dans un travail qui lui permet d'éliminer petit à petit la parasitation de l'anodin, arrivant à une image essentialisée, au

dégagement de la forme. L'atteinte du résultat, à savoir, la coagulation de l'oeuvre, a lieu uniquement après que l'auteur réussit à maîtriser l'impulsion initiale qui le pousse vers la création, la plaçant sous le contrôle de la raison qui est censée la corriger, la modérer et construire à partir d'elle, l'arrachant ainsi de son état brut et l'introduisant dans la machinerie du langage, la soumettant aux contraintes draconiennes de l'expression (1965c, p. 1205).

Du point de vue de Valéry, il est hors de doute que “le vrai à l'état brut est plus faux que le faux” (1965c, p. 1203), que la vérité factuelle, obtenue par la simple agglutination d'impressions éphémères, par la combinaison fortuite de données filtrées de façon arbitraire par les sens, par la restitution mécanique d'épisodes juxtaposés, impose une image partielle, appauvrie et privée de toute nécessité, dont l'acceptation signifierait la capitulation devant le hasard dépourvu de sens. La vérité ne s'obtient pas par un enregistrement passif des faits, par un enregistrement las de gestes et de formules, mais justement par la transformatiom de l'avalanche brutale des événements, par le dégagement de leur noyau significatif, par l'imposition triomphale de la forme. La vérité n'est pas donnée tout simplement, elle est une construction laborieuse, elle n'est pas quelque chose de saisissable tout de suite, mais le résultat d'un travail de durée de l'esprit, de sorte que son obtention se réalise grâce à la simulation, grâce à cette intervention de l'intention qui se trouve derrière toute création non-fortuite. Pour pouvoir exister, la vérité a besoin du faux, mais ce n'est pas pour s'imposer à son détriment, pour se détacher par rapport à son contraire, mais pour l'intégrer dans sa composition, pour aller au-delà de la banalité informe de la vérité factuelle: “Le vrai que l'on favorise se change par là insensiblement sous la plume dans le vrai qui est fait pour paraître vrai. Vérité et volonté de vérité forment ensemble un instable mélange où fermente une contradiction et d'où ne manque jamais à sortir une production falsifiée” (1965b, p. 570).

L'exemple le plus significatif selon Valéry est celui des auteurs de confessions ou bien de journaux, désireux d'impressionner leurs lecteurs par leur promesse de se présenter sans pitié sous le jour le plus conforme à la vérité de leur vie, par la création d'une attente de la révélation, du dévoilement des détails chocants ou bien exceptionnels. Mais puisqu'une personne réelle ne dispose d'une réserve trop significative de faits ou bien de gestes remarcables, car ses vécus sont, pour la plupart, anodins, ils sont en proie à la tension qu'ils ont suscitée et ils inventent un personnage conforme aux attentes du public, s'éloignant nécessairement de la platitude de la vérité:

on sait bien qu'une personne réelle n'a pas grand'chose à nous apprendre sur ce qu'elle est. On écrit donc les aveux de quelque autre plus remarquable, plus pur, plus noir, plus vif, plus sensible, et même plus soi qu'il n'est permis, car le soi a des degrés. Qui se confesse ment,

7776

Valéry ou la conquête de la forme Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 71-82

et fuit le véritable vrai, lequel est nul, ou informe, et, en général, indistinct (1965b, p. 571).

Valéry croit que le danger le plus important que doit affronter l'artiste est le danger de céder devant la pression des sentiments, de miser sur la transcription fidèle de ce qu'il éprouve, succombant ainsi fatalement devant une solution facile, tombant dans le piège de la banalité. Pour pouvoir proposer une oeuvre importante, il doit s'éloigner de tout ce qui n'est pas médié, il doit se servir de ses talents dans le but de travestir tout ce qu'il y a de naturel, surpassant les contraintes inexplicables des émotions et misant sur l'intercession de la raison. L'art est simulation, artifice, triomphe de l'intelligence contre l'insignifiance du quotidien, victoire de l'excentrique contre la réalité insipide du vécu ordinaire et c'est pourquoi il ne se retrouve pas dans les émotions nues, qui sont “aussi faibles que les hommes tout nus” (1966b, p. 546). Puisque notre âme est le pire penseur (1966b, p. 500), puisque “l'âme n'a pas d'esprit” (1965a, p. 377), le créateur est obligé de s'éloigner de ses enfants informes, de ses progénitures anostes, soit en les éliminant pour en éviter les éventuelles turbulences, soit en les contredisant et en les transformant conformément aux usages de l'intellect.

Privilégiant, dans la description du processus de la création, le modèle de la construction, du travail patient et lucide, Valéry tient à infirmer la thèse selon laquelle, pour produire une oeuvre importante, il faudrait nombre d'expériences spectaculaires qui produisent à leur tour de fortes impressions: “Je ne pense pas que les esprits puissants aient besoin de l'intensité des impressions. Elle leur est plutôt funeste, étant ceux qui de rien font quelque chose” (1966b, p. 497). Incapable de croire à la force du délire, aux vertus bénéfiques de l'absurde ou bien de l'incohérence, il est aussi un adversaire acharné de la notion d'inspiration, contre laquelle il lance des attaques dévastatrices, employant toute la virtuosité de son esprit caustique. Son argumentation suit, en gros, deux directions. Conformément à la première, l'acceptation de l'idée commune sur l'inspiration, selon laquelle l'oeuvre en entier pourrait être dictée à l'auteur par les caprices d'une divinité, mènerait à la conclusion qu'il est parfaitement possible que “l'inspiré” écrive dans une langue qu'il ne connaît point et sans tenir compte du contexte culturel du moment, des goûts littéraires de l'époque et des oeuvres de ses prédecesseurs. Mais, puisque cela n'arrive jamais, Valéry observe avec ironie que l'inspiration s'avère une force “si déliée, si articulée, si sagace, si informée et si claculatrice, qu'on ne saurait pourquoi ne pas l'appeler Intelligence et connaissance” (1966b, p. 628). La deuxième direction d'argumentation se concentre sur la constatation que, d'entre les innombrables impulsions de l'inspiration, un nombre extrêmement réduit d'impulsions peuvent être considérées importantes, la plupart étant de simpls déchets mentaux que l'on peut ignorer tout de suite, des rebouts arrivés par hasard à la lisière de la conscience, dépourvus de toute importance et de

toute finalité. Toutefois, même celles qui s'avèrent fécondes ne deviennent valeureuses que suite à la transformation, qu'après qu'il s'est exercé dessus l'activité laborieuse de l'intelligence:

l'esprit nous souffle sans vergogne un million de sottises pour une belle idée qu'il nous abandonne; et cette chance même ne vaudra finalmente quelque chose que par le traitement qui l'accommode à notre fin. C'est ainsi que les minerais, inappréciables dans leur gîtes et dans leurs filons, prennent leur importance au soleil, et par les travaux de la surface (1965c, p. 1208).

Pour Valéry, la distinction la plus importante entre un individu commun et un créateur peut être observée au niveau de leur activité mentale. Alors que le premier n'est pas capable et ne se préoccupe même point pour contrôler le désordre naturel de sa propre pensée, lui laissant la liberté du vagabondage intellectuel le plus complet, lui permettant de se consacrer au hasard aux divagations ou bien aux obsessions les plus étranges, opérant avec des bouts d'idées toujours à l'état de début, jamais continués ou bien systématisés, juxtaposés de façon alléatoire et dépourvus de coordination, incapables de s'agencer dans une vision globale cohérente, le second violente de façon programmatique les rythmes naturels de l'esprit, lui imposant de force nombre de règles et de contraintes qui limitent drastiquement sa liberté, l'obligeant à tendre vers l'ordre, en développant sa capacité considérée extrêmement rare “de coordonnner, d'harmoniser, d'orchestrer un grand nombre de parties” (1966a, p. 261).

Le résultat de cette difficile opération disciplinaire est l'obtention, par un effort systématique, veillé grâce à une concentration intense, d'une configuration mentale favorable à une construction intelligible, à une mise ensemble des idées en fonction de leurs affinités d'ordre interne, de sorte que ces idées s'organisent et s'imposent à la conscience, qu'elles deviennent perceptibles en tant que formations psychiques qui ont acquis leur indépendance par rapport aux accidents spirituels “perdus dans les statistiques de la vie locale du cerveau” (1965c, p. 1208). Même s'il est parfaitement conscient du caractère imprévisible de la naissance des idées, même s'il reconnaît que penser ressemble le plus

2souvent à une tentative de consultation des esprits et que l'intelligence peut 3être comparée à un jeu de la fortune , Valéry insiste sur la prépondérence du

2 Valéry, 1966c, p. 795 : “Je réfléchis…Est-ce là chose bien différente de cette pratique qui consistait (et consiste toujours) à consulter les <esprits>?Attendre devant une table, un jeu de cartes, une idole, ou une dormante et gémissante pythie, ou bien devant ce qu'on nomme <soi-même>…”.3 Valéry, 1966c, p. 870: “L'intelligence.. c'est d'avoir la chance dans le jeu des associations et des souvenirs à-propos. Un homme d'esprit, (lato et stricto senso), est un homme qui a de bonnes séries. Gagne souvent. On ne sait porquoi. Il ne sait pourquoi”.

7978

Valéry ou la conquête de la forme Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 71-82

et fuit le véritable vrai, lequel est nul, ou informe, et, en général, indistinct (1965b, p. 571).

Valéry croit que le danger le plus important que doit affronter l'artiste est le danger de céder devant la pression des sentiments, de miser sur la transcription fidèle de ce qu'il éprouve, succombant ainsi fatalement devant une solution facile, tombant dans le piège de la banalité. Pour pouvoir proposer une oeuvre importante, il doit s'éloigner de tout ce qui n'est pas médié, il doit se servir de ses talents dans le but de travestir tout ce qu'il y a de naturel, surpassant les contraintes inexplicables des émotions et misant sur l'intercession de la raison. L'art est simulation, artifice, triomphe de l'intelligence contre l'insignifiance du quotidien, victoire de l'excentrique contre la réalité insipide du vécu ordinaire et c'est pourquoi il ne se retrouve pas dans les émotions nues, qui sont “aussi faibles que les hommes tout nus” (1966b, p. 546). Puisque notre âme est le pire penseur (1966b, p. 500), puisque “l'âme n'a pas d'esprit” (1965a, p. 377), le créateur est obligé de s'éloigner de ses enfants informes, de ses progénitures anostes, soit en les éliminant pour en éviter les éventuelles turbulences, soit en les contredisant et en les transformant conformément aux usages de l'intellect.

Privilégiant, dans la description du processus de la création, le modèle de la construction, du travail patient et lucide, Valéry tient à infirmer la thèse selon laquelle, pour produire une oeuvre importante, il faudrait nombre d'expériences spectaculaires qui produisent à leur tour de fortes impressions: “Je ne pense pas que les esprits puissants aient besoin de l'intensité des impressions. Elle leur est plutôt funeste, étant ceux qui de rien font quelque chose” (1966b, p. 497). Incapable de croire à la force du délire, aux vertus bénéfiques de l'absurde ou bien de l'incohérence, il est aussi un adversaire acharné de la notion d'inspiration, contre laquelle il lance des attaques dévastatrices, employant toute la virtuosité de son esprit caustique. Son argumentation suit, en gros, deux directions. Conformément à la première, l'acceptation de l'idée commune sur l'inspiration, selon laquelle l'oeuvre en entier pourrait être dictée à l'auteur par les caprices d'une divinité, mènerait à la conclusion qu'il est parfaitement possible que “l'inspiré” écrive dans une langue qu'il ne connaît point et sans tenir compte du contexte culturel du moment, des goûts littéraires de l'époque et des oeuvres de ses prédecesseurs. Mais, puisque cela n'arrive jamais, Valéry observe avec ironie que l'inspiration s'avère une force “si déliée, si articulée, si sagace, si informée et si claculatrice, qu'on ne saurait pourquoi ne pas l'appeler Intelligence et connaissance” (1966b, p. 628). La deuxième direction d'argumentation se concentre sur la constatation que, d'entre les innombrables impulsions de l'inspiration, un nombre extrêmement réduit d'impulsions peuvent être considérées importantes, la plupart étant de simpls déchets mentaux que l'on peut ignorer tout de suite, des rebouts arrivés par hasard à la lisière de la conscience, dépourvus de toute importance et de

toute finalité. Toutefois, même celles qui s'avèrent fécondes ne deviennent valeureuses que suite à la transformation, qu'après qu'il s'est exercé dessus l'activité laborieuse de l'intelligence:

l'esprit nous souffle sans vergogne un million de sottises pour une belle idée qu'il nous abandonne; et cette chance même ne vaudra finalmente quelque chose que par le traitement qui l'accommode à notre fin. C'est ainsi que les minerais, inappréciables dans leur gîtes et dans leurs filons, prennent leur importance au soleil, et par les travaux de la surface (1965c, p. 1208).

Pour Valéry, la distinction la plus importante entre un individu commun et un créateur peut être observée au niveau de leur activité mentale. Alors que le premier n'est pas capable et ne se préoccupe même point pour contrôler le désordre naturel de sa propre pensée, lui laissant la liberté du vagabondage intellectuel le plus complet, lui permettant de se consacrer au hasard aux divagations ou bien aux obsessions les plus étranges, opérant avec des bouts d'idées toujours à l'état de début, jamais continués ou bien systématisés, juxtaposés de façon alléatoire et dépourvus de coordination, incapables de s'agencer dans une vision globale cohérente, le second violente de façon programmatique les rythmes naturels de l'esprit, lui imposant de force nombre de règles et de contraintes qui limitent drastiquement sa liberté, l'obligeant à tendre vers l'ordre, en développant sa capacité considérée extrêmement rare “de coordonnner, d'harmoniser, d'orchestrer un grand nombre de parties” (1966a, p. 261).

Le résultat de cette difficile opération disciplinaire est l'obtention, par un effort systématique, veillé grâce à une concentration intense, d'une configuration mentale favorable à une construction intelligible, à une mise ensemble des idées en fonction de leurs affinités d'ordre interne, de sorte que ces idées s'organisent et s'imposent à la conscience, qu'elles deviennent perceptibles en tant que formations psychiques qui ont acquis leur indépendance par rapport aux accidents spirituels “perdus dans les statistiques de la vie locale du cerveau” (1965c, p. 1208). Même s'il est parfaitement conscient du caractère imprévisible de la naissance des idées, même s'il reconnaît que penser ressemble le plus

2souvent à une tentative de consultation des esprits et que l'intelligence peut 3être comparée à un jeu de la fortune , Valéry insiste sur la prépondérence du

2 Valéry, 1966c, p. 795 : “Je réfléchis…Est-ce là chose bien différente de cette pratique qui consistait (et consiste toujours) à consulter les <esprits>?Attendre devant une table, un jeu de cartes, une idole, ou une dormante et gémissante pythie, ou bien devant ce qu'on nomme <soi-même>…”.3 Valéry, 1966c, p. 870: “L'intelligence.. c'est d'avoir la chance dans le jeu des associations et des souvenirs à-propos. Un homme d'esprit, (lato et stricto senso), est un homme qui a de bonnes séries. Gagne souvent. On ne sait porquoi. Il ne sait pourquoi”.

7978

Valéry ou la conquête de la forme Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 71-82

travail conscient, discipliné, lucide dans la configuration d'une oeuvre. Sans nier qu'il y ait des jours “avec des idées”, des jours où les idées “tout à coup naissent des moindres occasions, c'est-à-dire de RIEN” (1965a, p. 313), il met l'accent sur la réceptivité de l'esprit devant celles-ci, sur les opérations complexes à la suite desquelles il échaffaude tout un engrenage qui reprend le germe de l'impulsion reçue, lui assurant les conditions de développement, créant le milieu propice à la véritable éclosion de la pensée, à la réalisation des connexions qui permettent sa mise en valeur. Mais, à la différence des partisans de l'inspiration, à la différence de ceux qui célébrent le moment où naît l'idée, Valéry privilégie la fin du processus, l'apparition de la pensée nette, précise, inscrite dans une constellation productive, capable de générer d'autres idées et de nourrir une vision systématique. Pour lui, à la limite, toute perception peut être utile, toute impulsion extérieure peut être valorifiée, l'essentiel étant la mise en marche de la machinerie de l'esprit, le saisissement de cette excitation fortuite et sa transformation en quelque chose d'utile grâce à la capacité de transformation de l'intellect, grâce à son immense capacité de planification et de calcul, grâce à sa dimension d'ingénieur (1965c, p. 1205).

C'est pourquoi il est tout à fait légitime d'utiliser l'oeuvre d'autres écrivains comme appui du développement de sa propre vision, l'utilisation de l'inspiration qu'une pensée étrangère peut offrir, car la matière brute obtenue au bout d'une telle fréquentation est passée par le filtre de l'esprit, pour nourrir l'apparition de la pensée même, pour en faciliter la mise en évidence. À l'égal des sensations, des perceptions et des bouts d'idées sur lesquels s'exerce l'action de l'esprit, les influences d'autres créateurs servent uniquement de point de départ, de facteur déclenchant le déroulement du travail de l'intelligence, épargnant une série d'énergies qui pourront être utilisées ainsi dans l'étape finale de la construction. Selon Valéry, il y a une série de livres qui

me sont des aliments dont la substance se changera dans la mienne. Ma nature propre y puisera des formes de parler ou de penser ; ou bien des ressources définies et des réponses toutes faites: il faut bien emprunter les résultats des expériences des autres et nous accroître de ce qu'ils ont vu et que nous n'avons pas vu (1966b, p. 483).

La métaphore de la digestion semble à Valéry la plus propre pour décrire la manière dont un auteur reçoit l'influence d'autres esprits. Convaincu de ce que l'exigence de l'originalité est un simple préjugé, une question de mode, l'obsession de gens qui font ainsi la preuve de leur esprit mimétique par rapport

4a ceux qui leur ont fait croire à une telle idée , que “Ce qui ne ressemble à rien

n'existe pas” (1966c, p. 878), il affirme que la différence entre un plagiaire et un créateur ne peut pas être constatée en partant de leurs sources, qui peuvent être identiques assez souvent, mais à travers l'analyse des résultats auxquels ils aboutissent, par l'examen de leur manière de laisser leur empreinte sur les matériels empruntés, les rendant tels quels, ou bien, au contraire, les incorporant de façon organique dans leur propre vision et les rendant ainsi inconnaissables:

Plagiaire est celui qui a mal digéré la substance des autres: il en rend les morceaux reconnaissables.L'originalité, affaire d'estomac.Il n'y a pas d'écrivains originaux, car ceux qui mériteraient ce nom sont inconnus; et même inconnaissables.Mais il en est qui font figure de l'être (1966c, p. 677).

L'atteinte de la perfection est une opération laborieuse, un épisode privilégié de l'épopée quasi-infinie de la simulation, qui implique le placement à distance égale par rapport à la spontanéité pure, à l'arbitraire insignifiant, sur lequel doivent se pencher les facultés constructives de l'esprit, s'adonnant à un travesti heureux de l'impulsion initiale, aussi bien que par rapport à la production complètement volontaire, sans charme, encore empreinte des difficultés du travail, laquelle production est vouée à un remaniement profond qui est censé éloigner tous les signes visibles de l'effort, éliminer les indices visibles du calcul, du projet, du conscient, faisant qu'il ait l'air naturel (1966b, p. 591). La réussite d'une telle entreprise dépend en grande partie d'un traitement juste appliqué aux mots, de leur examen rigoureux, de leur pesée attentive, de leur emploi selon les exigences d'une lucidité sans concessions aux habitudes du sens commun ou bien à toute forme d'inertie mentale, car beaucoup d'entre eux, banalisés et vidés de tout contenu, sont contreindiqués: “Nous les avons appris ; nous les répétons, nous croyons qu'ils ont un sens… utilisable; mais ce sont des créations statistiques; et par conséquent, des éléments qui ne peuvent entrer sans contrôle dans une construction ou opération exacte de l'esprit, qu'ils ne la rendent vaine ou illusoire” (1966a, p. 238).

Tout comme dans le cas de la cristallistaion de la personnalité des individus, qui a lieu au bout d'un long processus de simulation, de dissimulation et d'intégration des traits validés par les mécanismes d'enregistrement de la société, dans le cas de la création il faut une certaine constance de la manière de procéder du créateur, de façon à aboutir à la construction d'une oeuvre, à ce que Valéry considère “une entreprise contre la mobilité, l'inconstance de l'esprit, de la vigueur et de l'humeur” (1966b, p. 632). Or, pour réussir dans cette tentative, l'artiste doit savoir s'imiter lui-même, assurer la continuité de son style, utiliser comme modèle ses productions les plus remarcables, s'efforçant de prolonger

4 Valéry, 1966c, p. 631 : “Il est des gens, j'en ai connu, qui veulent préserver leur <originalité>. Ils imitent par là. Ils obéissent à ceux qui les ont fait croire à la valeur de <l'originalité>”.

8180

Valéry ou la conquête de la forme Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 71-82

travail conscient, discipliné, lucide dans la configuration d'une oeuvre. Sans nier qu'il y ait des jours “avec des idées”, des jours où les idées “tout à coup naissent des moindres occasions, c'est-à-dire de RIEN” (1965a, p. 313), il met l'accent sur la réceptivité de l'esprit devant celles-ci, sur les opérations complexes à la suite desquelles il échaffaude tout un engrenage qui reprend le germe de l'impulsion reçue, lui assurant les conditions de développement, créant le milieu propice à la véritable éclosion de la pensée, à la réalisation des connexions qui permettent sa mise en valeur. Mais, à la différence des partisans de l'inspiration, à la différence de ceux qui célébrent le moment où naît l'idée, Valéry privilégie la fin du processus, l'apparition de la pensée nette, précise, inscrite dans une constellation productive, capable de générer d'autres idées et de nourrir une vision systématique. Pour lui, à la limite, toute perception peut être utile, toute impulsion extérieure peut être valorifiée, l'essentiel étant la mise en marche de la machinerie de l'esprit, le saisissement de cette excitation fortuite et sa transformation en quelque chose d'utile grâce à la capacité de transformation de l'intellect, grâce à son immense capacité de planification et de calcul, grâce à sa dimension d'ingénieur (1965c, p. 1205).

C'est pourquoi il est tout à fait légitime d'utiliser l'oeuvre d'autres écrivains comme appui du développement de sa propre vision, l'utilisation de l'inspiration qu'une pensée étrangère peut offrir, car la matière brute obtenue au bout d'une telle fréquentation est passée par le filtre de l'esprit, pour nourrir l'apparition de la pensée même, pour en faciliter la mise en évidence. À l'égal des sensations, des perceptions et des bouts d'idées sur lesquels s'exerce l'action de l'esprit, les influences d'autres créateurs servent uniquement de point de départ, de facteur déclenchant le déroulement du travail de l'intelligence, épargnant une série d'énergies qui pourront être utilisées ainsi dans l'étape finale de la construction. Selon Valéry, il y a une série de livres qui

me sont des aliments dont la substance se changera dans la mienne. Ma nature propre y puisera des formes de parler ou de penser ; ou bien des ressources définies et des réponses toutes faites: il faut bien emprunter les résultats des expériences des autres et nous accroître de ce qu'ils ont vu et que nous n'avons pas vu (1966b, p. 483).

La métaphore de la digestion semble à Valéry la plus propre pour décrire la manière dont un auteur reçoit l'influence d'autres esprits. Convaincu de ce que l'exigence de l'originalité est un simple préjugé, une question de mode, l'obsession de gens qui font ainsi la preuve de leur esprit mimétique par rapport

4a ceux qui leur ont fait croire à une telle idée , que “Ce qui ne ressemble à rien

n'existe pas” (1966c, p. 878), il affirme que la différence entre un plagiaire et un créateur ne peut pas être constatée en partant de leurs sources, qui peuvent être identiques assez souvent, mais à travers l'analyse des résultats auxquels ils aboutissent, par l'examen de leur manière de laisser leur empreinte sur les matériels empruntés, les rendant tels quels, ou bien, au contraire, les incorporant de façon organique dans leur propre vision et les rendant ainsi inconnaissables:

Plagiaire est celui qui a mal digéré la substance des autres: il en rend les morceaux reconnaissables.L'originalité, affaire d'estomac.Il n'y a pas d'écrivains originaux, car ceux qui mériteraient ce nom sont inconnus; et même inconnaissables.Mais il en est qui font figure de l'être (1966c, p. 677).

L'atteinte de la perfection est une opération laborieuse, un épisode privilégié de l'épopée quasi-infinie de la simulation, qui implique le placement à distance égale par rapport à la spontanéité pure, à l'arbitraire insignifiant, sur lequel doivent se pencher les facultés constructives de l'esprit, s'adonnant à un travesti heureux de l'impulsion initiale, aussi bien que par rapport à la production complètement volontaire, sans charme, encore empreinte des difficultés du travail, laquelle production est vouée à un remaniement profond qui est censé éloigner tous les signes visibles de l'effort, éliminer les indices visibles du calcul, du projet, du conscient, faisant qu'il ait l'air naturel (1966b, p. 591). La réussite d'une telle entreprise dépend en grande partie d'un traitement juste appliqué aux mots, de leur examen rigoureux, de leur pesée attentive, de leur emploi selon les exigences d'une lucidité sans concessions aux habitudes du sens commun ou bien à toute forme d'inertie mentale, car beaucoup d'entre eux, banalisés et vidés de tout contenu, sont contreindiqués: “Nous les avons appris ; nous les répétons, nous croyons qu'ils ont un sens… utilisable; mais ce sont des créations statistiques; et par conséquent, des éléments qui ne peuvent entrer sans contrôle dans une construction ou opération exacte de l'esprit, qu'ils ne la rendent vaine ou illusoire” (1966a, p. 238).

Tout comme dans le cas de la cristallistaion de la personnalité des individus, qui a lieu au bout d'un long processus de simulation, de dissimulation et d'intégration des traits validés par les mécanismes d'enregistrement de la société, dans le cas de la création il faut une certaine constance de la manière de procéder du créateur, de façon à aboutir à la construction d'une oeuvre, à ce que Valéry considère “une entreprise contre la mobilité, l'inconstance de l'esprit, de la vigueur et de l'humeur” (1966b, p. 632). Or, pour réussir dans cette tentative, l'artiste doit savoir s'imiter lui-même, assurer la continuité de son style, utiliser comme modèle ses productions les plus remarcables, s'efforçant de prolonger

4 Valéry, 1966c, p. 631 : “Il est des gens, j'en ai connu, qui veulent préserver leur <originalité>. Ils imitent par là. Ils obéissent à ceux qui les ont fait croire à la valeur de <l'originalité>”.

8180

Valéry ou la conquête de la forme Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 71-82

leur éclat et d'assurer leur intégration dans une vision systématique, éliminant tout doute lié à leur possible naissance accidentelle, à leur apparition grâce au hasard, imposant l'impression d'une démarche consciente et contrôlée avec virtuosité jusqu'au bout (1966b, pp. 633-634), contribuant ainsi décissivement au triomphe absolu de son désir de paraître au détriment de l'être. Observant l'existence d'une tendance toujours plus forte d'obtenir par l'intermédiaire de l'oeuvre non nécessairement un certain effet esthétique, mais surtout la reconnaissance envers son auteur, Valéry observe avec malitie: “Si une loi de l'État obligeait à l'anonymat et que rien ne pût paraître sous un nom, la littérature en serait toute changée, - en supposant qu'elle y survécût” (1966c, p. 805).

Bibliographie

Valéry, P. (1966a). L'idée fixe in P. Valéry Oeuvres, II, Paris: Gallimard.Valéry, P. (1966b). Tel quel in P. Valéry Oeuvres, II, Paris: Gallimard.Valéry, P. (1966c). Mauvaises pensées et autres in P. Valéry Oeuvres, II, Paris: Gallimard.Valéry, P. (1965a). Mélange in P. Valéry Oeuvres, I, Paris: Gallimard. Valéry, P. (1965b). Variété in P. Valéry Oeuvres, I, Paris: Gallimard.Valéry, P. (1965c), Introduction à la Méthode de Léonard de Vinci in P. Valéry Oeuvres, I, Paris: Gallimard.

Coagulación: sistema biológico complejo

Mónica Duarte*

Resumen

Este artículo se propone hacer un recorrido histórico y científico sobre la idea de coagulación, utilizando conceptos disciplinares de la biología, la filosofía y la historia. Se concibe la coagulación como un “sistema” que se ha construido idealmente desde la antigüedad, con el aporte de W Harvey en el siglo XVIII, la aparición de la biología y se concreta idealmente en el siglo XX, con representaciones científicas como la “cascada”, el modelo de coagulación basado en la célula y el “sistema complejo”.

Palabras clave: coagulación, circulación, sangre, sistema, biología, cascada.

Abstract

The goal of this article is to make an historical and scientific journey through the idea of coagulation, using disciplinary concepts from Biology, Philosophy and History. Coagulation is conceived as a “system” that has been ideally constructed from antiquity, through W. Harvey's contribution in the XVIII century and the emergence of Biology, to its concretion in the XX century, thanks to scientific representations such as the “cascade”, the cell-based model of coagulation, and the “complex system”.

Key Words: coagulation, circulation, blood, system, biology, cascade.

* Médica de la Universidad El Bosque (Bogotá), Especialista en Hematología de la Universidad Réné Descartes (París) y Especialista en Filosofía de la Ciencia de la Universidad El Bosque (Bogotá).

8382

Valéry ou la conquête de la forme Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 83-95

leur éclat et d'assurer leur intégration dans une vision systématique, éliminant tout doute lié à leur possible naissance accidentelle, à leur apparition grâce au hasard, imposant l'impression d'une démarche consciente et contrôlée avec virtuosité jusqu'au bout (1966b, pp. 633-634), contribuant ainsi décissivement au triomphe absolu de son désir de paraître au détriment de l'être. Observant l'existence d'une tendance toujours plus forte d'obtenir par l'intermédiaire de l'oeuvre non nécessairement un certain effet esthétique, mais surtout la reconnaissance envers son auteur, Valéry observe avec malitie: “Si une loi de l'État obligeait à l'anonymat et que rien ne pût paraître sous un nom, la littérature en serait toute changée, - en supposant qu'elle y survécût” (1966c, p. 805).

Bibliographie

Valéry, P. (1966a). L'idée fixe in P. Valéry Oeuvres, II, Paris: Gallimard.Valéry, P. (1966b). Tel quel in P. Valéry Oeuvres, II, Paris: Gallimard.Valéry, P. (1966c). Mauvaises pensées et autres in P. Valéry Oeuvres, II, Paris: Gallimard.Valéry, P. (1965a). Mélange in P. Valéry Oeuvres, I, Paris: Gallimard. Valéry, P. (1965b). Variété in P. Valéry Oeuvres, I, Paris: Gallimard.Valéry, P. (1965c), Introduction à la Méthode de Léonard de Vinci in P. Valéry Oeuvres, I, Paris: Gallimard.

Coagulación: sistema biológico complejo

Mónica Duarte*

Resumen

Este artículo se propone hacer un recorrido histórico y científico sobre la idea de coagulación, utilizando conceptos disciplinares de la biología, la filosofía y la historia. Se concibe la coagulación como un “sistema” que se ha construido idealmente desde la antigüedad, con el aporte de W Harvey en el siglo XVIII, la aparición de la biología y se concreta idealmente en el siglo XX, con representaciones científicas como la “cascada”, el modelo de coagulación basado en la célula y el “sistema complejo”.

Palabras clave: coagulación, circulación, sangre, sistema, biología, cascada.

Abstract

The goal of this article is to make an historical and scientific journey through the idea of coagulation, using disciplinary concepts from Biology, Philosophy and History. Coagulation is conceived as a “system” that has been ideally constructed from antiquity, through W. Harvey's contribution in the XVIII century and the emergence of Biology, to its concretion in the XX century, thanks to scientific representations such as the “cascade”, the cell-based model of coagulation, and the “complex system”.

Key Words: coagulation, circulation, blood, system, biology, cascade.

* Médica de la Universidad El Bosque (Bogotá), Especialista en Hematología de la Universidad Réné Descartes (París) y Especialista en Filosofía de la Ciencia de la Universidad El Bosque (Bogotá).

8382

Valéry ou la conquête de la forme Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 83-95

Introducción

El conocimiento del sistema de coagulación ha tenido un proceso de desarrollo muy fragmentado en la historia de la Medicina; esto podría deberse a la gran variabilidad de los conceptos fundamentales del pensamiento científico básico en Medicina y específicamente en el área de hematología, a través de las diferentes épocas. Por otra parte, se trata de un sistema complejo con múltiples interacciones funcionales y anatómicas con grandes dificultades para la comprensión precisa de sus conceptos fisiológicos.

Desde tiempos muy primitivos el hombre reconoce la importancia de la sangre como elemento vital y esencia de la supervivencia, discriminando las posibilidades de “control” del sangrado para cada individuo, según el sitio de la herida y del área anatómicamente comprometida. La preocupación inicial del ser humano se encontraba en la explicación del origen de la sangre como esencia de la vida. Para Aristóteles e Hipócrates, el papel del corazón es esencial en el movimiento y en las características de la sangre.

Posteriormente es el tipo de flujo y movimiento de la sangre, los que ocupan un primer plano, surgiendo del concepto de circulación atribuido a William Harvey pero ya descrito por Miguel Server previamente. Este concepto de circulación permite el desarrollo de una explicación no solamente de tipo vitalista sino una explicación “mecánica” del fenómeno en una época en la que todas las explicaciones a los diferentes fenómenos naturales, físicos, biológicos o químicos, tienen un soporte de tipo mecanicista, muy satisfactorio para el momento.

Pero solo hasta el siglo XIX la coagulación pasa a ser un elemento importante en el desarrollo de enfermedades como la enfermedad tromboembólica o los fenómenos de trombosis observados en pacientes y autopsias. Ya se integra el concepto de coagulación a diferentes trastornos fisiopatológicos que explican enfermedades y complicaciones en ocasiones fatales. Se integran los diferentes elementos: sangre, coagulación, trombosis.

Es así como Virchow en 1854 describe la triada que explica el balance entre los diferentes aspectos de la coagulación para mantener un equilibrio entre el sangrado y la formación de trombos. Aparecen tres elementos básicos en el control de la coagulación: el f lujo sanguíneo, la coagulación per se y el endotelio vascular. El equilibrio dependerá de como participan cada uno de estos tres elementos en ese balance y de cómo la alteración de uno ò mas de estos componentes va a convertirse en un fenómeno fisiopatológico necesario para mantener un estado “normal” como respuesta a un estímulo o llegar a constituir una enfermedad.

El mayor paso científico en el área de la coagulación se da en los años sesenta, también conocida como la “etapa de oro”; por la descripción del modelo de la coagulación basado en enzimas proteolíticas que actúan como un proceso secuencial y en cierta forma amplificador, a partir de factores desencadenantes iniciales, cuyo objetivo primordial es la formación de la fibrina como producto final para generar la formación del coágulo. Este modelo clásico de la coagulación conocido como la cascada de la coagulación ha permanecido vigente por cuatro décadas y aunque explica globalmente la coagulación, no satisface la comprensión de todos los fenómenos clínicos que constatamos; en particular, en patologías congénitas de la coagulación, donde claramente hay un trastorno reconocido a un nivel específico de la cascada y que no concuerda con el comportamiento clínico esperado.

Esta disparidad entre los hallazgos biológicos de la coagulación y la realidad clínica, obliga a buscar nuevos elementos que hasta el momento no se hayan tenido en cuenta en la explicación del proceso y que puedan integrar mecanismos que expliquen los sucesos reales. La participación de algunos de los elementos del “ambiente sanguíneo” no habían sido incluidos como actores del proceso, especialmente las células que participan in vivo, como las plaquetas y las células mononucleares. Surge así el nuevo modelo de la coagulación basado en la célula, que pretende lograr una mayor comprensión del comportamiento real de la coagulación y aunque aún falta mucho trabajo en esta área de la Medicina para poder manipular las condiciones de la coagulación y controlar procesos fisiológicos y patológicos que dependen de este fenómeno o se correlacionan con este (coagulación misma; anticoagulación; respuesta inflamatoria, complemento, regulación endotelial), ya hay una mayor amplitud de perspectiva en la identificación de los fenómenos clínicos.

Estos cambios de pensamiento se correlacionan muy estrechamente con los conceptos flexibles y dinámicos que se vienen profundizando en la física: la teoría de los sistemas dinámicos complejos, que se extiende a todas las ciencias.

Historia de la coagulación y pensamiento científico

El fantástico misterio de la coagulación ha generado mucho interés por parte de filósofos y científicos a través de la historia. El sorprendente fenómeno de transformación de la sangre de líquida a sólida en tan poco tiempo siempre ha maravillado los observadores y es por esta razón que surgen diversas teorías que pretenden explicarlo a través de la historia: la teoría del enfriamiento, la teoría del contacto del aire, la teoría de la detención del movimiento de la sangre y la teoría de la pérdida de la fuerza vital, la explicación bioquímica, la cascada clásica de la coagulación y el modelo de la coagulación basado en la célula en nuestros días.

8584

Coagulación: sistema biológico complejo Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 83-95

Introducción

El conocimiento del sistema de coagulación ha tenido un proceso de desarrollo muy fragmentado en la historia de la Medicina; esto podría deberse a la gran variabilidad de los conceptos fundamentales del pensamiento científico básico en Medicina y específicamente en el área de hematología, a través de las diferentes épocas. Por otra parte, se trata de un sistema complejo con múltiples interacciones funcionales y anatómicas con grandes dificultades para la comprensión precisa de sus conceptos fisiológicos.

Desde tiempos muy primitivos el hombre reconoce la importancia de la sangre como elemento vital y esencia de la supervivencia, discriminando las posibilidades de “control” del sangrado para cada individuo, según el sitio de la herida y del área anatómicamente comprometida. La preocupación inicial del ser humano se encontraba en la explicación del origen de la sangre como esencia de la vida. Para Aristóteles e Hipócrates, el papel del corazón es esencial en el movimiento y en las características de la sangre.

Posteriormente es el tipo de flujo y movimiento de la sangre, los que ocupan un primer plano, surgiendo del concepto de circulación atribuido a William Harvey pero ya descrito por Miguel Server previamente. Este concepto de circulación permite el desarrollo de una explicación no solamente de tipo vitalista sino una explicación “mecánica” del fenómeno en una época en la que todas las explicaciones a los diferentes fenómenos naturales, físicos, biológicos o químicos, tienen un soporte de tipo mecanicista, muy satisfactorio para el momento.

Pero solo hasta el siglo XIX la coagulación pasa a ser un elemento importante en el desarrollo de enfermedades como la enfermedad tromboembólica o los fenómenos de trombosis observados en pacientes y autopsias. Ya se integra el concepto de coagulación a diferentes trastornos fisiopatológicos que explican enfermedades y complicaciones en ocasiones fatales. Se integran los diferentes elementos: sangre, coagulación, trombosis.

Es así como Virchow en 1854 describe la triada que explica el balance entre los diferentes aspectos de la coagulación para mantener un equilibrio entre el sangrado y la formación de trombos. Aparecen tres elementos básicos en el control de la coagulación: el f lujo sanguíneo, la coagulación per se y el endotelio vascular. El equilibrio dependerá de como participan cada uno de estos tres elementos en ese balance y de cómo la alteración de uno ò mas de estos componentes va a convertirse en un fenómeno fisiopatológico necesario para mantener un estado “normal” como respuesta a un estímulo o llegar a constituir una enfermedad.

El mayor paso científico en el área de la coagulación se da en los años sesenta, también conocida como la “etapa de oro”; por la descripción del modelo de la coagulación basado en enzimas proteolíticas que actúan como un proceso secuencial y en cierta forma amplificador, a partir de factores desencadenantes iniciales, cuyo objetivo primordial es la formación de la fibrina como producto final para generar la formación del coágulo. Este modelo clásico de la coagulación conocido como la cascada de la coagulación ha permanecido vigente por cuatro décadas y aunque explica globalmente la coagulación, no satisface la comprensión de todos los fenómenos clínicos que constatamos; en particular, en patologías congénitas de la coagulación, donde claramente hay un trastorno reconocido a un nivel específico de la cascada y que no concuerda con el comportamiento clínico esperado.

Esta disparidad entre los hallazgos biológicos de la coagulación y la realidad clínica, obliga a buscar nuevos elementos que hasta el momento no se hayan tenido en cuenta en la explicación del proceso y que puedan integrar mecanismos que expliquen los sucesos reales. La participación de algunos de los elementos del “ambiente sanguíneo” no habían sido incluidos como actores del proceso, especialmente las células que participan in vivo, como las plaquetas y las células mononucleares. Surge así el nuevo modelo de la coagulación basado en la célula, que pretende lograr una mayor comprensión del comportamiento real de la coagulación y aunque aún falta mucho trabajo en esta área de la Medicina para poder manipular las condiciones de la coagulación y controlar procesos fisiológicos y patológicos que dependen de este fenómeno o se correlacionan con este (coagulación misma; anticoagulación; respuesta inflamatoria, complemento, regulación endotelial), ya hay una mayor amplitud de perspectiva en la identificación de los fenómenos clínicos.

Estos cambios de pensamiento se correlacionan muy estrechamente con los conceptos flexibles y dinámicos que se vienen profundizando en la física: la teoría de los sistemas dinámicos complejos, que se extiende a todas las ciencias.

Historia de la coagulación y pensamiento científico

El fantástico misterio de la coagulación ha generado mucho interés por parte de filósofos y científicos a través de la historia. El sorprendente fenómeno de transformación de la sangre de líquida a sólida en tan poco tiempo siempre ha maravillado los observadores y es por esta razón que surgen diversas teorías que pretenden explicarlo a través de la historia: la teoría del enfriamiento, la teoría del contacto del aire, la teoría de la detención del movimiento de la sangre y la teoría de la pérdida de la fuerza vital, la explicación bioquímica, la cascada clásica de la coagulación y el modelo de la coagulación basado en la célula en nuestros días.

8584

Coagulación: sistema biológico complejo Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 83-95

En épocas antiguas la preocupación del ser humano residía en la explicación del origen de la sangre como esencia de la vida. Desde Aristóteles nace el concepto del calor innato que emana del corazón. Galeno afirma que la sangre se modifica al enfriarse y al alejarse del corazón pierde el calor innato se enfría y se coagula como ocurre con el agua y el hielo. Al salir la sangre de una herida, se enfría por el contacto con el aire, permitiendo detener la hemorragia por el “horror al vacío”. Este concepto se mantuvo por 15 siglos. Posteriormente William Harvey adiciona el concepto de circulación que es un término que abarca muchos de los conceptos filosóficos del momento y muy apropiado para la denominación del sistema que rige el flujo sanguíneo: sistema circulatorio. Harvey continua con la misma explicación sobre el proceso de coagulación basado en que la sangre lejos del corazón se enfría y coagula debido a una mucosidad fibrosa que se encuentra en la sangre; ahora más respaldada en la observación de que la circulación de la sangre por el corazón le permite mantener una temperatura caliente y por lo tanto le permite mantener su estado líquido, además de recibir el espíritu vital proveniente de la respiración. Esta teoría se mantiene por otros científicos como Thomas Sydenham (1624 - 1689), Friedrich Hoffmann (1660 -1742), quienes afirman además que los coágulos se forman a partir de la parte fibrosa de la sangre o de una gelatina presente en la sangre y de sus corpúsculos rojos.

Viene posteriormente la teoría de la detención del flujo sanguíneo, en la que el movimiento y dinamismo de la sangre son las bases que permiten mantener el estado líquido de la sangre, la detención de ese movimiento generará el coágulo. Es así como Marcelo Malpighi (1628 - 1694) descubre la fibrina, mediante el lavado de los coágulos del corazón de cadáveres y sostiene que la red de fibras que forman el coágulo, proviene de pequeñas fibras que se mantienen separadas por la fuerza del impulso cardíaco.

Esta teoría basada en la dinámica del flujo, es reemplazada por el auge vitalista, basado en la fuerza vital. Harvey sostiene que la sangre contiene una fuerza vital que mantiene la sangre líquida y al salir de los vasos sanguíneos esta fuerza se evapora y la sangre se coagula. Lo secundan otros vitalistas como Thomas Willis (1621 - 1675), Jan Baptista van Helmont (1579 - 1644) y Franz de le Boë (1614 - 1672), que aportan variedad a la formación final del coágulo considerándolo el resultado de la formación de una forma de cuajo láctico o de la pérdida de ácido.

Lo interesante para destacar hasta este momento es que no se sabía si los coágulos se formaban exclusivamente en el proceso de muerte o si también se presentaban en los vasos sanguíneos in vivo. Sólo hasta 1731 Jean Louis Petit (1674 - 1750) describe la formación de coágulos en vasos sanguíneos de individuos vivos como parte del proceso de detener la hemorragia. La teoría

vitalista se mantiene con John Hunter (1728 - 1793) quien sostiene que la sangre está animada en vida y el morir pierde la animación y por lo tanto se coagula.

En la segunda mitad del siglo XVIII, la teoría del enfriamiento es discutida por el científico inglés William Hewson (1739 - 1774), quien demuestra que la sangre coagula rápidamente al ser extraída de los vasos sanguíneos y que se coagula por el calor. Por el contrario el frío puede retrasar la coagulación. El estado líquido puede conservarse adicionando sales como sulfato de sodio y finalmente que la coagulación no depende de la presencia de los glóbulos rojos sino del plasma. Hewson afirma que la coagulación se debe a la linfa que contiene la sangre.

En 1832 Johannes Müller (1801 - 1858) se pronuncia en contra de la teoría de la fuerza vital, considerando que los glóbulos rojos carecen de movimiento propio y que estos no son la fuente de fibrina, sino que la fibrina se encuentra disuelta en el plasma. Alexander Buchanan (1798 - 1882) introduce la participación de varias sustancias en la formación del coágulo al afirmar que “el líquido mucinoso de los hidroceles no se coagula espontáneamente sino en presencia de otros tejidos y suero”. En 1856 Rudolph Virchow sostiene que el oxígeno puede jugar un papel en el proceso de coagulación y propone el término de fibrinógeno para el precursor de la fibrina, que se encuentra presente en los líquidos. En 1861 Alexander Schmidt (1831 - 1894) propone dos sustancias: una sustancia proplástica o antecesora de la fibrina y una sustancia fibrinoplástica que promueva la conversión. Posteriormente y luego de múltiples estudios Schmidt afirma que la reacción de formación del coágulo es de tipo enzimático y propone otro término para la sustancia procoagulante: trombina y que ésta procedía de los leucocitos.

Se reconoce el papel del calcio en el proceso de la coagulación, inicialmente por Olav Hammerstein (1841 - 1932) quien lo clasifica como una sustancia fibrinoplástica y posteriormente Maurice Arthus (1862 - 1945) quien sostiene que el calcio sólo es necesario para la generación de trombina pero no de fibrina.

Con estas bases teóricas comienza el siglo XX en el que se desarrollan los conceptos mediante realidades biológicas y químicas, venciendo las diferentes etapas del pensamiento, mágico, mecanicista, vitalista y pasando a un mayor rigor de análisis, bajo un método científico cada vez mas estricto. Es así como Paul Morawitz en 1905 propone una teoría unitaria que es la base de la cascada clásica de la coagulación, a partir de los elementos identificados hasta ese momento: fibrinógeno, protrombina, calcio y factor tisular. Esta propuesta se compone de dos fases: la primera fase consta de la conversión de protrombina (también llamada trombógeno) en trombina mediante el factor tisular (bajo el

8786

Coagulación: sistema biológico complejo Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 83-95

En épocas antiguas la preocupación del ser humano residía en la explicación del origen de la sangre como esencia de la vida. Desde Aristóteles nace el concepto del calor innato que emana del corazón. Galeno afirma que la sangre se modifica al enfriarse y al alejarse del corazón pierde el calor innato se enfría y se coagula como ocurre con el agua y el hielo. Al salir la sangre de una herida, se enfría por el contacto con el aire, permitiendo detener la hemorragia por el “horror al vacío”. Este concepto se mantuvo por 15 siglos. Posteriormente William Harvey adiciona el concepto de circulación que es un término que abarca muchos de los conceptos filosóficos del momento y muy apropiado para la denominación del sistema que rige el flujo sanguíneo: sistema circulatorio. Harvey continua con la misma explicación sobre el proceso de coagulación basado en que la sangre lejos del corazón se enfría y coagula debido a una mucosidad fibrosa que se encuentra en la sangre; ahora más respaldada en la observación de que la circulación de la sangre por el corazón le permite mantener una temperatura caliente y por lo tanto le permite mantener su estado líquido, además de recibir el espíritu vital proveniente de la respiración. Esta teoría se mantiene por otros científicos como Thomas Sydenham (1624 - 1689), Friedrich Hoffmann (1660 -1742), quienes afirman además que los coágulos se forman a partir de la parte fibrosa de la sangre o de una gelatina presente en la sangre y de sus corpúsculos rojos.

Viene posteriormente la teoría de la detención del flujo sanguíneo, en la que el movimiento y dinamismo de la sangre son las bases que permiten mantener el estado líquido de la sangre, la detención de ese movimiento generará el coágulo. Es así como Marcelo Malpighi (1628 - 1694) descubre la fibrina, mediante el lavado de los coágulos del corazón de cadáveres y sostiene que la red de fibras que forman el coágulo, proviene de pequeñas fibras que se mantienen separadas por la fuerza del impulso cardíaco.

Esta teoría basada en la dinámica del flujo, es reemplazada por el auge vitalista, basado en la fuerza vital. Harvey sostiene que la sangre contiene una fuerza vital que mantiene la sangre líquida y al salir de los vasos sanguíneos esta fuerza se evapora y la sangre se coagula. Lo secundan otros vitalistas como Thomas Willis (1621 - 1675), Jan Baptista van Helmont (1579 - 1644) y Franz de le Boë (1614 - 1672), que aportan variedad a la formación final del coágulo considerándolo el resultado de la formación de una forma de cuajo láctico o de la pérdida de ácido.

Lo interesante para destacar hasta este momento es que no se sabía si los coágulos se formaban exclusivamente en el proceso de muerte o si también se presentaban en los vasos sanguíneos in vivo. Sólo hasta 1731 Jean Louis Petit (1674 - 1750) describe la formación de coágulos en vasos sanguíneos de individuos vivos como parte del proceso de detener la hemorragia. La teoría

vitalista se mantiene con John Hunter (1728 - 1793) quien sostiene que la sangre está animada en vida y el morir pierde la animación y por lo tanto se coagula.

En la segunda mitad del siglo XVIII, la teoría del enfriamiento es discutida por el científico inglés William Hewson (1739 - 1774), quien demuestra que la sangre coagula rápidamente al ser extraída de los vasos sanguíneos y que se coagula por el calor. Por el contrario el frío puede retrasar la coagulación. El estado líquido puede conservarse adicionando sales como sulfato de sodio y finalmente que la coagulación no depende de la presencia de los glóbulos rojos sino del plasma. Hewson afirma que la coagulación se debe a la linfa que contiene la sangre.

En 1832 Johannes Müller (1801 - 1858) se pronuncia en contra de la teoría de la fuerza vital, considerando que los glóbulos rojos carecen de movimiento propio y que estos no son la fuente de fibrina, sino que la fibrina se encuentra disuelta en el plasma. Alexander Buchanan (1798 - 1882) introduce la participación de varias sustancias en la formación del coágulo al afirmar que “el líquido mucinoso de los hidroceles no se coagula espontáneamente sino en presencia de otros tejidos y suero”. En 1856 Rudolph Virchow sostiene que el oxígeno puede jugar un papel en el proceso de coagulación y propone el término de fibrinógeno para el precursor de la fibrina, que se encuentra presente en los líquidos. En 1861 Alexander Schmidt (1831 - 1894) propone dos sustancias: una sustancia proplástica o antecesora de la fibrina y una sustancia fibrinoplástica que promueva la conversión. Posteriormente y luego de múltiples estudios Schmidt afirma que la reacción de formación del coágulo es de tipo enzimático y propone otro término para la sustancia procoagulante: trombina y que ésta procedía de los leucocitos.

Se reconoce el papel del calcio en el proceso de la coagulación, inicialmente por Olav Hammerstein (1841 - 1932) quien lo clasifica como una sustancia fibrinoplástica y posteriormente Maurice Arthus (1862 - 1945) quien sostiene que el calcio sólo es necesario para la generación de trombina pero no de fibrina.

Con estas bases teóricas comienza el siglo XX en el que se desarrollan los conceptos mediante realidades biológicas y químicas, venciendo las diferentes etapas del pensamiento, mágico, mecanicista, vitalista y pasando a un mayor rigor de análisis, bajo un método científico cada vez mas estricto. Es así como Paul Morawitz en 1905 propone una teoría unitaria que es la base de la cascada clásica de la coagulación, a partir de los elementos identificados hasta ese momento: fibrinógeno, protrombina, calcio y factor tisular. Esta propuesta se compone de dos fases: la primera fase consta de la conversión de protrombina (también llamada trombógeno) en trombina mediante el factor tisular (bajo el

8786

Coagulación: sistema biológico complejo Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 83-95

nombre de tromboquinasa) y en presencia de calcio y la segunda fase comporta la conversión de fibrinógeno a fibrina, mediante la acción de la trombina. Aunque claramente esta teoría es la precursora de la cascada clásica, esta no fue aceptada en su momento. Intervienen nuevas posibilidades: Pierre Nolf (1873 - 1953) atribuye la coagulación a 3 sustancias: fibrinógeno, trombógeno que provienen del hígado y la trombozima que proviene del endotelio, los ganglios linfáticos, las plaquetas y los leucocitos. Jules Bordet (1870 - 1961) propone que el factor tisular proviene de las células: citozima.

La intervención de William Howell (1860 - 1945) define un largo período de estancamiento en el avance del conocimiento en el proceso de coagulación. Propone el término de tromboplastina para el factor tisular y su alumno Jan MacLean descubre el anticoagulante que Howell denomina heparina. Una vez se descubre este anticoagulante, cambia su teoría y sostiene que la heparina es una anti-protrombina que se encuentra en el plasma, unida a la protrombina con el fin de impedir la coagulación y que la tromboplastina los separa para que la protrombina se convierta en trombina en presencia de calcio. La heparina liberada se une a la tromboplastina para limitar la coagulación. Este concepto se mantiene por la cantidad de escritos que se publican y por las influencias científicas de Howell, quien se centra en evitar que se den a conocer estudios que reporten posiciones científicas diferentes.

En los años treinta se identifica la vitamina k como la vitamina de la coagulación, Armand Quick (1894 - 1978) desarrolla la prueba de laboratorio que reproduce la teoría de la coagulación de Morawitz, conocida como el test de Quick, que es la misma prueba del tiempo de protrombina. Este trabajo es rechazado en 8 ocasiones por no coincidir con la teoría de Howell hasta 1936. Vemos como sólo hasta 1949, Milstone esboza una explicación que fundamenta el desarrollo de los conceptos subsiguientes: Una vez se presenta el daño vascular, la exposición de los tejidos permite la formación del coágulo, luego se da una reacción en cadena que permite mantener ese coágulo inicialmente formado, generar fibrina y estabilizar el coágulo.

Posteriormente se inicia la etapa del descubrimiento de los factores: el factor V o acelerina por Quick en 1948 y por Paul Owren (1905 - 1990); el factor VII o proconvertina por André de Vries en 1949 y por Benjamín Alexander (1909 -1978); el factor VIII o antihemofílico por Arthur Patek en 1936; el factor IX por Rosemary Biggs (1912 - 2001) y Robert MacFarlane (1907 - 1987); el factor X o factor de Stuart-Prower por Francois Duckert (1922 - 1998); el factor XI por Robert Rosenthal; el factor XII o factor de Hageman por Oscar Ratnoff: el factor XIII o factor estabilizador de la fibrina por Robbins y Laki. Este período se caracteriza por una gran confusión debida a los múltiples nuevos descubrimientos.

En 1954 Irving Wright propone unificar la nomenclatura para los múltiples factores de coagulación descritos hasta ese momento, con el fin de lograr una mayor comprensión del proceso de coagulación y se crea el Comité Internacional para la Nomenclatura de los Factores de Coagulación, que cuenta con 23 miembros: Kenneth Brickhous, Robert MacFarlane, Paul Owren, Alfredo Pavlovsky, Armand Quick, Oscar Ratnoff, Walter Seegers, Jean Pierre Soulier, Marc Verstraete, entre otros. Así se unificaron los criterios para denominar los factores de coagulación, el último incluido en 1963 el factor XIII.

Es sólo hasta 1964 que se desarrolla la teoría de la cascada de la coagulación, basada en reacciones enzimáticas secuenciales en forma de cascada, término propuesto por Ratnoff, Davie y MacFarlane. Se describe el proceso de coagulación desencadenado a través de 2 vías: la vía intrínseca a partir del factor XII y la vía extrínseca a partir del factor tisular y el factor VII, ambas vías conllevan a una vía común por la que se activa el factor X hasta formar fibrina.

Posteriormente se describen los sistemas de regulación de la coagulación, los anticoagulantes naturales como la antitrombina III, proteína C y S; además la trombomodulina y el sistema fibrinolítico.

A pesar de que estos conceptos se mantienen hasta los años ochenta, se presentan varios inconvenientes en la comprensión del proceso de coagulación

Cascada clásica de la coagulación.

8988

Coagulación: sistema biológico complejo Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 83-95

nombre de tromboquinasa) y en presencia de calcio y la segunda fase comporta la conversión de fibrinógeno a fibrina, mediante la acción de la trombina. Aunque claramente esta teoría es la precursora de la cascada clásica, esta no fue aceptada en su momento. Intervienen nuevas posibilidades: Pierre Nolf (1873 - 1953) atribuye la coagulación a 3 sustancias: fibrinógeno, trombógeno que provienen del hígado y la trombozima que proviene del endotelio, los ganglios linfáticos, las plaquetas y los leucocitos. Jules Bordet (1870 - 1961) propone que el factor tisular proviene de las células: citozima.

La intervención de William Howell (1860 - 1945) define un largo período de estancamiento en el avance del conocimiento en el proceso de coagulación. Propone el término de tromboplastina para el factor tisular y su alumno Jan MacLean descubre el anticoagulante que Howell denomina heparina. Una vez se descubre este anticoagulante, cambia su teoría y sostiene que la heparina es una anti-protrombina que se encuentra en el plasma, unida a la protrombina con el fin de impedir la coagulación y que la tromboplastina los separa para que la protrombina se convierta en trombina en presencia de calcio. La heparina liberada se une a la tromboplastina para limitar la coagulación. Este concepto se mantiene por la cantidad de escritos que se publican y por las influencias científicas de Howell, quien se centra en evitar que se den a conocer estudios que reporten posiciones científicas diferentes.

En los años treinta se identifica la vitamina k como la vitamina de la coagulación, Armand Quick (1894 - 1978) desarrolla la prueba de laboratorio que reproduce la teoría de la coagulación de Morawitz, conocida como el test de Quick, que es la misma prueba del tiempo de protrombina. Este trabajo es rechazado en 8 ocasiones por no coincidir con la teoría de Howell hasta 1936. Vemos como sólo hasta 1949, Milstone esboza una explicación que fundamenta el desarrollo de los conceptos subsiguientes: Una vez se presenta el daño vascular, la exposición de los tejidos permite la formación del coágulo, luego se da una reacción en cadena que permite mantener ese coágulo inicialmente formado, generar fibrina y estabilizar el coágulo.

Posteriormente se inicia la etapa del descubrimiento de los factores: el factor V o acelerina por Quick en 1948 y por Paul Owren (1905 - 1990); el factor VII o proconvertina por André de Vries en 1949 y por Benjamín Alexander (1909 -1978); el factor VIII o antihemofílico por Arthur Patek en 1936; el factor IX por Rosemary Biggs (1912 - 2001) y Robert MacFarlane (1907 - 1987); el factor X o factor de Stuart-Prower por Francois Duckert (1922 - 1998); el factor XI por Robert Rosenthal; el factor XII o factor de Hageman por Oscar Ratnoff: el factor XIII o factor estabilizador de la fibrina por Robbins y Laki. Este período se caracteriza por una gran confusión debida a los múltiples nuevos descubrimientos.

En 1954 Irving Wright propone unificar la nomenclatura para los múltiples factores de coagulación descritos hasta ese momento, con el fin de lograr una mayor comprensión del proceso de coagulación y se crea el Comité Internacional para la Nomenclatura de los Factores de Coagulación, que cuenta con 23 miembros: Kenneth Brickhous, Robert MacFarlane, Paul Owren, Alfredo Pavlovsky, Armand Quick, Oscar Ratnoff, Walter Seegers, Jean Pierre Soulier, Marc Verstraete, entre otros. Así se unificaron los criterios para denominar los factores de coagulación, el último incluido en 1963 el factor XIII.

Es sólo hasta 1964 que se desarrolla la teoría de la cascada de la coagulación, basada en reacciones enzimáticas secuenciales en forma de cascada, término propuesto por Ratnoff, Davie y MacFarlane. Se describe el proceso de coagulación desencadenado a través de 2 vías: la vía intrínseca a partir del factor XII y la vía extrínseca a partir del factor tisular y el factor VII, ambas vías conllevan a una vía común por la que se activa el factor X hasta formar fibrina.

Posteriormente se describen los sistemas de regulación de la coagulación, los anticoagulantes naturales como la antitrombina III, proteína C y S; además la trombomodulina y el sistema fibrinolítico.

A pesar de que estos conceptos se mantienen hasta los años ochenta, se presentan varios inconvenientes en la comprensión del proceso de coagulación

Cascada clásica de la coagulación.

8988

Coagulación: sistema biológico complejo Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 83-95

pues se observan fenómenos clínicos que no se correlacionan con este proceso biológico. Una de estas dificultades es la comprensión del porqué el paciente con deficiencia aislada del factor XII (factor de Hageman) mejor conocido como uno de los factores de contacto que desencadenan la vía intrínseca de la cascada de la coagulación, no tiene implicaciones clínicas de tipo hemorrágico sino que por el contrario se ha reportado que la deficiencia del factor XII puede asociarse con enfermedad tromboembólica en algunos grupos familiares.

Por otra parte, el gran desconocimiento de la participación de todos los componentes del macro y microambientes sanguíneos genera grandes interrogantes en la comprensión del proceso in vivo, en el que la interrelación de los diferentes factores de la coagulación con las células, los receptores de membrana, las citoquinas, el endotelio, los agentes de respuesta inflamatoria y las múltiples interacciones entre todos ellos, no puede ser evaluados en forma precisa en los estudios in vitro, y sus implicaciones clínicas reales no son predecibles.

Es así como se llevan a cabo estudios que permitan soportar conceptos fisiológicos basados en la realidad in vivo y surgen nuevas propuestas como el modelo de coagulación basado en la célula, descrito por Maureen Hoffman en el 2001.

Modelo de la coagulación basado en la célula. Fuente: Hoffman, Monroe, 2001.

El modelo de la coagulación basado en la célula consiste en tres etapas simultáneas, pero su descripción por separado permite comprender el proceso: iniciación, propagación y amplificación. La coagulación de inicia mediante la participación del factor tisular, el factor VII y las células como los fibroblastos o monocitos expuestas en el sitio del daño endotelial. Este complejo resultante: factor tisular/ factor VII activado, cataliza dos reacciones: la activación del factor X y la activación del factor IX. Por una parte el factor X activado interactúa con el cofactor V activado para formar el complejo protrombinasa y generar trombina en la superficie de las células que participan en el proceso. Por otra parte el factor IX activado se difunde sobre la superficie de las plaquetas activadas que se acercan al complejo formado y en el receptor de la superficie plaquetaria, interactúa con el factor VIII activado y activa el factor X directamente en la superficie de la plaqueta. Este proceso se propaga y se amplifica formando complejos tenaza que consisten en la combinación de factor IX y VIII activados que accionan el factor X del plasma en la superficie plaquetaria, que en asociación con el factor V activado generan trombina suficiente para formar el coágulo y estabilizar la red de fibrina.

Este modelo de coagulación basado en la célula se aproxima a la forma de pensamiento actual, en la que se pretende integrar todo un universo de eventos y actores dentro del evento que interactúan con un fin específico bajo las condiciones de la naturaleza que determinan el proceso como un sistema complejo, regulado por si mismo en beneficio de una u otra tendencia (sangrado o trombosis) cuyos determinantes reguladores conocemos en forma muy superficial pero el absoluto control de todos los mecanismos es aún desconocido. En este proceso de múltiples interacciones entre inductores naturales o adquiridos de la coagulación e inhibidores también ellos naturales o adquiridos, el equilibrio y la entropía generada permite un resultado apropiado para el bienestar del individuo o completamente catastrófico que genere un estado patológico o sea parte de una gran respuesta asociada a otras morbilidades concomitantes.

Una perspectiva biológica.

La obra de Michael Behe “La caja negra de Darwin” es un intento reciente por proporcionar una nueva perspectiva de los sistemas biológicos complejos celulares como sistemas irreductibles, más que en oposición, como complemento de las teorías evolucionistas. Behe compara la célula con una misteriosa caja negra, que se puede observar pero sus mecanismos y funcionamiento son completamente desconocidos desde afuera. Nuevas tecnologías de estudio como la biología molecular y celular permiten conocer nuevos mecanismos moleculares complejos que permiten explicar fenómenos vivos, que no se simplifican en una “selección natural”.

9190

Coagulación: sistema biológico complejo Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 83-95

pues se observan fenómenos clínicos que no se correlacionan con este proceso biológico. Una de estas dificultades es la comprensión del porqué el paciente con deficiencia aislada del factor XII (factor de Hageman) mejor conocido como uno de los factores de contacto que desencadenan la vía intrínseca de la cascada de la coagulación, no tiene implicaciones clínicas de tipo hemorrágico sino que por el contrario se ha reportado que la deficiencia del factor XII puede asociarse con enfermedad tromboembólica en algunos grupos familiares.

Por otra parte, el gran desconocimiento de la participación de todos los componentes del macro y microambientes sanguíneos genera grandes interrogantes en la comprensión del proceso in vivo, en el que la interrelación de los diferentes factores de la coagulación con las células, los receptores de membrana, las citoquinas, el endotelio, los agentes de respuesta inflamatoria y las múltiples interacciones entre todos ellos, no puede ser evaluados en forma precisa en los estudios in vitro, y sus implicaciones clínicas reales no son predecibles.

Es así como se llevan a cabo estudios que permitan soportar conceptos fisiológicos basados en la realidad in vivo y surgen nuevas propuestas como el modelo de coagulación basado en la célula, descrito por Maureen Hoffman en el 2001.

Modelo de la coagulación basado en la célula. Fuente: Hoffman, Monroe, 2001.

El modelo de la coagulación basado en la célula consiste en tres etapas simultáneas, pero su descripción por separado permite comprender el proceso: iniciación, propagación y amplificación. La coagulación de inicia mediante la participación del factor tisular, el factor VII y las células como los fibroblastos o monocitos expuestas en el sitio del daño endotelial. Este complejo resultante: factor tisular/ factor VII activado, cataliza dos reacciones: la activación del factor X y la activación del factor IX. Por una parte el factor X activado interactúa con el cofactor V activado para formar el complejo protrombinasa y generar trombina en la superficie de las células que participan en el proceso. Por otra parte el factor IX activado se difunde sobre la superficie de las plaquetas activadas que se acercan al complejo formado y en el receptor de la superficie plaquetaria, interactúa con el factor VIII activado y activa el factor X directamente en la superficie de la plaqueta. Este proceso se propaga y se amplifica formando complejos tenaza que consisten en la combinación de factor IX y VIII activados que accionan el factor X del plasma en la superficie plaquetaria, que en asociación con el factor V activado generan trombina suficiente para formar el coágulo y estabilizar la red de fibrina.

Este modelo de coagulación basado en la célula se aproxima a la forma de pensamiento actual, en la que se pretende integrar todo un universo de eventos y actores dentro del evento que interactúan con un fin específico bajo las condiciones de la naturaleza que determinan el proceso como un sistema complejo, regulado por si mismo en beneficio de una u otra tendencia (sangrado o trombosis) cuyos determinantes reguladores conocemos en forma muy superficial pero el absoluto control de todos los mecanismos es aún desconocido. En este proceso de múltiples interacciones entre inductores naturales o adquiridos de la coagulación e inhibidores también ellos naturales o adquiridos, el equilibrio y la entropía generada permite un resultado apropiado para el bienestar del individuo o completamente catastrófico que genere un estado patológico o sea parte de una gran respuesta asociada a otras morbilidades concomitantes.

Una perspectiva biológica.

La obra de Michael Behe “La caja negra de Darwin” es un intento reciente por proporcionar una nueva perspectiva de los sistemas biológicos complejos celulares como sistemas irreductibles, más que en oposición, como complemento de las teorías evolucionistas. Behe compara la célula con una misteriosa caja negra, que se puede observar pero sus mecanismos y funcionamiento son completamente desconocidos desde afuera. Nuevas tecnologías de estudio como la biología molecular y celular permiten conocer nuevos mecanismos moleculares complejos que permiten explicar fenómenos vivos, que no se simplifican en una “selección natural”.

9190

Coagulación: sistema biológico complejo Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 83-95

Utiliza el sistema de la coagulación como sistema complejo irreductible, refiriéndose bajo el término irreductible a todo sistema que no puede prescindir de alguno de sus elementos para su funcionamiento y por lo tanto no puede estar dominado bajo las leyes de la selección natural. Si así fuera cada componente de la maquinaria del sistema, debería ser útil a la célula, para poder perpetuarse a sí mismo y lograr una posición favorable dentro del proceso de selección natural. Utiliza como ejemplo inanimado la trampa de ratones en la que no pueden faltar ninguno de sus componentes para su correcto funcionamiento y la garantía de la presencia de cada uno de ellos no podría obedecer a una necesidad de cada una de las piezas en forma individual para lograr mantener el sistema integral bajo las condiciones de la selección natural que se basan en su valiosa participación individual para asegurar su supervivencia.

Aplicando el concepto a los sistemas in vivo utiliza como ejemplo las máquinas de Rube Goldberg, que consisten en procesos con múltiples dispositivos totalmente fuera de lo común o de lo esperado, para lograr un fin determinado y que parte de su esencia es ser irreductiblemente complejos. Es así como describe la cascada de la coagulación, como un proceso en el que intervienen múltiples proteínas para formar un coágulo en el sitio de una herida, controlar el sangrado y finalizar el proceso.Como oposición a las teorías evolucionistas concluye sobre la complejidad del proceso como sistema complejo irreductible lo que se muestra completamente contrario a la realidad biológica pues vemos como a pesar de la deficiencia o en algunos casos, completa ausencia de alguno de los componentes del sistema, como factores de coagulación o inhibidores naturales de la coagulación, el sistema puede funcionar perfectamente en muchos individuos bajo condiciones normales, sin ser sometidos a factores de riesgo bien sea trauma como es el caso de pacientes con hipofibrinogenemia o afibrinogenemia, o factores de riesgo para enfermedad tromboembólica como cirugía o embarazo entre otros, en individuos con deficiencia de proteína S o antitrombina III. Behe concluye con el concepto de sistema de diseño inteligente que tampoco aporta ningún fundamento científico para la comprensión biológica de este bien complejo e interesante proceso.

Aunque la explicación científica para el origen de los sistemas moleculares complejos, su evolución y sus grandes misterios funcionales, no este dilucidada, no podemos culminar el concepto con la idea de considerarlo simplemente un evento sobrenatural sin posibilidades de perspectiva científica como bien lo expone Dawkins en su obra “El espejismo de Dios” y que Behe pretende casi imponer con su análisis. El cuestionamiento científico permanente permitirá comprender las innumerables preguntas que se plantean alrededor de este fascinante tema.

La coagulación como sistema complejo

Una vez recorridas las diferentes épocas del pensamiento científico que rodea el concepto de la coagulación su fisiología, su balance y todo su proceso, nos vemos enfrentados al concepto actual, a sus complejos mecanismos y lo más difícil: la explicación de todos y cada uno de los elementos que mantienen los fenómenos biológicos en equilibrio para un fin específico, ya sea sangrado o trombosis. En condiciones fisiológicas estrictas hacemos referencia a un estado normal de homeostasis biológica con participación regulada de los actores del proceso. Esta regulación puede alterarse en condiciones de estrés que podemos llamar trauma, respuesta inflamatoria, lesiones con daño endotelial y exposición de la sangre. La pauta de activación del proceso podría ser desencadenada por mecanismos que pueden compararse a la creación de un vórtice como lo describen Briggs y Peat en diferentes fenómenos físicos de la naturaleza, a partir del cual se desarrolla toda una organización del flujo y de la dinámica del proceso.

En el caso de la coagulación, cada uno de los eventos desencadenantes del trastorno físico que rodea el ambiente de cambios alrededor de una lesión tisular, puede comportarse como un fenómeno de tipo vórtice con generación de turbulencia a su alrededor, cambios físicos y biológicos que inducen la activación del factor tisular y el factor VII, además de atraer así la participación de las células involucradas tanto plaquetas como fibroblastos o monocitos. Este mismo fenómeno se genera en situaciones aparentemente fisiológicas, en las que tenemos una coagulación normal y que súbitamente cambia en algún lugar de todo el sistema circulatorio, como es el caso de los eventos isquémicos cerebrales o isquemia coronaria en los que probablemente hay un “atractor extraño” que puede ser una placa ateromatosa, un daño endotelial, un cambio transitorio en la tensión vascular como un espasmo vascular, que permitan la activación de todo el proceso.

El atractor es la región del espacio hacia la que convergen las trayectorias posibles de un sistema. Así que este atractor extraño puede tratarse de una muy pequeña fluctuación en el microambiente que desencadene grandes manifestaciones biológicas o también claramente sintomáticas y clínicas. La identificación de este “atractor extraño” es uno de los principales objetivos en la clínica para poder ofrecer soluciones profilácticas o terapéuticas permanentes, transitorias de tipo medicamentoso o mecánico.

El orden se genera a partir del caos a través de condiciones de no equilibrio aportadas por el medio, y es así como el proceso de la coagulación y el coágulo mismo cumplen en esencia con las características que identifican un proceso y una estructura disipativas; no pueden aislarse del medio externo, en el que su

9392

Coagulación: sistema biológico complejo Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 83-95

Utiliza el sistema de la coagulación como sistema complejo irreductible, refiriéndose bajo el término irreductible a todo sistema que no puede prescindir de alguno de sus elementos para su funcionamiento y por lo tanto no puede estar dominado bajo las leyes de la selección natural. Si así fuera cada componente de la maquinaria del sistema, debería ser útil a la célula, para poder perpetuarse a sí mismo y lograr una posición favorable dentro del proceso de selección natural. Utiliza como ejemplo inanimado la trampa de ratones en la que no pueden faltar ninguno de sus componentes para su correcto funcionamiento y la garantía de la presencia de cada uno de ellos no podría obedecer a una necesidad de cada una de las piezas en forma individual para lograr mantener el sistema integral bajo las condiciones de la selección natural que se basan en su valiosa participación individual para asegurar su supervivencia.

Aplicando el concepto a los sistemas in vivo utiliza como ejemplo las máquinas de Rube Goldberg, que consisten en procesos con múltiples dispositivos totalmente fuera de lo común o de lo esperado, para lograr un fin determinado y que parte de su esencia es ser irreductiblemente complejos. Es así como describe la cascada de la coagulación, como un proceso en el que intervienen múltiples proteínas para formar un coágulo en el sitio de una herida, controlar el sangrado y finalizar el proceso.Como oposición a las teorías evolucionistas concluye sobre la complejidad del proceso como sistema complejo irreductible lo que se muestra completamente contrario a la realidad biológica pues vemos como a pesar de la deficiencia o en algunos casos, completa ausencia de alguno de los componentes del sistema, como factores de coagulación o inhibidores naturales de la coagulación, el sistema puede funcionar perfectamente en muchos individuos bajo condiciones normales, sin ser sometidos a factores de riesgo bien sea trauma como es el caso de pacientes con hipofibrinogenemia o afibrinogenemia, o factores de riesgo para enfermedad tromboembólica como cirugía o embarazo entre otros, en individuos con deficiencia de proteína S o antitrombina III. Behe concluye con el concepto de sistema de diseño inteligente que tampoco aporta ningún fundamento científico para la comprensión biológica de este bien complejo e interesante proceso.

Aunque la explicación científica para el origen de los sistemas moleculares complejos, su evolución y sus grandes misterios funcionales, no este dilucidada, no podemos culminar el concepto con la idea de considerarlo simplemente un evento sobrenatural sin posibilidades de perspectiva científica como bien lo expone Dawkins en su obra “El espejismo de Dios” y que Behe pretende casi imponer con su análisis. El cuestionamiento científico permanente permitirá comprender las innumerables preguntas que se plantean alrededor de este fascinante tema.

La coagulación como sistema complejo

Una vez recorridas las diferentes épocas del pensamiento científico que rodea el concepto de la coagulación su fisiología, su balance y todo su proceso, nos vemos enfrentados al concepto actual, a sus complejos mecanismos y lo más difícil: la explicación de todos y cada uno de los elementos que mantienen los fenómenos biológicos en equilibrio para un fin específico, ya sea sangrado o trombosis. En condiciones fisiológicas estrictas hacemos referencia a un estado normal de homeostasis biológica con participación regulada de los actores del proceso. Esta regulación puede alterarse en condiciones de estrés que podemos llamar trauma, respuesta inflamatoria, lesiones con daño endotelial y exposición de la sangre. La pauta de activación del proceso podría ser desencadenada por mecanismos que pueden compararse a la creación de un vórtice como lo describen Briggs y Peat en diferentes fenómenos físicos de la naturaleza, a partir del cual se desarrolla toda una organización del flujo y de la dinámica del proceso.

En el caso de la coagulación, cada uno de los eventos desencadenantes del trastorno físico que rodea el ambiente de cambios alrededor de una lesión tisular, puede comportarse como un fenómeno de tipo vórtice con generación de turbulencia a su alrededor, cambios físicos y biológicos que inducen la activación del factor tisular y el factor VII, además de atraer así la participación de las células involucradas tanto plaquetas como fibroblastos o monocitos. Este mismo fenómeno se genera en situaciones aparentemente fisiológicas, en las que tenemos una coagulación normal y que súbitamente cambia en algún lugar de todo el sistema circulatorio, como es el caso de los eventos isquémicos cerebrales o isquemia coronaria en los que probablemente hay un “atractor extraño” que puede ser una placa ateromatosa, un daño endotelial, un cambio transitorio en la tensión vascular como un espasmo vascular, que permitan la activación de todo el proceso.

El atractor es la región del espacio hacia la que convergen las trayectorias posibles de un sistema. Así que este atractor extraño puede tratarse de una muy pequeña fluctuación en el microambiente que desencadene grandes manifestaciones biológicas o también claramente sintomáticas y clínicas. La identificación de este “atractor extraño” es uno de los principales objetivos en la clínica para poder ofrecer soluciones profilácticas o terapéuticas permanentes, transitorias de tipo medicamentoso o mecánico.

El orden se genera a partir del caos a través de condiciones de no equilibrio aportadas por el medio, y es así como el proceso de la coagulación y el coágulo mismo cumplen en esencia con las características que identifican un proceso y una estructura disipativas; no pueden aislarse del medio externo, en el que su

9392

Coagulación: sistema biológico complejo Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 83-95

funcionamiento y espacio se organizan en función del mismo régimen disipativo, que pueden pasar de un estado de equilibrio, en condiciones homogéneas, isotrópicas a un estado de polaridad con actividad generadora de entropía y de respuesta dinámica. Estas propiedades de proceso natural, lo definen como un proceso irreversible. Es aquí donde la más mínima fluctuación del microambiente sanguíneo y vascular puede poner en evidencia todo este potencial disipativo, o por el contrario, no se generan grandes cambios y se logra autorregular el proceso, sin modificar el estado de estabilidad biológica o de circulación y flujo normales. Como lo afirma Prigogine, ningún sistema complejo es jamás estructuralmente estable y el intercambio permanente de energía y materia con el medio, produce permanentemente entropía.

Desde un punto de vista global, la coagulación puede vislumbrarse como un proceso de pasos ordenados, autorregulados. El aparente caos en el que se mezclan todas las moléculas protrombóticas y antitrombóticas genera un orden o un proceso auto-organizado, que mantiene la homeostasis necesaria según las circunstancias dadas fisiológicas o patológicas. Es así como la participación de cada uno de los factores “procoagulantes”, los elementos anticoagulantes, los mecanismos de control y regulación determinan se caracterizan dentro de un sistema complejo, del que desconocemos esos “chips” reguladores del proceso, marcadores de estructura disipativa y autorregulación que nos permitan avanzar no solamente en la comprensión del fantástico proceso de la coagulación sino ofrecer terapias dirigidas y específicas, con resultados más controlables y adecuados en el equilibrio funcional del sistema vascular y hematológico, que es finalmente el objetivo primordial del ejercicio de la medicina.

Siendo el caos una interconexión subyacente que se manifiesta en acontecimientos aparentemente aleatorios, el límite entre enfermedad y salud no esta determinado por intervenciones específicas como pretendemos reconocer, como en el famoso concepto teórico del demonio de Maxwell, cuya base fundamental se encuentra en la modificación intencional de un evento para controlar el resultado final.

Aún si el dominio de todos los eventos del proceso y de la participación de los personajes del sistema de la coagulación fuera posible in vitro, esto nos permitiría determinar las reales circunstancias in vivo que sustentan el control del microambiente, como puede verse en las diferentes presentaciones clínicas de la generación de trombos o sangrado, según la localización del endotelio, ya sea si es endotelio cerebral, endotelio intestinal, endotelio cardíaco; cuyos comportamientos in vivo son definitivamente muy propios y para nada predeterminados.

Bibliografía

Andrade, E. (2003). Los demonios de Darwin: Semiótica y Termodinámica de la evolución Biológica. Bogotá: Universidad Nacional de Colombia.Behe, MJ. (2006). Darwin's Black Box: The biochemical challenge to evolution. New York: Simon & Schuster.Briggs J, Peat FD (1999). Las Siete Leyes del Caos: Las Ventajas de una Vida Caótica. Barcelona: Revelaciones Grijalbo.Brinkhous, KM ( 1992). Advances and controversies in blood coagulation: a 50 year retrospective. 50 years ago. 6: 925 926.Cesarman-Maus G, Hajjar K. (2005). Molecular mechanisms of fibrinolisis. B J Hematol; 129: 307 321.Davie, EW. (2003). A brief historical review of the waterfall/cascade of blood coagulation. JBC Centennial 1905 2005: 100 years of biochemistry and molecular biology. 278,51: 50819 50832. Dahlbäck, B. (2000). Blood coagulation. Lancet. 355: 1627 1632.Dawkins, R. (2007). El espejismo de Dios. Madrid: Espasa.Denson, K.W.E. Oxford, The Mecca for blood coagulation research in the 1950s and 1960s. J Thromb Haemost 2004; 2: 2085 2088.Doyle, D. (2005). Thomas Addis of Edinburgh (1881 1949) and the coagulation cascade: “for the greatest benefit done to practical medicine”. BJHematol. 132: 268 276.Esmon, CT. (2005). The interactions between inflammation and coagulation. BJHematol.131: 417 430.Furie, B, Furie,BC. (2005). Thrombus formation in vivo. J Clin Invest. 115; 12: 3355 - 3362.Gell-Mann, M. ( 2003). El Quark y el Jaguar: Aventuras de lo Simple a lo Complejo. Barcelona: Ed Metatemas (4 Ed).Hayles, NK. (2000). La Evolución del Caos: El Orden dentro del Desorden de las Ciencias Contemporáneas. Barcelona: Gedisa. Historical Review: Coagulation History, 1951 53. (1999). BJHematol 1999, 107: 22 - 32.Historical Review: Oscar Ratnoff: His contributions to the golden era of coagulation research.( 2003). BJHematol. 122: 180 192.Hoffman, M, Monroe, (2003). DM. Rethinking the coagulation cascade. Curr Hematol. 4: 391 396.Izaguirre Avila, (2005). R. Centenario de la doctrina de la coagulación sanguínea. Arch Cardiol Mex. 75:S3, 118 129.Jacques, LB. (1988). The Howell theory of blood coagulation: a record of the pernicious effects of a false theory. Can Bulletin. Vol 5: 143 65.Jesty J, Beltrami, E. (2005).Positive feedbacks of coagulation: their role in threshold regulation. Arterioscler Thromb Vasc Biol. 25: 2463 2469.Lewin, R. (2002). Complejidad: El Caos como generador del Orden. Barcelona: Ed Metatemas.Maldonado, C (2003). El problema de la filosofía del conocimiento y el estudio de los sistemas complejos. Praxis filosófica. Universidad del Valle N 17, 103 - 120.Maldonado, C. (2005). Termodinámica y Complejidad: Una Introducción para las Ciencias Sociales y Humanas. Bogotá: Universidad Externado de Colombia.

9594

Coagulación: sistema biológico complejo Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 83-95

funcionamiento y espacio se organizan en función del mismo régimen disipativo, que pueden pasar de un estado de equilibrio, en condiciones homogéneas, isotrópicas a un estado de polaridad con actividad generadora de entropía y de respuesta dinámica. Estas propiedades de proceso natural, lo definen como un proceso irreversible. Es aquí donde la más mínima fluctuación del microambiente sanguíneo y vascular puede poner en evidencia todo este potencial disipativo, o por el contrario, no se generan grandes cambios y se logra autorregular el proceso, sin modificar el estado de estabilidad biológica o de circulación y flujo normales. Como lo afirma Prigogine, ningún sistema complejo es jamás estructuralmente estable y el intercambio permanente de energía y materia con el medio, produce permanentemente entropía.

Desde un punto de vista global, la coagulación puede vislumbrarse como un proceso de pasos ordenados, autorregulados. El aparente caos en el que se mezclan todas las moléculas protrombóticas y antitrombóticas genera un orden o un proceso auto-organizado, que mantiene la homeostasis necesaria según las circunstancias dadas fisiológicas o patológicas. Es así como la participación de cada uno de los factores “procoagulantes”, los elementos anticoagulantes, los mecanismos de control y regulación determinan se caracterizan dentro de un sistema complejo, del que desconocemos esos “chips” reguladores del proceso, marcadores de estructura disipativa y autorregulación que nos permitan avanzar no solamente en la comprensión del fantástico proceso de la coagulación sino ofrecer terapias dirigidas y específicas, con resultados más controlables y adecuados en el equilibrio funcional del sistema vascular y hematológico, que es finalmente el objetivo primordial del ejercicio de la medicina.

Siendo el caos una interconexión subyacente que se manifiesta en acontecimientos aparentemente aleatorios, el límite entre enfermedad y salud no esta determinado por intervenciones específicas como pretendemos reconocer, como en el famoso concepto teórico del demonio de Maxwell, cuya base fundamental se encuentra en la modificación intencional de un evento para controlar el resultado final.

Aún si el dominio de todos los eventos del proceso y de la participación de los personajes del sistema de la coagulación fuera posible in vitro, esto nos permitiría determinar las reales circunstancias in vivo que sustentan el control del microambiente, como puede verse en las diferentes presentaciones clínicas de la generación de trombos o sangrado, según la localización del endotelio, ya sea si es endotelio cerebral, endotelio intestinal, endotelio cardíaco; cuyos comportamientos in vivo son definitivamente muy propios y para nada predeterminados.

Bibliografía

Andrade, E. (2003). Los demonios de Darwin: Semiótica y Termodinámica de la evolución Biológica. Bogotá: Universidad Nacional de Colombia.Behe, MJ. (2006). Darwin's Black Box: The biochemical challenge to evolution. New York: Simon & Schuster.Briggs J, Peat FD (1999). Las Siete Leyes del Caos: Las Ventajas de una Vida Caótica. Barcelona: Revelaciones Grijalbo.Brinkhous, KM ( 1992). Advances and controversies in blood coagulation: a 50 year retrospective. 50 years ago. 6: 925 926.Cesarman-Maus G, Hajjar K. (2005). Molecular mechanisms of fibrinolisis. B J Hematol; 129: 307 321.Davie, EW. (2003). A brief historical review of the waterfall/cascade of blood coagulation. JBC Centennial 1905 2005: 100 years of biochemistry and molecular biology. 278,51: 50819 50832. Dahlbäck, B. (2000). Blood coagulation. Lancet. 355: 1627 1632.Dawkins, R. (2007). El espejismo de Dios. Madrid: Espasa.Denson, K.W.E. Oxford, The Mecca for blood coagulation research in the 1950s and 1960s. J Thromb Haemost 2004; 2: 2085 2088.Doyle, D. (2005). Thomas Addis of Edinburgh (1881 1949) and the coagulation cascade: “for the greatest benefit done to practical medicine”. BJHematol. 132: 268 276.Esmon, CT. (2005). The interactions between inflammation and coagulation. BJHematol.131: 417 430.Furie, B, Furie,BC. (2005). Thrombus formation in vivo. J Clin Invest. 115; 12: 3355 - 3362.Gell-Mann, M. ( 2003). El Quark y el Jaguar: Aventuras de lo Simple a lo Complejo. Barcelona: Ed Metatemas (4 Ed).Hayles, NK. (2000). La Evolución del Caos: El Orden dentro del Desorden de las Ciencias Contemporáneas. Barcelona: Gedisa. Historical Review: Coagulation History, 1951 53. (1999). BJHematol 1999, 107: 22 - 32.Historical Review: Oscar Ratnoff: His contributions to the golden era of coagulation research.( 2003). BJHematol. 122: 180 192.Hoffman, M, Monroe, (2003). DM. Rethinking the coagulation cascade. Curr Hematol. 4: 391 396.Izaguirre Avila, (2005). R. Centenario de la doctrina de la coagulación sanguínea. Arch Cardiol Mex. 75:S3, 118 129.Jacques, LB. (1988). The Howell theory of blood coagulation: a record of the pernicious effects of a false theory. Can Bulletin. Vol 5: 143 65.Jesty J, Beltrami, E. (2005).Positive feedbacks of coagulation: their role in threshold regulation. Arterioscler Thromb Vasc Biol. 25: 2463 2469.Lewin, R. (2002). Complejidad: El Caos como generador del Orden. Barcelona: Ed Metatemas.Maldonado, C (2003). El problema de la filosofía del conocimiento y el estudio de los sistemas complejos. Praxis filosófica. Universidad del Valle N 17, 103 - 120.Maldonado, C. (2005). Termodinámica y Complejidad: Una Introducción para las Ciencias Sociales y Humanas. Bogotá: Universidad Externado de Colombia.

9594

Coagulación: sistema biológico complejo Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs. 83-95

Buscando un nuevo lenguaje para la filosofía de la mente

Javier Ardila Romero*

Resumen

Este artículo intenta discutir la construcción, representación, y algunas de las concepciones referentes a explicar filosóficamente el problema de la “MENTE”. El autor muestra algunos de los conceptos que tradicionalmente han construido los filósofos desde Descartes hasta los teóricos del lenguaje- para mostrar la “existencia” de la mente, o para explicar como opera, que contiene, que relaciones son necesarias para que “actúe”. Asuntos esenciales en la explicación de las funciones de la mente, como preguntarse si la realidad se construye, o mas bien ayuda a construir nuestros pensamientos, el problema de la dualidad, y el lenguaje como elemento creador, son algunos de los principales problemas.

Palabras clave: mente, dualismo, realismo, cognición, lenguaje, filósofos de la mente.

Abstract

This article endeavors to discuss the construction, representation, and some of the conceptions that aim to a philosophical explanation of the problem of the “mind”. The author points to some of the concepts elaborated by philosophers in the tradition, from Descartes to the language theorists, to show the “existence” of the mind, or to explain how it functions, what it contains, what kind of relations are needed for it to “act”. Some of the main topics dealt with in this paper are key issues in the explanation of mind's function, like asking whether reality is constructed or whether it helps us construct our thoughts; the question of duality; and the language as a creative element.

Key Words: philosophy of mind, dualism, realism, cognition, language.

* Licenciado en filosofía y letras de Universidad de Santo Tomás (Bogotá) y estudiante de la Especialización en Filosofía de la Ciencia en la Universidad El Bosque (Bogotá).

97

Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs 97-103

Maldonado, C. (2001). Visiones sobre la Complejidad. Bogotá: Universidad EL Bosque, 2 Ed.Monroe, DM, Hoffman, M. (2006). What does it take to make the perfect clot? Arterioscler Thromb Vasc Biol. 26: 41 48.Morin, E.( 1999). El Método: La Naturaleza de la Naturaleza. Madrid: Ediciones Cátedra.Owen, C. (1980). Hemostasis: past, present and future. Mayo Clin Proc. 55: 505 508.Prigogine I. (1997) ¿Tan sólo una ilusión? Una exploración del caos al orden. Metatemas 3, Barcelona: Metatemas, 4Ed.Standeven, KF, Ariens, RA, Grant, PJ. (2005). The molecular physiology and pathology of fibrin structure/function. Blood Reviews. 19: 275 288.Wagensberg, J. (1998). Ideas sobre la complejidad del mundo. Barcelona: Metatemas.

96

Buscando un nuevo lenguaje para la filosofía de la mente

Javier Ardila Romero*

Resumen

Este artículo intenta discutir la construcción, representación, y algunas de las concepciones referentes a explicar filosóficamente el problema de la “MENTE”. El autor muestra algunos de los conceptos que tradicionalmente han construido los filósofos desde Descartes hasta los teóricos del lenguaje- para mostrar la “existencia” de la mente, o para explicar como opera, que contiene, que relaciones son necesarias para que “actúe”. Asuntos esenciales en la explicación de las funciones de la mente, como preguntarse si la realidad se construye, o mas bien ayuda a construir nuestros pensamientos, el problema de la dualidad, y el lenguaje como elemento creador, son algunos de los principales problemas.

Palabras clave: mente, dualismo, realismo, cognición, lenguaje, filósofos de la mente.

Abstract

This article endeavors to discuss the construction, representation, and some of the conceptions that aim to a philosophical explanation of the problem of the “mind”. The author points to some of the concepts elaborated by philosophers in the tradition, from Descartes to the language theorists, to show the “existence” of the mind, or to explain how it functions, what it contains, what kind of relations are needed for it to “act”. Some of the main topics dealt with in this paper are key issues in the explanation of mind's function, like asking whether reality is constructed or whether it helps us construct our thoughts; the question of duality; and the language as a creative element.

Key Words: philosophy of mind, dualism, realism, cognition, language.

* Licenciado en filosofía y letras de Universidad de Santo Tomás (Bogotá) y estudiante de la Especialización en Filosofía de la Ciencia en la Universidad El Bosque (Bogotá).

97

Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs 97-103

Maldonado, C. (2001). Visiones sobre la Complejidad. Bogotá: Universidad EL Bosque, 2 Ed.Monroe, DM, Hoffman, M. (2006). What does it take to make the perfect clot? Arterioscler Thromb Vasc Biol. 26: 41 48.Morin, E.( 1999). El Método: La Naturaleza de la Naturaleza. Madrid: Ediciones Cátedra.Owen, C. (1980). Hemostasis: past, present and future. Mayo Clin Proc. 55: 505 508.Prigogine I. (1997) ¿Tan sólo una ilusión? Una exploración del caos al orden. Metatemas 3, Barcelona: Metatemas, 4Ed.Standeven, KF, Ariens, RA, Grant, PJ. (2005). The molecular physiology and pathology of fibrin structure/function. Blood Reviews. 19: 275 288.Wagensberg, J. (1998). Ideas sobre la complejidad del mundo. Barcelona: Metatemas.

96

“Aquí, como en todas partes, la epistemologíaprecede a la metafísica y nos impulsa hacia ella”

(Rorty, 1983, p. 106).

Nos hemos preguntado alguna vez “hay algo o alguien más dentro de nosotros y ese algo o alguien es diferente de nosotros”, esta sospecha de mínimo sentido común, tiene también una respuesta de sentido común, al afirmarse que EXISTE LA MENTE. Este problema es asumido por la reflexión filosófica y para muchos profesionales del medio, tiene su origen en Descartes. El filósofo francés es clasificado por antonomasia como dualista a partir de la afirmación, el hombre es una doble sustancia compuesta por la res cogitans y la res extensa; pero a nuestro juicio Descartes no fue un dualista consecuente, sino que lo único que hizo fue incurrir en errores conceptuales y categoriales al haber confundido los ámbitos ontológico y epistemológico, además de no hacer una adecuada relación de origen entre los dos aspectos mencionados.

Así las cosas afirmamos que Descartes “inventó” la mente humana, afirmándola no como “razón” sino como escenario interno en donde ocurren las representaciones, de manera que la mente se erige como la garantía de las certezas epistemológicas; es como si de alguna manera persistiera en Descartes el afán platónico de negar el valor de verdad a lo sensible y por necesidad lógica concede tal valor a lo mental, y como lo mental en Descartes es una sustancia, esto garantiza su éxito epistemológico, he aquí el primer gran error categorial, pues por necesidad metodológica convier te una representación (idea) en una sustancia; es por tanto, claro para nosotros que el pensador francés asume este juego lingüístico para justificar su actitud escéptica fundacionista.

De otra parte el contexto histórico-filosófico en el que se mueve Descartes, asume la unicidad acrítica de la filosofía, que para la época se traduce en una concepción fundacionista de la filosofía( Rorty 1983, p.183), es por lo mismo que Descartes recae en una metafísica dualista no de sustancias, sino de representaciones, pues por fuerza de razón lo ontológico no admite el dualismo, si se nos permite afirmar aquí, que el dualismo en cualquiera de sus formas es una consecuencia de corte epistemológico, podemos concluir que el dualismo cartesiano no es una realidad, sino un recurso metodológico , es así como en la segunda meditación Descartes queriendo sustentar su escepticismo fundante afirma “¿Qué es, pues lo que antes he creído ser?...He pensado sin dificultad que era un hombre. Más ¿Qué es un hombre?”. ¿Diré que es un animal racional? (Descartes, 1984, p. 53)”.Nótese que en este punto Descartes quiere desvirtuar las concepciones antropológicas griegas, pero con un interés metodológico-epistemológico.

Continúa diciendo en la segunda meditación “Más bien me detendré en considerar aquí los pensamientos que antes nacían por si mismos en mi espíritu y que no me eran inspirados sino por mi propia naturaleza cuando me aplicaba a la consideración de mi ser”… Aquí de nuevo Descartes acude al solipsismo metodológico que le permite partir de una intuición original y fundante en su afán de garantizar las certezas, así recae en una metafísica de sus propias representaciones, pues aunque enseguida argumenta sobre las características físicas y materiales de la máquina que piensa, solo lo hace como relación analógica negativa que se traduce en un dualismo de sustancias según Descartes. Más adelante asume al pensamiento como un atributo que le pertenece y que este existe como relación de necesidad al cuerpo. Ahora bien, Descartes asegura así su dualismo epistemológico-metodológico de sustancias y esto a todas luces es un tremendo error categorial; pero a nuestro juicio este supuesto dualismo de sustancias puede ser neutralizado como expresión de éxito (Stove, 1995, p, 40), si tenemos en cuenta lo que el mismo Descartes afirma en su segunda meditación “sea así; no obstante, es al menos cierto que me parece ver la luz, oír ruido y sentir calor; esto no puede ser falso, y es propiamente esto lo que en mí se denomina sentir: eso precisamente no es otra

1cosa que pensar (Descartes, 1984, p. 57) . De donde empiezo a conocer con un poco más de claridad que anteriormente”. Llegados a este punto vemos que efectivamente aquí no hay dualismo de sustancias como comúnmente se afirma, sino un dualismo de hechos, que al pasar a ser representaciones del sujeto y ser justificadas metodológicamente, donan a la filosofía un problema que se convierte en lastre, como lo diría Rorty hay un exceso de epistemología y si somos un tanto más osados podemos afirmar que en ninguno de sus usos cabe el dualismo en Descartes.

Cumplido así nuestro primer propósito es decir neutralizar desde las mismas palabras de Descartes el dualismo como expresión de éxito y de paso neutralizando el término MENTE podemos acceder a nuevas interpretaciones del problema con un poco de independencia del principio de autoridad, pues, si tenemos en cuenta que la confusión categorial cartesiana posibilitó la invención de la mente como Rorty ha mostrado, ello ejerció mucha influencia para la reflexión posterior.

Así, si no se quiere caer en el dualismo es necesario asumir que la mente como uno de los elementos de tal categoría aparece a partir de un diálogo epistemológico del sujeto consigo mismo, dicho diálogo en principio tiene una intención metodológica; pero evoluciona hasta convertirse arbitrariamente en una evidencia epistemológica con negativas implicaciones ontológicas. Metafóricamente es como si un sujeto hombre se viera por primera vez frente a

1 El subrayado es nuestro.

9998

Buscando un nuevo lenguaje para la filosofía de la mente Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs 97-103

“Aquí, como en todas partes, la epistemologíaprecede a la metafísica y nos impulsa hacia ella”

(Rorty, 1983, p. 106).

Nos hemos preguntado alguna vez “hay algo o alguien más dentro de nosotros y ese algo o alguien es diferente de nosotros”, esta sospecha de mínimo sentido común, tiene también una respuesta de sentido común, al afirmarse que EXISTE LA MENTE. Este problema es asumido por la reflexión filosófica y para muchos profesionales del medio, tiene su origen en Descartes. El filósofo francés es clasificado por antonomasia como dualista a partir de la afirmación, el hombre es una doble sustancia compuesta por la res cogitans y la res extensa; pero a nuestro juicio Descartes no fue un dualista consecuente, sino que lo único que hizo fue incurrir en errores conceptuales y categoriales al haber confundido los ámbitos ontológico y epistemológico, además de no hacer una adecuada relación de origen entre los dos aspectos mencionados.

Así las cosas afirmamos que Descartes “inventó” la mente humana, afirmándola no como “razón” sino como escenario interno en donde ocurren las representaciones, de manera que la mente se erige como la garantía de las certezas epistemológicas; es como si de alguna manera persistiera en Descartes el afán platónico de negar el valor de verdad a lo sensible y por necesidad lógica concede tal valor a lo mental, y como lo mental en Descartes es una sustancia, esto garantiza su éxito epistemológico, he aquí el primer gran error categorial, pues por necesidad metodológica convier te una representación (idea) en una sustancia; es por tanto, claro para nosotros que el pensador francés asume este juego lingüístico para justificar su actitud escéptica fundacionista.

De otra parte el contexto histórico-filosófico en el que se mueve Descartes, asume la unicidad acrítica de la filosofía, que para la época se traduce en una concepción fundacionista de la filosofía( Rorty 1983, p.183), es por lo mismo que Descartes recae en una metafísica dualista no de sustancias, sino de representaciones, pues por fuerza de razón lo ontológico no admite el dualismo, si se nos permite afirmar aquí, que el dualismo en cualquiera de sus formas es una consecuencia de corte epistemológico, podemos concluir que el dualismo cartesiano no es una realidad, sino un recurso metodológico , es así como en la segunda meditación Descartes queriendo sustentar su escepticismo fundante afirma “¿Qué es, pues lo que antes he creído ser?...He pensado sin dificultad que era un hombre. Más ¿Qué es un hombre?”. ¿Diré que es un animal racional? (Descartes, 1984, p. 53)”.Nótese que en este punto Descartes quiere desvirtuar las concepciones antropológicas griegas, pero con un interés metodológico-epistemológico.

Continúa diciendo en la segunda meditación “Más bien me detendré en considerar aquí los pensamientos que antes nacían por si mismos en mi espíritu y que no me eran inspirados sino por mi propia naturaleza cuando me aplicaba a la consideración de mi ser”… Aquí de nuevo Descartes acude al solipsismo metodológico que le permite partir de una intuición original y fundante en su afán de garantizar las certezas, así recae en una metafísica de sus propias representaciones, pues aunque enseguida argumenta sobre las características físicas y materiales de la máquina que piensa, solo lo hace como relación analógica negativa que se traduce en un dualismo de sustancias según Descartes. Más adelante asume al pensamiento como un atributo que le pertenece y que este existe como relación de necesidad al cuerpo. Ahora bien, Descartes asegura así su dualismo epistemológico-metodológico de sustancias y esto a todas luces es un tremendo error categorial; pero a nuestro juicio este supuesto dualismo de sustancias puede ser neutralizado como expresión de éxito (Stove, 1995, p, 40), si tenemos en cuenta lo que el mismo Descartes afirma en su segunda meditación “sea así; no obstante, es al menos cierto que me parece ver la luz, oír ruido y sentir calor; esto no puede ser falso, y es propiamente esto lo que en mí se denomina sentir: eso precisamente no es otra

1cosa que pensar (Descartes, 1984, p. 57) . De donde empiezo a conocer con un poco más de claridad que anteriormente”. Llegados a este punto vemos que efectivamente aquí no hay dualismo de sustancias como comúnmente se afirma, sino un dualismo de hechos, que al pasar a ser representaciones del sujeto y ser justificadas metodológicamente, donan a la filosofía un problema que se convierte en lastre, como lo diría Rorty hay un exceso de epistemología y si somos un tanto más osados podemos afirmar que en ninguno de sus usos cabe el dualismo en Descartes.

Cumplido así nuestro primer propósito es decir neutralizar desde las mismas palabras de Descartes el dualismo como expresión de éxito y de paso neutralizando el término MENTE podemos acceder a nuevas interpretaciones del problema con un poco de independencia del principio de autoridad, pues, si tenemos en cuenta que la confusión categorial cartesiana posibilitó la invención de la mente como Rorty ha mostrado, ello ejerció mucha influencia para la reflexión posterior.

Así, si no se quiere caer en el dualismo es necesario asumir que la mente como uno de los elementos de tal categoría aparece a partir de un diálogo epistemológico del sujeto consigo mismo, dicho diálogo en principio tiene una intención metodológica; pero evoluciona hasta convertirse arbitrariamente en una evidencia epistemológica con negativas implicaciones ontológicas. Metafóricamente es como si un sujeto hombre se viera por primera vez frente a

1 El subrayado es nuestro.

9998

Buscando un nuevo lenguaje para la filosofía de la mente Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs 97-103

un espejo, en principio tal sujeto creyera que es otro el que allí aparece, lo mismo sucede cuando un chimpancé adulto vive la misma experiencia, pero el experimento muestra como el animal se habitúa a su imagen y a nuestro juicio el problema termina allí, pues el chimpancé no asume expresiones lingüísticas que nos permitan identificar a posteriori lo que sucede, por demás como no queremos hacer metafísica de representaciones animales y por su parte, el animal no se toma el trabajo de justificar metodológica ó epistemológicamente el problema y por supuesto a nivel ontológico el chimpancé sigue siendo uno.

Remitiéndonos al sujeto humano en cuanto a que este al crear una representación del evento de mirarse al espejo, inicia a su vez un diálogo interno, en donde asume que hay una mente y que esta es diferente del cuerpo, allí aparece la sospecha o si se quiere la intuición de que hay algo alguien diferente dentro del sujeto; por tanto aparece el dualismo. Ahora bien, esto es normal en el proceso epistemológico humano, la sospecha es válida, lo que no es normal es que se busquen justificaciones filosóficas a una intuición metafísica, ya sea con criterio metodológico como arriba mostramos en Descartes o como lo muestra Rorty cuando trata el problema del neodualismo en Smart y Ryle; pues los dos filósofos hacen una distinción intuitiva de lo físico material y lo mental; aunque los dos quieren pasar por monistas.

Creemos pues que el error a parte de ser categorial como en Descartes, es de actitud filosófica, pues se cae en justificaciones filosóficas de intuiciones metafísicas. Rorty nos dice “Smart sugiere que hablar de lo mental es referirse a estados mentales” y continúa diciendo “Ryle afirma que referirse a entidades mentales es hablar de disposiciones de comportamiento” (Rorty, 1983, p. 25).

Nótese que tanto el materialismo de Smart y el conductismo de Ryle usan analogías para referirse a lo mental, al poner de forma intuitiva e implícita un segundo elemento; es decir que sin darse cuenta su discurso epistemológico analógico los sitúa como dualistas, por ello tampoco superan el dualismo cartesiano. Creemos que Rorty neutraliza las expresiones de éxito monista en Smart y Ryle, descartando un seudo problema para la filosofía de la mente.

En lo sucesivo muchos fueron los intentos por asumir el nuevo problema de la mente creado por Descartes, ya sea desde perspectivas monistas o desde concepciones dualistas con sus respectivas variaciones.

Uno de los momentos representativos de este proceso es el funcionalismo y este asume que hay un procesamiento interno cerebral, algunos también nombran a esta actitud como cognitivismo. Se parte pues de la premisa que hay un organismo biológico que presenta funciones, realizaciones múltiples, diversas formas lingüistas de manifestarse. En cualquiera de sus usos el funcionalismo

incluso desde Aristóteles busca minimizar los inconvenientes surgidos del dualismo.

En la misma perspectiva el interaccionismo psicofísico asume que mente y cuerpo son uno mismo, pero en su uso lingüístico intuye dos sustancias diferentes, así se mantienen en el marco del dualismo, o bien no crean un uso lingüístico acorde a sus propuestas; autores como Smart y Eccles son prueba de ello. Una variación dualista del interaccionismo es el epifenomenalismo, el cual afirma que los eventos físicos producen eventos mentales, aquí persiste la categoría dual al asumir la independencia de uno y otro eventos como sucede con el paralelismo psicofísico que diferencia a los objetos físicos o de la naturaleza y a los objetos mentales como competencias diferentes aunque coexistentes. Lo que subyace aquí es el viejo conflicto epistemológico del idealismo y el realismo en cuanto a la constitución de la realidad, por tanto este es un intento dualista.

Otras variables del problema se presentan a través del coneccionismo, expresado de manera un tanto oscura como procesamiento paralelo distributivo y el emergentismo que asume que del organismo biológico surgen unos productos mentales y/o de pensamiento como sugiere Searle. Puede aquí ubicarse además la teoría de la realización múltiple que es una forma de funcionalismo de corte materialista en donde se acepta un sustrato físico con funciones; pareciera que el conjunto de funciones fuera la mente; a nuestro juicio este es un discurso mentalista indirecto; Putnam trabaja en esta perspectiva, asumiendo además que hay actitudes proposicionales, que en su propia concepción no dejan de ser discutibles. En fin ya sea que se acepten como dualistas o no, es claro que los intentos antes mencionados recurren a una lógica del discurso mentalista.

Así las cosas, queda la otra cara de la moneda; es decir, las propuestas monistas radicales, y decimos radicales pues el mismo Putnam y otros autores buscan la identidad pero aún manteniendo el discurso mentalista, por el contrario los monistas asumen un materialismo y aunque hay muchos intentos desde la teoría de la identidad, nos interesa el materialismo eliminativo; es decir que cuando la filosofía de la mente permea sus competencias naturales y accede a visiones científicas y cientificistas, surgen los intentos reduccionistas. La forma más agresiva de este proceder es la propuesta de Churchland quien desde una postura positivista propone eliminar nuestro lenguaje ordinario sobre la mente, recurrir a elementos de la ciencia para disolver y eliminar el problema ontológico (recordemos que esto es posible neutralizando expresiones de éxito, no es necesario eliminar), eliminar las concepciones de la sicología popular y además eliminar las actitudes proposicionales, entre otras. Así afirmamos enfáticamente que este es un intento que excede la actitud reflexiva de la

101100

Buscando un nuevo lenguaje para la filosofía de la mente Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs 97-103

un espejo, en principio tal sujeto creyera que es otro el que allí aparece, lo mismo sucede cuando un chimpancé adulto vive la misma experiencia, pero el experimento muestra como el animal se habitúa a su imagen y a nuestro juicio el problema termina allí, pues el chimpancé no asume expresiones lingüísticas que nos permitan identificar a posteriori lo que sucede, por demás como no queremos hacer metafísica de representaciones animales y por su parte, el animal no se toma el trabajo de justificar metodológica ó epistemológicamente el problema y por supuesto a nivel ontológico el chimpancé sigue siendo uno.

Remitiéndonos al sujeto humano en cuanto a que este al crear una representación del evento de mirarse al espejo, inicia a su vez un diálogo interno, en donde asume que hay una mente y que esta es diferente del cuerpo, allí aparece la sospecha o si se quiere la intuición de que hay algo alguien diferente dentro del sujeto; por tanto aparece el dualismo. Ahora bien, esto es normal en el proceso epistemológico humano, la sospecha es válida, lo que no es normal es que se busquen justificaciones filosóficas a una intuición metafísica, ya sea con criterio metodológico como arriba mostramos en Descartes o como lo muestra Rorty cuando trata el problema del neodualismo en Smart y Ryle; pues los dos filósofos hacen una distinción intuitiva de lo físico material y lo mental; aunque los dos quieren pasar por monistas.

Creemos pues que el error a parte de ser categorial como en Descartes, es de actitud filosófica, pues se cae en justificaciones filosóficas de intuiciones metafísicas. Rorty nos dice “Smart sugiere que hablar de lo mental es referirse a estados mentales” y continúa diciendo “Ryle afirma que referirse a entidades mentales es hablar de disposiciones de comportamiento” (Rorty, 1983, p. 25).

Nótese que tanto el materialismo de Smart y el conductismo de Ryle usan analogías para referirse a lo mental, al poner de forma intuitiva e implícita un segundo elemento; es decir que sin darse cuenta su discurso epistemológico analógico los sitúa como dualistas, por ello tampoco superan el dualismo cartesiano. Creemos que Rorty neutraliza las expresiones de éxito monista en Smart y Ryle, descartando un seudo problema para la filosofía de la mente.

En lo sucesivo muchos fueron los intentos por asumir el nuevo problema de la mente creado por Descartes, ya sea desde perspectivas monistas o desde concepciones dualistas con sus respectivas variaciones.

Uno de los momentos representativos de este proceso es el funcionalismo y este asume que hay un procesamiento interno cerebral, algunos también nombran a esta actitud como cognitivismo. Se parte pues de la premisa que hay un organismo biológico que presenta funciones, realizaciones múltiples, diversas formas lingüistas de manifestarse. En cualquiera de sus usos el funcionalismo

incluso desde Aristóteles busca minimizar los inconvenientes surgidos del dualismo.

En la misma perspectiva el interaccionismo psicofísico asume que mente y cuerpo son uno mismo, pero en su uso lingüístico intuye dos sustancias diferentes, así se mantienen en el marco del dualismo, o bien no crean un uso lingüístico acorde a sus propuestas; autores como Smart y Eccles son prueba de ello. Una variación dualista del interaccionismo es el epifenomenalismo, el cual afirma que los eventos físicos producen eventos mentales, aquí persiste la categoría dual al asumir la independencia de uno y otro eventos como sucede con el paralelismo psicofísico que diferencia a los objetos físicos o de la naturaleza y a los objetos mentales como competencias diferentes aunque coexistentes. Lo que subyace aquí es el viejo conflicto epistemológico del idealismo y el realismo en cuanto a la constitución de la realidad, por tanto este es un intento dualista.

Otras variables del problema se presentan a través del coneccionismo, expresado de manera un tanto oscura como procesamiento paralelo distributivo y el emergentismo que asume que del organismo biológico surgen unos productos mentales y/o de pensamiento como sugiere Searle. Puede aquí ubicarse además la teoría de la realización múltiple que es una forma de funcionalismo de corte materialista en donde se acepta un sustrato físico con funciones; pareciera que el conjunto de funciones fuera la mente; a nuestro juicio este es un discurso mentalista indirecto; Putnam trabaja en esta perspectiva, asumiendo además que hay actitudes proposicionales, que en su propia concepción no dejan de ser discutibles. En fin ya sea que se acepten como dualistas o no, es claro que los intentos antes mencionados recurren a una lógica del discurso mentalista.

Así las cosas, queda la otra cara de la moneda; es decir, las propuestas monistas radicales, y decimos radicales pues el mismo Putnam y otros autores buscan la identidad pero aún manteniendo el discurso mentalista, por el contrario los monistas asumen un materialismo y aunque hay muchos intentos desde la teoría de la identidad, nos interesa el materialismo eliminativo; es decir que cuando la filosofía de la mente permea sus competencias naturales y accede a visiones científicas y cientificistas, surgen los intentos reduccionistas. La forma más agresiva de este proceder es la propuesta de Churchland quien desde una postura positivista propone eliminar nuestro lenguaje ordinario sobre la mente, recurrir a elementos de la ciencia para disolver y eliminar el problema ontológico (recordemos que esto es posible neutralizando expresiones de éxito, no es necesario eliminar), eliminar las concepciones de la sicología popular y además eliminar las actitudes proposicionales, entre otras. Así afirmamos enfáticamente que este es un intento que excede la actitud reflexiva de la

101100

Buscando un nuevo lenguaje para la filosofía de la mente Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs 97-103

filosofía de la mente, por ello aunque con sus titubeos dualistas preferimos los intentos de identidad y los monismos menos radicales.

Llegados a este punto es importante aclarar que nuestro propósito no es asumir de forma negativa el dualismo, pues ello implicaría un eliminacionismo ontológico al estilo de Churchland, tampoco asumir de forma acrítica el monismo, pues no se trata de evadir problemas o en el peor de los casos al estilo del primer Wittgenstein, disolver los problemas filosóficos como enredos del lenguaje. Nuestra propuesta es ambiciosa en cuanto a que buscamos bloquear y neutralizar (no eliminar) el término mente como expresión de éxito para la filosofía, de allí podemos acceder a una nueva posibilidad, asumiendo que hay un hecho ontológico inequívoco como lo es el lenguaje humano; este es asumido como las representaciones epistemológicas de un sujeto individual, donadas hacia afuera en un acto público, es decir cuando un sujeto sale de su mundo privado y comparte sus representaciones, que a su vez son el resultado del acto subjetivo de la constitución del mundo, de la realidad hecha por dicho sujeto; en fin el sujeto primero constituye su mundo en un acto privado y luego lo representa a través del lenguaje como un acto público.

De esto se desprende que si nos dedicamos a hacer especulación sobre las constituciones y/o representaciones internas privadas, incurrimos en la ya criticada metafísica de las representaciones. Así entonces, siguiendo a Searle cuando afirma “que no importa la mente, sino sus productos y construcciones”, es decir que no hay que buscar justificaciones a una intuición, sino de manera pragmática asumir que el pensamiento se evidencia a través del lenguaje y que a su vez el lenguaje es intencional en cuanto a que el sujeto asocia representaciones y están son emitidas hacia lo público; es importante frente a esta posibilidad no caer en intentos verificacionistas.

En definitiva, el lenguaje es un producto humano, no es una función, no es un estado mental incierto ni de corte metafísico, no es el resultado de una interacción o de un evento mental dado por otro evento físico; es decir el lenguaje es un producto más de un ser complejo que produce otra serie de productos; así como un ser humano produce sudor y de este podemos extraer información genética del ADN, su estructura química, etc, pero en ningún caso excediendo los datos objetivos, que en últimas es lo mismo que evitar elucubraciones metafísicas o dicho de otra forma como lo enuncia Bechtel cuando diferencia las expresiones referenciales de las no referenciales con respecto a una realidad. Del lenguaje sólo debemos extraer lo que el mismo trae como información de las representaciones de un sujeto, sólo en la medida en que asumiendo una intencionalidad del lenguaje que no sea confundida con la conciencia, podemos llegar a algo en claro sobre el pensamiento; es decir no más concepciones esencialistas de la intencionalidad del lenguaje, nótese que

aquí, ya no se habla de la intencionalidad de la conciencia, pues debemos desprendernos de la jerga filosófica sobre lo mental; entonces de lo que se trata es de bloquear una expresión que tuvo éxito filosófico pero que a su vez nos impidió ver el problema desde otras perspectivas.

Ahora bien, lo que se desprende de lo anterior y no a manera conclusiones, sino de itinerario investigativo, pues este ensayo solo pretende ser una reflexión que posibilite continuar con una lectura ahora menos ingenua sobre los problemas del pensamiento intencional. Por ello, debemos tratar de no caer en eliminacionismos materialistas de corte científico genético u otros intentos reduccionistas y no asumir lenguajes mentalistas, cognitivistas, ni recaer en dualismos.

Asumir que el problema del pensamiento humano en cuanto a que intencional debe mantenerse en su escenario natural como lo es la filosofía, pues ya las neurociencias mostraron que solo pueden dar una interpretación neuronal muy reducida del problema.

Todo intento pragmático lingüístico que no exceda los límites de la información contenida de forma natural en el lenguaje debe ser tenido en cuenta.No acceder de forma acrítica a explicar un organismo vivo, complejo que produce pensamientos, a través del modelo de la teoría computacional de la mente, pues como lo muestra Searle “las máquinas manipulan signos no significados” (Searle, 1985, p. 34). Las propiedades relacionales del pensamiento, las que produce el lenguaje, solo pueden ser aclaradas si se concede un estatus lingüístico de corte pragmático, no metafísico, sin caer en la categoría de estados mentales, pues es claro por lo antes dicho que entraríamos una vez más en una lógica mentalista.

Bibliografía

Bechtel, W. (1971). Filosofía de la mente, una panorámica para la ciencia cognitiva. Madrid: Tecnos.Descartes, R. (1984). Meditaciones metafísicas. México: Ediciones Alba.Rorty, R. (1983). La filosofía y el espejo de la naturaleza. Madrid: Ediciones Cátedra.Searle, J. (1985). Mentes, cerebros y ciencia. Madrid: Ediciones Cátedra.Stove, D. (1995). Popper y después: cuatro irracionalistas contemporáneos. Madrid: Tecnos.

103102

Buscando un nuevo lenguaje para la filosofía de la mente Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs 97-103

filosofía de la mente, por ello aunque con sus titubeos dualistas preferimos los intentos de identidad y los monismos menos radicales.

Llegados a este punto es importante aclarar que nuestro propósito no es asumir de forma negativa el dualismo, pues ello implicaría un eliminacionismo ontológico al estilo de Churchland, tampoco asumir de forma acrítica el monismo, pues no se trata de evadir problemas o en el peor de los casos al estilo del primer Wittgenstein, disolver los problemas filosóficos como enredos del lenguaje. Nuestra propuesta es ambiciosa en cuanto a que buscamos bloquear y neutralizar (no eliminar) el término mente como expresión de éxito para la filosofía, de allí podemos acceder a una nueva posibilidad, asumiendo que hay un hecho ontológico inequívoco como lo es el lenguaje humano; este es asumido como las representaciones epistemológicas de un sujeto individual, donadas hacia afuera en un acto público, es decir cuando un sujeto sale de su mundo privado y comparte sus representaciones, que a su vez son el resultado del acto subjetivo de la constitución del mundo, de la realidad hecha por dicho sujeto; en fin el sujeto primero constituye su mundo en un acto privado y luego lo representa a través del lenguaje como un acto público.

De esto se desprende que si nos dedicamos a hacer especulación sobre las constituciones y/o representaciones internas privadas, incurrimos en la ya criticada metafísica de las representaciones. Así entonces, siguiendo a Searle cuando afirma “que no importa la mente, sino sus productos y construcciones”, es decir que no hay que buscar justificaciones a una intuición, sino de manera pragmática asumir que el pensamiento se evidencia a través del lenguaje y que a su vez el lenguaje es intencional en cuanto a que el sujeto asocia representaciones y están son emitidas hacia lo público; es importante frente a esta posibilidad no caer en intentos verificacionistas.

En definitiva, el lenguaje es un producto humano, no es una función, no es un estado mental incierto ni de corte metafísico, no es el resultado de una interacción o de un evento mental dado por otro evento físico; es decir el lenguaje es un producto más de un ser complejo que produce otra serie de productos; así como un ser humano produce sudor y de este podemos extraer información genética del ADN, su estructura química, etc, pero en ningún caso excediendo los datos objetivos, que en últimas es lo mismo que evitar elucubraciones metafísicas o dicho de otra forma como lo enuncia Bechtel cuando diferencia las expresiones referenciales de las no referenciales con respecto a una realidad. Del lenguaje sólo debemos extraer lo que el mismo trae como información de las representaciones de un sujeto, sólo en la medida en que asumiendo una intencionalidad del lenguaje que no sea confundida con la conciencia, podemos llegar a algo en claro sobre el pensamiento; es decir no más concepciones esencialistas de la intencionalidad del lenguaje, nótese que

aquí, ya no se habla de la intencionalidad de la conciencia, pues debemos desprendernos de la jerga filosófica sobre lo mental; entonces de lo que se trata es de bloquear una expresión que tuvo éxito filosófico pero que a su vez nos impidió ver el problema desde otras perspectivas.

Ahora bien, lo que se desprende de lo anterior y no a manera conclusiones, sino de itinerario investigativo, pues este ensayo solo pretende ser una reflexión que posibilite continuar con una lectura ahora menos ingenua sobre los problemas del pensamiento intencional. Por ello, debemos tratar de no caer en eliminacionismos materialistas de corte científico genético u otros intentos reduccionistas y no asumir lenguajes mentalistas, cognitivistas, ni recaer en dualismos.

Asumir que el problema del pensamiento humano en cuanto a que intencional debe mantenerse en su escenario natural como lo es la filosofía, pues ya las neurociencias mostraron que solo pueden dar una interpretación neuronal muy reducida del problema.

Todo intento pragmático lingüístico que no exceda los límites de la información contenida de forma natural en el lenguaje debe ser tenido en cuenta.No acceder de forma acrítica a explicar un organismo vivo, complejo que produce pensamientos, a través del modelo de la teoría computacional de la mente, pues como lo muestra Searle “las máquinas manipulan signos no significados” (Searle, 1985, p. 34). Las propiedades relacionales del pensamiento, las que produce el lenguaje, solo pueden ser aclaradas si se concede un estatus lingüístico de corte pragmático, no metafísico, sin caer en la categoría de estados mentales, pues es claro por lo antes dicho que entraríamos una vez más en una lógica mentalista.

Bibliografía

Bechtel, W. (1971). Filosofía de la mente, una panorámica para la ciencia cognitiva. Madrid: Tecnos.Descartes, R. (1984). Meditaciones metafísicas. México: Ediciones Alba.Rorty, R. (1983). La filosofía y el espejo de la naturaleza. Madrid: Ediciones Cátedra.Searle, J. (1985). Mentes, cerebros y ciencia. Madrid: Ediciones Cátedra.Stove, D. (1995). Popper y después: cuatro irracionalistas contemporáneos. Madrid: Tecnos.

103102

Buscando un nuevo lenguaje para la filosofía de la mente Revista Colombiana de Filosofía de la Ciencia • Vol. VIII - Nos. 16 y 17 • 2007 • Págs 97-103

CONTENIDO