Cibernéticos zen

La rebelión contra la ideología cibernética:
A los que creen que la máquina sustituirá al hombre o que el hombre se convertirá en máquina (ciberneticos punk) se le opone otro grupo que desde “adentro”, son conocedores de la computación, atacan las bases de la ideología cibernética y ven con cierto recelo la sobreestimación de las máquinas a espensa de la devaluación de la especie humana, aunque algunos piensen lo contrario: que son ellos quienes sobrevalúan las cualidades humanas y le niegan toda posibilidad a la máquina.

El físico Roger Penrose piensa que el problema no radica en las capacidades de las nuevas generaciones de computadoras, sino en que estas “nunca serán capaces de lograr la comprensión, inteligencia o discernimiento auténticos”.

John Searle, Considera que los estados mentales sólo pueden ser producidos por un sistema vivo y son una función de las propiedades bioquímicas del cerebro. Y define estados mentales, como un componente de la inteligencia. Estos estados mentales se identifican con el concepto de mente, y la mente está físicamente constituida por un substrato biológico, una corporabilidad. Y afirma que los computadores no pueden mas que poseer un substrato electrónico, por lo que no pueden tener estados mentales. Por lo tanto,no es justificable asignarles el termino inteligencia. Este abordaje hunde sus raíces en la teoría cartesiana de la relación entre mente y materia. Aún si un computador pudiese simular el funcionamiento de la mente humana, es tan solo una simulación, no una mente real. Puede servir como modelo para un estudio heurístico de la mente, pero no manifiesta verdaderos estados mentales, como ya hemos visto anteriormente, Searle ilustra su teoría con el argumento del cuarto chino, según el cual las computadoras son tan solo sistemas formales no interpretativos, sintaxis sin semántica (*), que no tienen consciencia del significado de la información que están manejando. Estos símbolos están cargados de sentido para nosotros, pero no tienen significados intrínseco para el computador.

(*) Una idea similar fue expresada por el propio Minsky en su época de “zarrapastroso” cuando en su critica a los “pulcros” sostenía junto a Schank, que la estrategia correcta consistía en descubrir y modelizar como se comporta la gente y afirmaba que la manera que la gente tiene de pensar tiene poco que ver con la lógica la cual al igual que la matemática es todo forma y nada contenido y creía que la sintaxis era prácticamente inútil para todo. Pienso que casi todos los cibernéticos con posiciones humanistas han recibido una gran influencia de Minsky como investigador a pesar de las incongruencias en sus conclusiones ideológicas, mas bien yo diría: cuando se deja arrastrar por el pensamiento vigente en la ciencia ficción.

Hubert Dreyfus, tal vez el mas humanista de todos dice: “Nuestra inteligencia no solo consiste en lo que sabemos sino también en lo que somos; el funcionamiento de los ordenadores es secuencial y el proceso del pensamiento es continuo; por lo que no podemos comunicarnos con ellos porque no comparten nuestro contexto”.

Y sostiene, desde un punto de vista filosófico fenomenológico, que las características esenciales de la experiencia humana no pueden ser captadas por modelos formales del tipo de la IA, porque se arraigan en la experiencia corporal y en tradiciones sociales sin expresión verbal.

Terry Winograd, uno de los grandes de la Inteligencia Artificial, quien fuera conocido por su programa SHRDLU que era capaz no sólo de realizar operaciones complejas en los llamados mundos de bloques, sino también de dar respuesta del porque de su conducta en lenguaje natural. Para los neófitos, los mundos de bloque eran mundos simplificados (hoy se les llama despectivamente mundos de juguetes), donde se trataba de poner a prueba la inteligencia de los programas y sacar conclusiones sobre el aprendizaje, el lenguaje hablado o natural, las formas del razonamiento, etc. Y SHRDLU a finales de los años 60 fue todo un acontecimiento, sobre todo por su manejo del lenguaje natural que lo convirtió en un paradigma de la IA.

Winograd cree que la concepción de la mente humana que se esconde tras las teorías sobre la IA es “vacía e inapropiada”. En su opinión el problema no radica en “el desarrollo insuficiente de la tecnología” sino “en lo inadecuado de sus principios básicos”. Afirma que no hay razones para pensar que nos hallamos más cerca de la esencia de la IA de lo que los alquimistas se hallaban de la física nuclear.

Según Winograd, “el concepto de sistema simbólico en si es propiamente lingüístico y lo que los investigadores desarrollan en sus programas es en realidad un modelo de argumento verbal, y no del funcionamiento del cerebro”. En su opinión será preciso llegar a un entendimiento más profundo de lo que es la inteligencia antes de que una máquina pueda tener creatividad, capacidad de reflexión y de juicio o incluso sentido común.

Para los que consideran a Winograd como una especie de “desertor” de los dogmas de la Inteligencia Artificial, les recuerdo que Minsky en los años 70 había llegado a la conclusión, de que a las computadoras nunca podrá llamarseles con propiedad “inteligentes” hasta que, de hecho, aprendan a aprender.

Una de las mayores criticas a la Inteligencia Artificial esta en la afirmación de que las máquinas carecen de intencionalidad, veamos al respecto el argumento de L. Suchman, quien cree que existe una diferencia esencial entre acción intencional y acción planeada, y denuncia que tanto en el cognitivismo como en la IA se produce una confusión crítica entre ambas idea. Desde la perspectiva cognitiva, entender el comportamiento significa descubrir el plan subyacente a cada acción, la lógica interna que guía cada acto de conducta. Es decir, la programación que supone la definición de fines, elección de medios y consecuencia de objetivos. Sin embargo, el comportamiento humano es esencialmente impreciso, abierto e indeterminado. Es cierto que el cognitivismo acepta la vaguedad e indeterminación en el comportamiento humano, pero contempla estas características como un defecto que debe ser superado aumentando la precisión del definición del plan. En otras palabras, el comportamiento es intencional, pero eso no significa que sea de facto un comportamiento planificado, ni tampoco que idealmente deba ser así. Por ello una descripción de dicho comportamiento en forma de reglas y algoritmos, como es el caso de la IA, no puede dar razón de su carácter intencional.

El español Javier Bustamante en su magnífico libro “Sociedad informatizada: ¿sociedad deshumanizada?”, del que estoy en deuda, dice: “Las investigaciones de la IA están relacionadas con la necesidad de conocernos tan profundamente y en detalle como sea posible. Aunque algunas veces este impulso esta promovido por aquellos que ostentan el poder de organizar la sociedad definiendo quien es humano y quien no, quien tiene el derecho a la condición de ciudadano y quien no. Cada modelo, cada metáfora de lo que somos nos fuerza a reenfocar la imagen que tenemos de nosotros mismos, hasta el punto de que aquellos que tienen el poder para definir lo que significa ser humano (según las épocas: filósofos, religiosos, políticos o científicos) tienen también la posibilidad de reconsiderar nuestro lugar en el mundo, nuestras capacidades y limitaciones”.

Y agrega: “La forma en que se construye el argumento a favor o en contra de la Inteligencia Artificial se asienta sobre las definiciones de estos conceptos básicos: actividad mental, intuición, inteligencia, intencionalidad. Sólo cuando en el contexto de un discurso que considere que toda mente tiene que tener un substrato humano cambie y hable de inteligencia no circunscrita a lo humano, se crean las condiciones necesarias para alumbrar una nueva metáfora de la inteligencia que descubre raciocinio en la computadora. Estas condicionantes del proceso de construcción de la metáfora computacional como metáfora de identidad se suman a las condicionantes mitológicas, históricas, sociales y políticas que hacen del computador la más poderosa metáfora de organización y control”.

Bustamante quien tiene una visión profunda de la dialéctica de las metáforas dice: “La metáfora de la IA no es seguramente el modelo definitivo de la mente. No tardará en llegar el día en que sea reemplazado por alguna otra basada en tecnologías que hoy ni siquiera podemos imaginar. Estas metáforas intentarán demostrar que esas futuras tecnologías no son alienantes, porque nos hablan de nosotros mismos, porque esencialmente ellas y nosotros formamos parte de o somos una misma realidad, y el circulo también se completa aplicando la metáfora biológica al diseño de nuevas formas tecnológicas. Pero para que todo esto sea posible, la vida o la sociedad o la inteligencia tienen que ser previamente definidas de forma reduccionista como un conjunto de procesos de información. Esta circularidad es una de las características de esta metáfora: no solo ofrece un modelo con el cual explicar su objeto, sino que además construye los términos en que dicho objeto se define”.

Para terminar con los cibernéticos humanistas o zen, escogí a Joseph Weizenbaum, al igual que Winograd es uno de los grandes de la IA. Como paradoja Wizenbaum desarrollo uno de los sistemas mas espectaculares dentro de la IA, el programa Eliza que si bien era un programa cuyo objetivo era la comprensión del lenguaje natural, su fama la obtuvo por la simulación que hacia a la forma de entrevistarse con un psicoanalista, lo cual dio a lugar a que muchas personas se sintieran estimuladas a contarle sus problemas personales a la computadora como si fuese su psicoanalista.

Weizenbaum es mucho más categórico que Winograd o quizás se sienta menos comprometido con la ideología de la IA, cuando afirma: “Las computadoras y los hombres no son especies del mismo genero y por lo tanto supone una precipitada antropomorfizacion de la computadora la que hacen los partidarios de la IA cuando preguntan cuanta inteligencia es posible otorgarle a un ordenador”.

Y señala algunas de las consecuencias de aceptar demasiado rápidamente la metáfora de la computadora como descripción adecuada de nosotros mismos y de nuestras instituciones sociales. En esta aceptación se corre el riesgo de ceder cualidades esencialmente humanas:
Dignidad, amor, confianza, entre otras ideas, a artefactos que no las merecen. Y se pregunta, si de alguna manera no somos ya esclavos de la computadora, no de la computadora real sino de la computadora metáfora.

Weizenbaum más que un científico es un humanista por eso su preocupación se sale del marco estrecho de la ideología científica y de su racionalismo instrumental al cual ataca cuando dice: “La victoria del racionalismo, nos ha llevado a una ignorancia todavía mayor a la que hemos ganado en un nuevo conformismo que nos permite decir todo cuanto puede ser dicho en los lenguajes funcionales de la razón instrumental, pero que nos prohíbe hacer mención de lo que yo mismo llamo la verdad viva”. O en este otro párrafo: “Se despoja a la ciencia de la posibilidad de ser guiada por standares auténticamente humanos, mientras que de ningún modo restringe el potencial de la ciencia para proporcionar al hombre fuerzas en constante aumento”.

Tampoco deja de ser interesante su atinada observación sobre la psicología: “La Psicología ha tratado desde hace mucho tiempo de hacerse “científica”, imitando a esa triunfal ciencia llamada física. Los psicólogos, sin embargo, parecieron no entender bien durante mucho tiempo que era, en realidad, lo que hacia que la física fuese, de alguna manera, mas ciencia que la psicología. Al igual que la sociología, tomo la más superficial de la física (su aparente preocupación por los números y las formulas matemáticas) como la esencia que hace de ella una ciencia…”.

Pero Weizenbaun pone el dedo en la ya cuando advierte: “Sólo podremos limitar la aplicación indiscriminada de computadores a la replicación de lo humano si mantenemos un concepto claro de lo que es propiamente humano excluyendo así a las computadoras de aquellas áreas de la vida en las que su intervención sería inapropiada.

Y propone dos clases de aplicaciones que consideran inapropiadas:
La primera se refiere al acoplamiento a un ordenador del sistema visual y el cerebro de un animal. Y se pregunta que especie de necesidad humana podría ser satisfecha con semejante “dispositivo” (de hecho esta alertando sobre el uso indiscriminado de las prótesis y su consecuencia inmediata dejar de ser humano para convertirse en ciborg).
La segunda que debería evitarse es aquella que pueda producir efectos irreversibles y no enteramente previsibles. Y con mayor razón si tal aplicación no responde a una necesidad humana que no pueda ser satisfecha por otros medios (aquí alerta sobre el peligro de ir delegando funciones humanas a las computadoras, tales como servir de Psiquiatras).

Quiero concluir este analisis sobre los cibernéticos humanistas con una frase suya: “Los conceptos relevantes no son ni tecnológicos, ni siquiera matemáticos, sino éticos”

Acerca de Alejandro Madruga

Licenciado en Cibernética Matematica. Trabajo el tema de la Inteligencia Artificial desde 1986. He publicado articulos y ensayos sobre la Cibernetica y las tendencias tecnologicas. También he publicados narraciones de ciencia ficción
Esta entrada fue publicada en Tendencias tecnológicas. Guarda el enlace permanente.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s