lunes, 28 de mayo de 2012

EL CEREBRO Y EL MITO DEL YO (57)

La mente no necesariamente es una propiedad únicamente biológica

Biológicamente hablando, tal vez sea irrelevante que la Red esté viva o no. Si consideramos que cada opinión, creencia o mensaje individual es un estímulo, entonces la Red actúa muy a la manera de la conciencia. Toma decisiones de consenso, rápidas, afirmativas o negativas, acerca de los estímulos de llegada, y genera una solución: sencillamente no hay tiempo para nada más.

Las discusiones de esta naturaleza plantean una pregunta primordial obvia: ¿es la mente una propiedad que sólo puede darse en el dominio de lo biológico, de los seres de carne y hueso?

Consideremos por un momento el vuelo. En el siglo XIII o XIV se concluyó que el vuelo es una propiedad biológica, basándose exclusivamente en que las criaturas vivientes eran los únicos objetos más pesados que el aire que volaban en ese entonces. En cambio, a comienzos del siglo XXI, todos sabemos que el vuelo no es una propiedad exclusiva de entidades biológicas. Igualmente, cabe preguntarse si la mente es una propiedad exclusivamente biológica. No parece que los computadores de hoy en día estén listos para tener una mente, pero ello puede deberse más a limitaciones de diseño arquitectónico que a limitaciones teóricas para crear mentes artificiales. En el caso del vuelo, el material cutáneo especializado, la cutícula y las plumas, ha demostrado su valor en la amalgama que vence la gravedad, como también lo han demostrado el plástico, la madera seca y diversos metales. No son los materiales sino el diseño lo que define la viabilidad.

Así pues, ¿es la "mente" una propiedad únicamente biológica o es en realidad una propiedad física, que en teoría podría ser soportada por una arquitectura no biológica? En otras palabras, ¿hay alguna duda de que la biología sea diferente de la física? El conocimiento científico acumulado en los últimos 100 años sugiere que la biología, con todo y su sorprendente complejidad, no difiere de los sistemas sujetos a las leyes de la física. Por tanto, sería posible generar la conciencia con base en un organismo físico, que fue lo que ocurrió en nuestro caso, y al cual llamamos "un sistema biológico".

En general, la gente se pregunta si será posible fabricar máquinas cuya naturaleza no sea biológica y que sean capaces de sustentar la conciencia, las cualias, la memoria y el darse cuenta de las cosas, que son las propiedades de la función del sistema nervioso que consideramos realmente importantes. ¿Podrán los computadores llegar a pensar algún día?

La respuesta es afirmativa; creemos que pueden y que lo harán, pero aquí la pregunta más pertinente es: ¿qué características físicas tendría y como se vería el sistema, antes de poder realizar las mismas tareas que el cerebro? O quizás, como algunos aún lo piensan. ¿hay algo desconocido, espectral o indefinible en el cerebro, eso que la filosofía ha llamado el "problema difícil"? Creo que el problema es más de grados de libertad físicos de la arquitectura funcional, que de la vida que caracteriza la biología en contra de la inercia que caracteriza la materia física.

Dado que toda mi vida he sido un fisiólogo de vertebrados, con algunas incursiones en el mundo invertebrado, he presentado en este libro una imagen de la conciencia que se materializa en un tipo particular de redes neurales o circuitos. Pero debo narrar una de las experiencias más alarmantes que he tenido al estudiar la función cerebral. En algunas discusiones con Roger Hanlin, en el laboratorio de biología marina de Woods Hole, supe que el pulpo es capaz de hazañas de inteligencia realmente extraordinarias. Había leído de los experimentos con pulpos de J. Z. Young (1989), en los cuales estos invertebrados resolvían problemas tan complejos como abrir un frasco para extraer un cangrejo de su interior. Con sólo la imagen visual y claves olfatorias que indicaban la presencia del cangrejo, y manipulando táctilmente el frasco, la criatura finalmente se dio cuenta de que al aplicar fuerza podía quitar la tapa. Posteriormente, ante el mismo problema, el animal abría la tapa inmediatamente para sacar el cangrejo y. sorprendentemente, era capaz de aprender esto en un solo ensayo. Ahora bien, lo más importante es que los pulpos pueden aprender observando a otros pulpos (figura 12.4). Lo alarmante aquí es que la organización del sistema nervioso de este animal es totalmente diferente de la que pensábamos era capaz de soportar este tipo de actividad en el cerebro de los vertebrados (ver Mirlos, 1993). Si nos enfrentamos al hecho de que existen dos soluciones posibles al problema de la "inteligencia", entonces podemos deducir que deben existir muchas otras arquitecturas con los elementos mínimos que sirvan de base para lo que consideramos necesario para la cognición y las cualias. Ahora bien, pese a haber observado una gran inteligencia en animales como el pulpo o la Sepia, estas criaturas de hecho podrían carecer de cualias. Sin embargo, pienso que observando su comportamiento se puede deducir que éste soporta la subjetividad. Según el principio de la parsimonia, quienes creen que estos animales carecen de cualias son quienes tienen que probarlo.

Figura 12.4

H pulpo notable. Esquema del aparato y protocolo experimental. Un Octopus vutgoris (derecho) ataca una pelota (la oscura) y se lo demuestra al otro animal el observador, a la izquierda), que se halla fuera de su caja y que mira a su compañero durante toda la sesión a través de una pantalla transparente. El suministro de agua corriente a ambos tanques es independiente, Antes de comenzar la fase de observación, los animales podían intefoctuar visualmente durante dos horas. La duración media de los ensayos que dependía de la ejecución del demostrador, era de 40 segundos y el período entre ensayos era de 5 minutos. (Tomado de Rorito y Scotto. 1992, figura 1, p-545.)

Pero ¿hay alguna diferencia esencial entre la materialización de los computadores modernos y el sistema nervioso? Es ésta una pregunta muy seria e importante. Cabe preguntarse, como lo hiciera Alan Turing (Turing, 1947; Millican y Clark, 1996), si en principio, a partir de un artefacto de tipo digital que implemento los algoritmos apropiados, fuera posible fabricar una máquina universal. ¿Podrá la computación algorítmica ser suficientemente extensa, rápida y concisa como para producir la totalidad de las propiedades generadas por una entidad como nuestro cerebro, con 14 vatios y 1,5 kilogramos de masa? ¿Y qué pensar de la inteligencia de la hormiga que, como un robot, demuestra una increíble agilidad de cómputo con escasos miligramos de masa neuronal, incluso con menos masa que un microchip? El problema fundamental es que los cerebros no tienen nada que ver con los computadores digitales: operan como artefactos analógicos y, por tanto, para sus mediciones utilizan directamente la física, al contrario de los ceros y unos abstractos que se liberan de los mismos elementos que los generaron. ¿Puede compararse la computación de los ordenadores digitales con la de los diseños analógicos? Se dice que para que los computadores digitales soporten propiedades de cómputo (capacidades) equivalentes a las del cerebro, se requeriría una masa y potencia superiores a las de los actuales en muchos órdenes de magnitud.

A la luz de las diferencias entre los cerebros y los computadores, hace mucho tiempo Warren McCulloch se preguntó cómo generar datos fiables a partir de sistemas no fiables (McCutloch, 1965). El lector ya sabe que, como entidades de computación, las células nerviosas son poco confiables. En primer lugar, por tener actividad intrínseca, por lo cual como convertidores y trasmisores de información son extremadamente "ruidosos". La respuesta de McCulloch es bien interesante: pensaba que era posible generar un sistema fiable siempre y cuando que las neuronas se organizaran en paralelo para que el mensaje final diera la suma de su actividad simultánea. Explicaba, además, que si los elementos de un sistema difieren suficientemente entre sí, en cuanto a su no fiabilidad, el sistema en principio sería mucho más fiable que si sólo tuviese partes fiables. En tal caso se logra un sistema fiable, porque la no confiabilidad de cada uno de los elementos se reduce al máximo, aunque no se elimine del todo.

Esto parece casi paradójico, pero si un sistema se considera fiable, entonces sus elementos lo serán en la misma medida. El problema es que, incluso con una fiabilidad del 99,99%, los elementos serán igualmente no fiables, lo cual significa que la pequeña falta de fiabilidad es común a todos los elementos. Lo anterior se convierte en un problema de probabilidad. En tales sistemas confiables o redundantes, por pequeños que sean los problemas o errores de confiabilidad, se sumarán. Sin embargo, como los sistemas no fiables no tienen elementos redundantes y la pequeña falta de confiabilidad es diferente en cada uno de ellos, no hay posibilidad de que los errores se sumen. Por ello, ¡la confiabilidad de estos sistemas no fiables es mayor que la de los sistemas fiables! Lo irónico es que en un sistema con elementos de diferente fiabilidad, lo que tienen en común estos elementos son sus aspectos confiables! Esto es fundamental. Significa que para que un instrumento sea totalmente fiable, debe estar conformado, en últimas, por partes no fiables individualmente, pero variadas.

En esto reside precisamente la fragilidad que la homogeneización de la Red puede ocasionarles a nuestros pensamientos, ideas, creencias y demás. Al reducirse la variabilidad, las cosas se tornan redundantes y la no fiabilidad será lo común a los elementos — en el caso de la sociedad, nosotros somos los elementos.

Volviendo a la implementación de la conciencia y a la llamada inteligencia artificial (no biológica), no se podrá generar la arquitectura necesaria hasta no haber comprendido la naturaleza probabilística y el problema de la falta de confiabilidad de la computación en los sistemas analógicos. Probablemente, con arquitecturas funcionales adecuadas, sería posible generar conciencia en numerosas entidades no biológicas.

El segundo problema es el conocimiento del "sí mismo". Supongamos que se le dé suficiente libertad a determinada materialización de la conciencia para explorar e interiorizar el mundo externo, de modo que implemente una imagen de sí misma, por primitiva que sea. Si bien esta materialización puede evaluar la realidad externa, es probable que nunca llegue a tener una entidad consciente en el sentido humano. Sabemos que esto es fundamental para el funcionamiento del sistema nervioso. Puede observarse en individuos que, a través de prismas invertidos, hacen que el mundo aparezca al revés. Estas personas aprenden a utilizar la imagen visual como si estuviera derecha sólo si se les permite interactuar motoramente con la imagen. Para ajustarla, tienen que moverse dentro de ella. En último término, vemos que la arquitectura capaz de generar la cognición debe relacionarse con la motricidad sobre la cual tal cognición se desarrolló. Para llegar a ser conscientes, los computadores deben moverse y manipular — deben ser robots. Sin esta autorreferencia, siempre se presentará el problema de la sintaxis contra la semántica (ver el paradigma del cuarto chino; Searle, 1992), pues sencillamente la conciencia siempre es simplemente dependiente del contexto.

Si a la larga se logran arquitecturas que generen cognición, tendremos máquinas de pensamiento y/o sensación. Sin embargo, puede que llegar a diseñarlas y construirlas no nos ayude mucho a comprender la función cerebral, así como comprender los aviones no nos dice mucho acerca de la fisiología del vuelo en murciélagos o pájaros.

FIN... este cuento ha terminado.

No hay comentarios: