Psicología y psicoterapias cognitivas. Psicología positiva. Autoayuda. Investigaciones. Opinión. Neurociencias.

El funcionalismo computacional y la Inteligencia Artificial en el nacimiento de la Psicología Cognitiva: la herencia de Turing. (3)

| 12/6/07
2.2. Funcionalismo Computacional o de IA.

Al considerar los estados mentales típicos debe tenerse en cuenta que éstos, generalmente, son "sobre algo", es decir, que tienen un contenido, rasgo este que los diferencia de otros fenómenos de la naturaleza. Esta característica de los estados mentales, el referirse a algo, es conocida como intencionalidad. La intencionalidad puede definirse entonces como la capacidad de los estados o eventos mentales de ser sobre otros objetos o eventos. Así, nuestras creencias, ideas, planes, deseos, dudas o esperanzas son siempre sobre algo, o en otras palabras, tienen intencionalidad.
Diversas posiciones filosóficas consideran la intencionalidad como un rasgo de los fenómenos mentales e intentan, de distinta manera, dar cuenta de ella. Una de estas posiciones, la Teoría Computacional de la mente, equipara el funcionamiento de la mente con la manipulación de símbolos, en forma de proposiciones. Los estados mentales serían traducibles a proposiciones y éstas serían luego sometidas a diferentes operaciones de acuerdo a ciertas reglas dando por resultado otras proposiciones.

Las proposiciones, una suerte de código mental de palabras, de carácter abstracto y semántico, serían la materia prima de la mente, una representación interna en nuestro sistema cognitivo. Para la Teoría Computacional de la Mente, los seres humanos llevamos a cabo nuestras actividades cognoscitivas mediante la manipulación de representaciones, mediante la manipulación de símbolos. Esta idea de que el sistema cognitivo humano puede asimilarse a una máquina de manipulación de símbolos fue la que guió los pasos de la primera psicología cognitiva, la perspectiva del procesamiento de la información, cuyo axioma básico era que el sistema cognitivo era equiparable a un procesador multi-propósito capaz de implementar cualquier clase de procedimientos efectivos.

El funcionalismo computacional, estrechamente asociado a la Teoría Computacional de la Mente, contempla a la mente como algo que lleva a cabo operaciones sobre símbolos codificados dentro de ella. La mente es entendida como un sistema formal en el que símbolos discretos se manipulan de acuerdo con un conjunto finito de reglas, o, como dice Rivière, computaciones discretas sobre representaciones discretas.

Esta concepción de las supuestas características computacionales de las actividades mentales fue prontamente adoptada por los investigadores de la Inteligencia Artificial (IA), otra de las Ciencias Cognitivas. Ya desde los albores de la Psicología Cognitiva y a partir del artículo seminal de Alan Turing, Computing Machinery and Intelligence, de 1950, la idea de que computadoras y personas son sistemas manipuladores de símbolos ha sido cara a la IA. A partir de aquel artículo, la idea de que es posible comparar seres humanos y máquinas ha estado presente en los trabajos de IA, bajo el paraguas protector de lo que se ha conocido desde entonces como Test de Turing. Si bien sobre esta prueba se ampliará en el apartado siguiente, puede adelantarse aquí que sostiene que una computadora será comparable en inteligencia a un ser humano si los seres humanos no pueden distinguir las realizaciones de un computador de las de otro ser humano. Esta concepción de la IA como capaz de encontrar las relaciones lógicas que subyacen a la realidad y representarlas en símbolos, es continuadora de una larga tradición filosófica que va desde Aristóteles y llega a Frege, Rusell, Whitehead, o Gödel, y que sostiene que un sistema físico de símbolos, dotado de una sintaxis (reglas) puede dar cuenta del pensar humano.

Los intentos por hacer equivaler la producción de la mente humana con la de algún tipo de artificio tecnológico han avanzado por dos caminos. Ambos comparten la idea de que es posible lograr, a partir de un mismo input, el mismo output en personas y computadoras, y se diferencian en la manera en que se obtiene ese output: la Inteligencia Artificial es uno de esos caminos y la Simulación el otro. Así, la IA busca realizar ejecuciones análogas o superiores al rendimiento humano en tareas idénticas, pero sin la intención expresa de reproducir los procesos cognitivos humanos. La Simulación, por su parte, además de mimetizar el comportamiento inteligente humano (con sus mismas limitaciones), pretende emular los procesos y mecanismos mentales que llevan a ese comportamiento. Esto es, la simulación está sometida a muchas más restricciones psicológicas que la IA.

La distinción anterior resulta fundamental para el funcionalismo computacional, ya que si éste intenta ser una explicación de la cognición humana, entonces su meta debe ser la simulación cognitiva, con programas de computadoras que efectúen las mismas operaciones que los seres humanos. Lo anterior es lo mismo que decir que la computadora debe seguir el mismo algoritmo que los seres humanos, lo que lleva a un doble problema: por un lado, resulta difícil sostener que todos los comportamientos humanos puedan ser traducidos a un algoritmo; más bien, puede sostenerse que los seres humanos resolvemos muchas de las cuestiones a las que nos enfrentamos de manera heurística, no "algoritmisable". Por otro lado, aún sosteniendo que los comportamientos inteligentes humanos pueden traducirse a un algoritmo, queda la cuestión de cómo especificar la secuencia de pasos que ese algoritmo supone.

Pese a la salvedad realizada en el párrafo anterior, los mayores y más reconocidos intentos por remedar la conducta inteligente humana provienen del campo de la IA. Desde los momentos iniciales fue la IA la encargada de producir programas que compitan con los seres humanos, siempre buscando la respuesta a la pregunta original de Turing: "¿pueden pensar las máquinas?".

En el verano de 1956, un grupo de investigadores, inspirados en la Prueba de Turing, se reunió en el Darmouth College (Estados Unidos) para discutir la posibilidad de construir máquinas que no se limitaran a hacer cálculos prefijados sino operaciones genuinamente "inteligentes".
Los integrantes del grupo eran Samuel, que había escrito un programa de juego de damas capaz de aprender de su propia experiencia; McCarthy, que estudiaba sistemas capaces de efectuar razonamientos de sentido común; Minsky, que trabajaba sobre razonamientos analógicos de geometría; Newell, Shaw y Simon, que habían construido un programa para la demostración automática de teoremas, y algunos otros. Entre los investigadores, entonces, estaban los que suelen considerarse como los cuatro padres de la IA: John McCarthy, Marvin Minsky, Allen Newell y Herbert Simon. Estos fueron los verdaderos iniciadores en el campo de investigación que McCarthy bautizó como "Inteligencia Artificial".

A partir de este grupo inicial, ya se delinearon las dos grandes escuelas en IA: Newell y Simon lideraron el equipo de la Universidad de Carnegie-Mellon, proponiéndose desarrollar modelos de comportamiento humano con aparatos cuya estructura se pareciese lo más posible a la del cerebro (lo que posteriormente derivó en el conexionismo y en los trabajos sobre "redes neuronales" artificiales). McCarthy y Minsky formaron otro equipo en el Instituto Tecnológico de Massachusett (MIT), centrándose en productos del procesamiento que tuvieran carácter de inteligente, sin preocuparse por que el funcionamiento o la estructura de los componentes fueran parecidas a los del ser humano.

La línea seguida por el equipo del MIT ganó prontamente preponderancia en lo que respecta al desarrollo de programas de IA, condenando al ostracismo por cerca de 25 años a los seguidores de la línea de Carnegie-Mellon. Hasta los años 80, "inteligencia artificial" fue un sinónimo de los trabajos realizados por la escuela del MIT. Luego, y ante el hecho de que los sistemas de IA sucumbían ante la creciente longitud y complejidad de su programación, esta situación comienza a cambiar y las ideas primigenias de Newell y Simon vuelven al centro de la escena científica, dando lugar al desarrollo del programa conexionista en IA. Sin embargo, estos caminos prometedores de la historia, nos alejan de los límites de este trabajo por lo que no serán abordados.

En el apartado siguiente se analizarán las propuestas originales de Turing a la luz de sus propios argumentos y de los logros reales alcanzados por la IA en estas cinco décadas.

Ver parte 4.

0 comentarios: