Psicología y psicoterapias cognitivas. Psicología positiva. Autoayuda. Investigaciones. Opinión. Neurociencias.

Escena narrativa: paciente y terapeuta

| 20/6/07
Un ejemplo de cómo un paciente puede darse cuenta de las inconsistencias en su sistema de creencias se presenta en el siguiente diálogo con una paciente de 25 años que acababa de intentar suicidarse y aún abrigaba esta idea. Pensaba que su vida había "terminado" porque su marido le era infiel. Un aspecto interesante es que el terapéuta se dedicó sistemáticamente a formular preguntas que pudiesen proporcionar datos contradictorios con las conclusiones de la paciente y, por lo tanto, que fomentasen pensamientos más lógicos.

Terapeuta: ¿Por qué quiere poner fin a su vida?
Paciente: Sin Raymond, no soy nada ...No puedo ser feliz sin él ...Pero no puedo salvar nuestro matrimonio.
T: ¿Cómo ha sido su matrimonio?
P: Ha sido muy desgraciado desde el principio... Raymond siempre me ha sido infiel... Apenas le he visto durante los últimos cinco años.
T: Dice usted que no puede ser feliz sin Raymond...¿Ha sido feliz mientras estaba con él?
P: No, nos peléabamos continuamente y yo me sentía peor.
T: Entonces, ¿por qué piensa que Raymond es esencial en su vida?
P: Creo que es porque sin él no soy nada.
T: ¿Le importaría repetir eso?
P: Sin Raymond, no soy nada.
T: ¿Qué piensa de esa idea?
P: ... Bueno, ahora que lo pienso, creo que no es completamente cierta.
T: Dice que no es "nada" sin Raymond. Antes de conocerle, ¿pensaba que no era "nada"?
P: No.
T: Entonces, ¿está diciendo que es posible ser alguien sin Raymond?
P: Creo que si. Puedo ser alguien sin él.
T: Si usted era alguien antes de conocerle, ¿por qué le necesita para ser alguien ahora?
P: (confundida): Mmmm...
T: Usted parece indicar que no puede seguir viviendo sin Raymond.
P: Bueno, no creo que pueda encontrar a alguien como él.
T: ¿Tenía usted amigos antes de conocer a Raymond?
P: Yo era bastante popular entonces.
T: Así pues, si yo la he entendido bien, usted era capaz de enamorarse de otros hombre y varios de ellos se enamoraron de usted.
P: Ya lo creo.
T: ¿Por qué piensa que ahora, sin Raymond, no sería popular?
P: Porque los hombre no se sienten atraidos por mi.
T: ¿Ha habido algún hombre que haya mostrado interés por usted, estando ya casada?
P: Muchos hombre se han fijado en mi, pero yo los he ignorado.
T: Si usted no estuviese casada, ¿cree que los hombres se interesarían por usted -sabiendo que no tenía compromiso?
P: Supongo que si
T: ¿Es posible que usted encontrase a un hombre más fiel que Raymond?
P: No se... supongo que podría ser
T: ¿Cree usted que existen otros hombres tan buenos como Raymond?
P: Creo que existen hombres mejores que Raymond por la sencilla razón de que Raymond no me quiere.
T: Dice que no puede soportar la idea de que se rompa su matrimonio. ¿Es cierto que apenas ha visto a su marido durante los últimos cinco años?
P: Es cierto. Solamente le he visto un par de veces al año.
T: ¿Hay alguna posibilidad de volver con él?
P: No, él está con otra mujer. No me quiere.
T: Entonces, ¿qué es lo que perdería usted al disolver el matrimonio?
P: No lo se.
T: Es posible que a usted le fuese mejor después de poner fin a su matrimonio.
P: Eso no me lo garantiza nadie.
T: ¿Es el suyo un verdadero matrimonio?
P: Supongo que no.
T: Si su matrimonio no es un verdadero matrimonio, ¿qué ha de perder si decide ponerle fin?
P: (llorando): Nada, creo.
T: Bien, ¿qué piensa de la posibilidad de encontrar a otra persona?
P: Ya se por dónde va usted y se que va bien encaminado. Realmente he estado pensando que ya no hay ninguna razón para que yo siga "pegada" a Raymond cuando está claro que él no me quiere. Creo que lo mejor que puedo hacer es una ruptura amistosa.
T: Si lo hiciese, ¿cree que podría sentirse atraída por otros hombres?
P: Antes fui capaz de enamorarme de otros.
T: Bien, ¿qué piensa?, ¿podría enamorarse de nuevo?
P: Si, creo que si.

En este momento de la discusión, era evidente que la paciente ya no estaba deprimida y que no iba a suicidarse. El objetivo de la terapia era hacer que se diese cuenta de que no perdía nada separándose de Raymond (ya que la relación no existía de hecho) y de que había otras opciones para ella. El terapeuta también comenzó a hacer mella en la fórmula, "Si no soy amada, no soy nada".

Después de esta entrevista, la paciente estaba más alegre y parecía haber superado la crisis de suicidio. En la siguien sesión, dijo que había una cuestión sobre la que no había dejado de hacerse preguntas en casa: ¿Cómo podía no ser "nada" sin Raymond, cuando había vivido feliz y había sido una persona como las demás antes de conocerle? En base a la revisión de las preguntas formuladas por el terapeuta en la sesión anterior, había decidido separarse legalmente. Al poco tiempo, estaba divorciada y adaptada a una vida más estable.

En este caso, las preguntas iban dirigidas a las creencias de la paciente de que (a) necesitaba a su marido para ser feliz, para funcionar y para tener una identidad propia, (b) tenía un matrimonio viable o, al menos, que podía salvarse, (c) el final de su matrimonio sería una pérdida irreversible y (d) no tenía futuro sin su marido. La paciente consiguió darse cuenta de la falacia de sus creencias y sus pensamientos; en consecuencia, se dio cuenta de que tenía otras alternativas además de las dos que había considerado: bien intentar salvar un matrimonio ya deshecho, o bien suicidarse. En otros casos, el terapeuta tiene que trabajar con el paciente para generar alternativas más realistas a las ideas de suicidio.

Material consultado:
Terapia cognitiva de la depresión. Beck, A. y otros. pp.198-200. Descleé de Brouwer, Bibao, 2000.

Locus de control

|
El locus de control se refiere a la dirección del control que perciben los individuos sobre ellos mismos. O bien pueden dirigir esta percepción a la idea de que son ellos los que controlan sus actos y las consecuencias de sus acciones (expectativa de lugar interno de control) o, por el contrario, tienden a esperar que el control de sus acciones y de las consecuencias de sus acciones se encuentre en el exterior (expectativa de lugar externo de control).

Material consultado:
Pelechano, V. ( 1999). “Psicología de la Personalidad”. (I. Teorías). Barcelona. Ariel. Cap. III, pp. 137.

El gen del lenguaje

| 13/6/07
Podría decirse que el año 2001 ha sido el año de la genética. Después de la decodificación del genoma humano, no han cesado de producirse descubrimientos más o menos resonantes que involucran el conocimiento de las piezas fundamentales de los organismos vivos.

En el mes de octubre, por ejemplo, un equipo encabezado por los investigadores Cecilia S. L. Lai y Simon E. Fisher, ha identificado un gen concreto, en el cromosoma 7, que produce en los miembros de una familia serias dificultades lingüísticas traducidas en problemas graves para construir frases y entenderlas, es decir, para aplicar la lógica del lenguaje.

Las personas investigadas, sin embargo, no eran inferiores en inteligencia general a las personas normales. Por lo tanto, el lenguaje parece ser una cosa diferente e independiente de lo que se considera la inteligencia general, que es medida por los psicólogos por medio de tests.

En contraste con las dificultades de los adultos portadores de ese gen para hablar correctamente, los niños normales poseen una asombrosa destreza para manejar el idioma materno. De una manera inconsciente parecen tener muy clara la estructura interna del idioma. Otras destrezas como la matemática, las adquieren los niños mucho más tarde y con mucho más esfuerzo. Hablar es algo natural en los niños; multiplicar no.

El lingüista Noam Chomsky llegó hace 40 años a la convicción de que, efectivamente, los niños vienen al mundo con estructuras neuronales que los capacitan para aprender un idioma; en cierto modo, disponen de un "órgano para el lenguaje". Debe haber algo común, un conjunto de reglas, en todas las lenguas a pesar de su enorme diversidad; por eso es posible la traducción de un idioma al otro. Esa base común, sería, según Chomsky, innata.

El gen anómalo que presenta la familia investigada sólo se diferencia de su forma normal en una base de la cadena de nucleótidos (adenina en lugar de guanina) en una sola hebra de la doble hélice del ADN. Ese cambio modifica un sólo aminoácido en la cadena de la proteína para la que codifica el gen. El resultado de una variación tan minúscula en una molécula es sorprendente: un grave problema lingüístico.

Sin embargo, no puede deducirse a partir de este descubrimiento que existe un "gen para el lenguaje". El que un cambio de base impida formar bien las frases no significa que ese gen concreto sea el responsable del lenguaje. Pero sí parece querer decir que hay una base genética para el lenguaje, reivindicando al lingüista Chomsky.

El descubrimiento del gen citado en el cromosoma 7 puede ser un primer aporte del Proyecto Genoma Humano al conocimiento de las bases biológicas del comportamiento. Y también representa quizás el nacimiento de una nueva disciplina científica: la genética cognitiva.

Extraido de Educyt #179 2da sección. Año 5 nº 179. 18 de Febrero de 2002

Personalidad tipo D y riesgo cardiovascular

|

Lic. Roberto O. Sanchez. Fac. de Psicología, UNMdP.

Nexos (2005), 20, 22-25. Universidad Nacional de Mar del Plata

En el número 18 de Nexos (julio de 2004) apareció un interesante artículo del Ingeniero Fernado Clara titulado "Determinación de riesgo cardiovascular en base a registros de variación de diámetro arterial". En dicho artículo, el autor nos informa acerca de la hipertensión como factor de riesgo de la patología cardiovascular y la consecuente importancia de su detección temprana. El tema resulta de importancia mayúscula si se considera que las enfermedades cardiovasculares constituyen la primera causa de muerte en nuestro país.

Los factores de riesgo biológico (como por ejemplo la citada hipertensión, el sedentarismo, el tabaquismo o el colesterol elevado) suelen merecer un amplio tratamiento en los programas de prevención primaria y secundaria, y en los medios. Por el contrario, los factores de riesgo psicosociales, de tanto peso como los biológicos, no siempre son tenidos en consideración. Diversos estudios han puesto en evidencia de manera clara y convincente cuáles son los factores psicosociales que contribuyen significativamente en la patogénesis y en la expresión de los trastornos cardiovasculares. Estos factores se expresan principalmente en cinco campos: 1) depresión, 2) ansiedad elevada, 3) personalidad patológica o rasgos disfuncionales de personalidad, 4) aislamiento social y 5) estrés crónico.

La propensión psicológica está considerada entre los factores de riesgo más relacionados con la aparición de trastornos cardiovasculares, si bien los mecanismos por los cuales los factores de riesgo psicológico influyen sobre el sistema cardiovascular aún no están tan claros como en el caso de los factores biológicos. Al parecer, los mecanismos biológicos podrían ser mediados por influencias psicológicas para determinar la enfermedad coronaria (Marusic, 2000).

Los factores psicológicos en los trastornos cardiovasculares influyen tanto en el surgimiento de la patología como en su curso. Por ejemplo, estudios de seguimiento de sujetos que han sufrido un infarto de miocardio indican un pronunciado deterioro físico, psicológico y social tras abandonar el hospital, que parece relacionarse con la reacción psicológica provocada por el mismo hecho de sufrir un infarto, más que con el grado de deterioro del sistema cardiovascular. En otras palabras, los trastornos emocionales post-infarto se relacionan más fuertemente con la evaluación subjetiva del paciente (como el grado de preocupación por el estado de salud o la presencia de trastornos emocionales pre-infarto) que con los índices de severidad de la enfermedad física.

En 1959 dos cardiólogos de Estados Unidos, Meyer Friedman y Ray Rosenman, observaron en personas que habían sido afectadas por un infarto de miocardio un deseo intenso de tener éxito, alta competitividad, impaciencia y un extraordinario nivel de alerta física y mental. Entonces, propusieron un conjunto de características de comportamiento para describir la forma en la que se comportaban estos pacientes y lo denominaron “patrón de conductas tipo A”. Desde entonces, se considera que el tipo A constituye un factor de riesgo independiente en el surgimiento y desarrollo de los trastornos cardiovasculares, tan significativo como los factores de riesgo biológicos. Por muchos años la investigación cardiovascular se enfocó sobre este patrón de conducta, si bien los avances en los tratamientos fueron minúsculos (Lesperance y Frasure-Smith, 1996).

Recientemente, se ha propuesto un nuevo tipo de personalidad como relacionada con el riesgo de contraer trastornos cardiovasculares. Johan Denollet y su grupo de investigadores (Universidad de Amberes, Bélgica) han sugerido que la personalidad "Tipo D" (de distress) puede ser una influencia importante en el desarrollo de la patología cardiovascular. A partir de estudios anteriores que relacionaban la enfermedad cardiovascular con el malestar psicológico y con la falta de apoyo social, estos investigadores han suministrado evidencia empírica respecto a cómo la conjunción de ambos factores incrementa el riesgo de contraer enfermedades cardiovasculares y el riesgo de mortalidad en pacientes cardíacos. La personalidad Tipo D se define como un rasgo de personalidad caracterizado por la afectividad negativa y por la inhibición social (Pedersen y Denollet, 2003; Denollet, 2000; Denollet y Brutsaert, 1998; Denollet y otros, 1996):

Por afectividad negativa se entiende la tendencia a preocuparse y a tener una visión pesimista de las cosas, acompañada a menudo de sentimientos de infelicidad o irritación, síntomas depresivos, tensión crónica y un bajo nivel de bienestar subjetivo. Las personas con elevada afectividad negativa son más propensas a experimentar emociones negativas de manera estable, a lo largo del tiempo e independientemente de las situaciones, se muestran incapaces de enfrentar los estresores de la vida, tienen una visión negativa de sí mismos, presentan más síntomas somáticos y tienen un sesgo atencional hacia los estímulos adversos. Son personas que parecen estar escudriñando el mundo en busca de problemas amenazantes inminentes.

La Inhibición social se define por una tendencia a mantenerse distanciado de los demás, por inhibir a menudo la expresión de emociones y conductas en la interacción social, y por bajos niveles de soporte social percibido. Décadas de investigación han relacionado el aislamiento social y el bajo nivel de apoyo social percibido con el incremento en el riesgo de sufrir enfermedades cardiovasculares. Las personas con alta inhibición social son propensas a inhibir sus sentimientos y la expresión de emociones negativas, se sienten tensas e inseguras en presencia de otros, a menudo presentan poca asertividad, usan estrategias de afrontamiento de evitación y tienen pocas capacidades comunicativas.

Personalidad Tipo D

Estilo de personalidad

Afectividad negativa

Inhibición social

Definición

Tendencia a experimentar emociones negativas en todo momento y situación

Tendencia a inhibir emociones y conductas en la interacción social

Cuadro clínico

La persona se siente infeliz a menudo, tiende a preocuparse, es pesimista, se irrita fácilmente, tiene baja autoestima y poca asertividad, tiene síntomas depresivos y de ansiedad

La persona se siente insegura en la interacción social, tiende a mantener distancia con los otros, tiende a ser cerrada y reservada, reporta bajos niveles de apoyo social percibido

Prognosis

La personalidad tipo D, definida por altos valores de afectividad negativa e inhibición social, resulta un predictor independiente de mortalidad a largo plazo en pacientes con trastornos cardiovasculares. En las investigaciones originales de Denollet se encontró una mortalidad del 23% en pacientes con personalidad tipo D y del 7% en pacientes con otros tipos de personalidad en un estudio de seguimiento a seis años en pacientes con trastornos cardiovasculares.

Se cree que la personalidad Tipo D resulta un factor de riesgo independiente para las enfermedades cardiovasculares y que podría actuar por dos vías:

a. la inhibición de la expresión emocional ayudaría al desarrollo y desencadenamiento de la enfermedad;

b. la mayor propensión a la depresión y al aislamiento social aumentaría la mortalidad en pacientes con trastornos cardiovasculares.

Existe evidencia empírica que sugiere que una combinación de alta afectividad negativa y alta inhibición social puede predecir la aparición de trastornos cardíacos de manera independiente a los factores de riesgo tradicionales. Los pacientes cardíacos con personalidad Tipo D tienen un incremento significativo en el riesgo de morbilidad y mortalidad cardiovascular, de manera independiente a los factores de riesgo tradicionales. También tienen un mayor riesgo de sufrir estrés psicosocial negativo, de tener una calidad de vida más deteriorada y de beneficiarse menos con los tratamientos médicos (Pedersen y Denollet, 2003; Denollet, 2000).

El estrés negativo (distress), propio de la personalidad tipo D, puede provocar la enfermedad cardiovascular en forma directa o en forma indirecta. En forma directa, el estrés al que está expuesto el sujeto influiría en los mecanismos fisiológicos que determinan la enfermedad cardiovascular. El estrés negativo también podría relacionarse con la enfermedad en forma indirecta por su influencia en comportamientos relacionados con la salud, como una pobre adherencia al tratamiento, fallas al momento de cambiar los factores de riesgo, o por su influencia negativa en la comunicación con los médicos. Todo esto incidiría en la gravedad de la enfermedad cardiovascular y en un incremento en el riesgo de mortalidad de estos pacientes (Denollet y otros, 1996).

La conclusión que puede extraerse por lo expuesto hasta aquí es que resulta indispensable adoptar un enfoque que considere la personalidad de los pacientes cardíacos o de aquellas personas en riesgo de sufrir tales patologías. La relación presentada entre personalidad tipo D y trastornos cardiovasculares debe preocupar tanto a los psicoterapeutas cuanto a los cardiólogos. Los primeros deben tener en cuenta las posibles consecuencias de la personalidad tipo D sobre la salud de sus pacientes, presenten o no un trastorno cardiovascular en el momento de la consulta. Los cardiólogos deben tener en cuenta dichos aspectos psicológicos en sus pronósticos. Esto es así ya que, como se dijo, la personalidad tipo D es un factor independiente en el surgimiento y evolución de los trastornos cardiovasculares. Por lo tanto, aunque estén controlados los factores de riesgo biológicos puede darse una mala evolución de acuerdo con la personalidad del paciente.

Cabe señalar, que para algunos autores los resultados de las investigaciones llevadas a cabo hasta el momento no han aportado evidencia concluyente respecto a la hipótesis que relaciona la personalidad tipo D con los trastornos cardiovasculares, ni respecto a que el Tipo D tenga el status de un tipo particular de personalidad (Habra y otros, 2003; Carney, 1998).

De cualquier manera, si bien tanto la afectividad negativa cuanto la inhibición social son preocupantes y no sólo por sus posibles implicancias sobre el sistema cardiovascular, ambas características son modificables. La psicología cuenta hoy, a través de la psicoterapia, con las herramientas suficientes como para revertir esos rasgos de personalidad desadaptativos. La consulta a tiempo puede ayudar a prevenir los efectos negativos de la personalidad tipo D sobre la salud física en particular y sobre la calidad de vida en general. Y en el caso de pacientes que ya presentan una patología cardíaca, un tratamiento psicológico adecuado puede ayudarlos a una mejor recuperación y a un mayor bienestar psicológico. En este y otros campos, y como resultado de su trabajo científico, la psicología dispone hoy de intervenciones eficaces con una marcada relevancia social.

Bibliografía.

Carney, R. (1998). Psychological Risk Factors for Cardiac Events Could There Be Just One? Circulation, 97: 128-129.

Denollet, J. (2000). Type D personality: A potential risk factor refined. Journal of Psychosomatic Research; 49(4): 255-266.

Denollet, J.; Brutsaert, D. (1998). Personality, disease severity, and the risk of long-term cardiac events in patients with a decreased ejection fraction after myocardial infarction. Circulation; 97:167-173.

Denollet, J.; Sys, S.; Stroobant, N.; Rombouts, H.; et al. (1996). Personality as independent predictor of long-term mortality in patients with coronary heart disease. The Lancet; 347: 417-421.

Habra, M.; Linden, W.; Anderson, J.; Weinberg, J. (2003). Type D personality is related to cardiovascular and neuroendocrine reactivity to acute stress. Journal of Psychosomatic Research; 55: 235– 245.

Lesperance, F.; Frasure-Smith, N. (1996). Negative emotions and coronary heart disease: Getting to the heart of the matter. The Lancet; 47: 414-416.

Marusic, A. (2000). Psychological factors associated with coronary heart disease. Irish Journal of Psychological Medicine;17(4): 135-139.

Pedersen, S.; Denollet, J. (2003). Type D personality, cardiac events, and impaired quality of life: a review. European Journal of Cardiovascular Prevention and Rehabilitation; 10(4): 241-248.

Lecturas recomendadas.

A parte de la bibliografía citada en este trabajo pueden consultarse los siguientes artículos para una mayor porfundizazión sobre el tema:

Denollet, J.; Van Heck, G. (2001). Psychological risk factors in heart disease. What Type D personality is (not) about. Journal of Psychosomatic Research; 51: 465– 468.

Denollet, J.; Sys, S.; Brutsaert, D. (1995). Personality and mortality after miocardial infarction. Psychosomatic Medicine; 57: 582-591.

Rozanski A., Blumenthal J., Kaplan J. (1999). Impact of psychological factors on the pathogenesis of cardiovascular disease and implications for therapy. Circulation; 99:2192-2217.

Smith, T.; Ruiz, J. (2002). Psychosocial Influences on the Development and Course of Coronary Heart Disease: Current Status and Implications for Research and Practice. Journal of Consulting and Clinical Psychology; 70(3): 548–568.

El funcionalismo computacional y la Inteligencia Artificial en el nacimiento de la Psicología Cognitiva: la herencia de Turing. (8)

| 12/6/07
5. Conclusiones.

Las distintas explicaciones que puedan darse desde la filosofía al problema de la mente distan de ser lo suficientemente sólidas como para convencer a los teóricos de líneas rivales. Cualquier postura que se elija es susceptible de críticas que dejen al descubierto su inadecuación. Quizá es la propia complejidad del objeto de estudio la que opone resistencia a explicaciones útiles a todos los fines y sólo pueda aspirarse a explicaciones parciales y limitadas. De manera similar, el intento de la inteligencia artificial por lograr un producto que supere el Test de Turing quizá sea una batalla perdida de antemano.

Posiblemente, ambas cuestiones ameriten sólo soluciones "de aproximación": teorías de la mente que se adecuen cada vez más a lo que es la mente en realidad y programas de IA que se parezcan cada vez más a la inteligencia natural. Para ambos, filósofos y psicólogos, entonces, muchas de las discusiones sobre el tema (algunas de las cuales se vieron en este trabajo) resultarán ociosas por lo que seguirán con sus trabajos con el ideal de que algún día su obra esté acabada.

Tal vez por esto aún se sigue teniendo a Turing como ejemplo y modelo; este genio matemático parece desafiar a sus críticos mientras que sus obras sigan siendo ineludibles a la hora de abordar estos temas.

Y el tiempo aún no ha dicho la última palabra. Es obvio que la pregunta primigenia "¿pueden pensar las máquinas?" no ha tenido hasta aquí una respuesta afirmativa. Pero también es cierto que la negativa tampoco se ha afirmado más allá de toda duda.

REFERENCIAS BIBLIOGRÁFICAS.
1. BECHTEL, W (1988). Filosofía de la mente. Madrid, Tecnos, 1991.
2. BRUCE, D. Lashley and the Problem of Serial Order. American Psychologist, Vol. 49, Nº 2, 93-103, 1994.
3. CAPPANA, P. Fantasmas en la máquina. Minotauro, Nº 7, 71-82, 1984.
4. CAPPANA, P. El desafío intelectrónico. Minotauro, Nº 8, 67-77, 1984.
5. CHURCHLAND, P.M. Neurophilosophy. Cambridge, Mass., The MIT Press, 1986.
6. DE VEGA, M. Introducción a la Psicología Cognitiva. Madrid, Alianza, 1988.
7. FERNANDEZ ACEVEDO, Y. Estrategias computacionales y mente humana. http://iruya.com/ent/claves/yolanda8.htm, 1999.
8. FODOR, J (1983). La modularidad de la mente. Madrid, Morata, 1986.
9. GARDNER, H (1985). La nueva ciencia de la mente: historia de la revolución cognitiva. Buenos Aires, Paidós, 1988.
10. GUTIERREZ, C (1993). La informática como ciencia teórica (curso de Epistemología e Informática, Universidad de Delaware). http://claudiogutierrez.com/La_informatica_ como_ciencia_teorica.html, 1997.
11. GUTIERREZ, C (1993). La informática como ciencia empírica (curso de Epistemología e Informática, Universidad de Delaware). http://claudiogutierrez.com/ La_informatica_como_ciencia_empirica.html, 1997.
12. GUTIERREZ, C. Epistemología e informática. San José, Costa Rica, UNED, 1993 (existe versión electrónica: http://claudiogutierrez.com/bid-fod-uned/Antologia.html).
13. GUTIERREZ, C. La psicología de las computadoras. Revista de Filosofía de la Universidad de Costa Rica, XXV, 1987 (existe versión electrónica: http://claudio gutierrez.com/Psicologia_de_las_computadoras.html).
14. GUTIERREZ, C. Inteligencia artificial: de qué se trata. Computing, Nº 1, 1983 (existe versión electrónica: http:// claudiogutierrez.com/Inteligencia_artificial.html).
15. LYCAN, W. La continuidad de los niveles en la naturaleza (en Filosofía de la mente y ciencia cognitiva, Eduardo Rabossi comp.). Barcelona, Paidós, 1995.
16. NEISSER, U. A conversation with Ulric Neisser. Psychology Today, N° 5, vol. 17, 1983.
17. PENROSE, R. The Emperor's New Mind: Concerning Computers, Minds, and the Laws of Physics. Oxford, Oxford University Press, 1989.
18. PRIEST, S. Teorías y Filosofías de la mente (1991). Madrid, Cátedra, 1994.
19. PUTNAM, H. Representación y realidad. Barcelona, Gedisa, 1995.
20. RABOSSI, E. Como explicar lo mental: cuestiones filosóficas y marcos científicos (en Filosofía de la mente y ciencia cognitiva, Eduardo Rabossi comp.). Barcelona, Paidós, 1995.
21. REEKE, G. Y EDELMAN, G (1988). Cerebros reales e inteligencia artificial (en El nuevo debate sobre la inteligencia artificial, Stephen Graubard comp.). Barcelona, Gedisa, 1993.
22. RIVIÈRE, A. El sujeto de la psicología cognitiva. Madrid, Alianza, 1990.
23. SOKOLOWSKI, R (1988). Inteligencia natural e inteligencia artificial (en El nuevo debate sobre la inteligencia artificial, Stephen Graubard comp.). Barcelona, Gedisa, 1993.
24. TIBERGHIEN, G. ¿Qué es lo cognitivo? (en Psicología ordinaria y ciencias cognitivas, Pascal Engel comp.). Gedisa
25. TIENSON, J. Una introducción al conexionismo (en Filosofía de la mente y ciencia cognitiva, Eduardo Rabossi comp.). Barcelona, Paidós, 1995.
26. TURING, A. Computing Machinery and Intelligence. Mind, 59, 433-460, 1950. (existe versión castellana "Controversia sobre mentes y máquinas", Anderson, A. (1964), Barcelona, Tusquets, 1984).

El funcionalismo computacional y la Inteligencia Artificial en el nacimiento de la Psicología Cognitiva: la herencia de Turing. (7)

|
4.2. Las críticas al funcionalismo computacional.

La objeción más habitual al funcionalismo computacional es que parece contemplar la mente como algo similar a una computadora de Von Neumann, donde una instrucción tiene acceso de manera sucesiva a la información almacenada en la memoria y dirige las operaciones que hay que realizar para llevar a cabo la tarea de que se trate. A diferencia, el cerebro realiza un gran número de operaciones al mismo tiempo. Esta objeción es desestimada por Bechtel pero para dar lugar a otra de mayor peso, aquella que sostiene que la cognición, a diferencia de lo que plantea el funcionalismo computacional, no es una actividad de procesamiento de símbolos. Los actuales desarrollos en modelos no simbólicos en IA, de procesamiento distribuido en paralelo, herederos de la línea de trabajo pionera de Newell y Simon podrían suponer una seria dificultad para el funcionalismo computacional.

Otra de las críticas al funcionalismo se basa en su pretensión de contemplar los procesos cognitivos como procesos mecánicos tales como pueden ser ejecutados por una computadora. Tal asimilación, sostiene esta crítica, resulta deshumanizadora. La objeción a la crítica, según la cual las simulaciones de computadora postulan procesos internos análogos a los estados subjetivos de las personas y que por lo tanto resultan menos deshumanizados que modelos anteriores (mecánicos) no parece tener mucha sustentación. En efecto, considerar a la mente independientemente del organismo supone una abstracción excesiva en la que se pierde de vista la relación de esa mente con su "receptáculo" y esto es deshumanizador.

En la misma línea puede analizarse la objeción que sostiene que las simulaciones computacionales sólo permiten un comportamiento en la medida en que estén programados, mientras que el comportamiento humano no está constreñido de esa manera. La respuesta que brinda Bechtel no parece muy sólida. Según el autor, los seres humanos venimos equipados para procesar información de cierta manera, lo que también podría constituir un programa. Aquí parece haber una confusión de nivel; lo que distingue a los seres humanos, en todo caso, es nuestra capacidad para crear programas. Es decir que nuestros supuestos programas innatos sirven para que podamos "programar" la manera de llevar a cabo alguna tarea. Inversamente, los programas de la computadora sólo sirven para realizar esa supuesta tarea. En otras palabras, nuestros programas programan y los programas de las computadoras ejecutan. La continuación de la respuesta que toma el autor no parece más atinada; dice que a los seres humanos se les enseña como llevar a cabo una gran variedad de actividades y que este proceso de instrucción podría contemplarse como algo comparable a la programación. Si bien esto es cierto, lo que el autor parece no advertir (o al menos no dice) es que sólo "algunos" de nuestros comportamientos son programables mediante instrucción mientras que respecto a las computadoras "todos" sus comportamientos deben ser programados. Es la diferencia que va de aquellos "algunos" a estos "todos" la que dista entre inteligencia natural e inteligencia artificial. La otra respuesta de Bechtel a esta objeción adolece de una debilidad similar. Dice que algunos programas están abiertos y que se modifican en función de los resultados de su ejecución; en rigor, se trata de programas cerrados solo que contemplan distintas variaciones de acuerdo a los resultados que van obteniendo, pero esas variaciones posibles deben ser contempladas previamente por el programador.

Otra de las críticas al funcionalismo computacional viene, paradójicamente, de parte de uno de sus fundadores. Hilary Putnam, ha hecho una amplia autocrítica de sus propios planteamientos iniciales. Como resultado de sus últimas investigaciones ha desechado la hipótesis de la identificación directa de los estados mentales como estados funcionales, es decir, con estados caracterizados computacionalmente. Sostiene ahora que es un error considerar los "significados" como entidades teóricas, como objetos científicos que pueden ser aislados y que cumplen una función explicativa en una teoría científica. Según este autor, no es posible individualizar los conceptos y las creencias sin hacer referencia al entorno, lo que le lleva a sostener que los significados no están "en la cabeza". Por esta razón, no es posible definir los estados mentales en términos de los estados de una "máquina de Turing" dice Putnam. Esta máquina no es capaz de proporcionar una representación adecuada de la psicología de los seres humanos. Aunque, en algunas situaciones, su forma de razonar sea similar a la nuestra, esto no implica que los estados o los algoritmos sean idénticos. La idea que hay un único estado computacional en el cual deben hallarse todos los seres que creen una misma cosa es falsa. Los seres sensibles físicamente posibles admiten demasiados "diseños", tanto físicos como computacionales, para que el funcionalismo que postula "un estado computacional para cada actitud proposicional" sea verdadero.

En opinión de Putnam, todas las representaciones que conocemos se asocian con su referencia, que es contingente y susceptible de variación a medida que cambia el mundo o la cultura, esto es, la referencia es un fenómeno social.

Este corrimiento de Putnam hacia posturas alejadas del estudio de la mente como entidad abstracta e independiente en la práctica, está dando cuenta de las limitaciones del funcionalismo como teoría de la mente y, del mismo modo, tiende un manto de duda sobre los distintos programas de la IA tradicional.

Ver parte 8.

El funcionalismo computacional y la Inteligencia Artificial en el nacimiento de la Psicología Cognitiva: la herencia de Turing. (6)

|
4. Críticas a la Inteligencia Artificial y al funcionalismo computacional.

"La ciencia de la computación solamente indica la omnipotencia retrospectiva de nuestras tecnologías. En otras palabras, una infinita capacidad para procesar información (pero solamente data, lo ya dado) y en ningún sentido una nueva visión. Con esa ciencia, estamos entrando en una era de exhaustividad, que es también una era de agotamiento. La cosa triste acerca de inteligencia artificial es que carece de artificio y por lo tanto de inteligencia."
Jean Baudrillard, Memorias Frescas (1987)

4.1. Las críticas a la "buena y anticuada inteligencia artificial" (BAIA).
[El Test de Turing] Pone un premio al engaño. Básicamente, dice que has creado IA cuando puedes hacer de alguien un tonto. Eso no tiene nada que ver si la computadora es como una persona. Nada. Una vez vi un show de magia donde el asistente del mago desapareció del escenario y reapareció en un balcón. El test de Turing es como decir que hubo una teletransportación cuando no podemos darnos cuenta de cómo el mago lo hizo.

El enfado de Neisser respecto a la falta de validez del Test de Turing lleva a reconsiderar aquello que se entiende como inteligencia artificial. Antes de responder a la cuestión de sí es posible que la inteligencia artificial alcance logros similares a la inteligencia natural, es necesario aclarar la ambigüedad de la palabra "artificial". Este adjetivo tiene dos sentidos, ¿cuál corresponde a la IA? Uno de los sentidos es cuando, por ejemplo, "artificial" se aplica a flores y el otro cuando, por ejemplo, se aplica a luz. En ambos casos artificial implica fabricado, pero en el primer caso significa que la cosa parece ser, pero realmente no es lo que parece, es aparente. El segundo, una vez fabricado es como un sustituto de la luz natural, una vez fabricado es lo que parece ser. ¿Es la IA artificial tal cómo lo son las flores de plástico o tal cómo lo es la luz que nos alumbra por las noches?

En términos favorable para la inteligencia artificial canónica, se refiere Roger Penrose: ser capaz de dar contestaciones similares a las humanas en una prueba de Turing no es ciertamente lo mismo que tener cualidades mentales similares a las humanas, pero puede servir como una buena indicación de que tales cualidades están de veras en la máquina.
Para Searle el concepto de símbolo en IA no es más que una metafora dudosa. Los símbolos "humanos" tienen necesariamente una referencia intencional, es decir, se definen semánticamente. Por el contrario, los símbolos de la computadora sólo se definen sintácticamente, no tienen un significado en un sentido auténtico. Por ello, sostener que tanto personas como máquinas, en último sentido, somos ambos procesadores de símbolos esconde esa diferencia básica y hace que la pretendida comparación descanse en la débil base que esta metáfora le brinda.

¿La IA presenta a los crédulos una ilusión de cierta clase de pensamiento?, ¿es el Test de Turing un premio al engaño como sostiene Neisser?, ¿o es la IA una especie genuina de pensamiento, diferente al humano como el movimiento de un auto es diferente al de un animal? El problema es que el tema no es tan visible y palpable como el del movimiento. Si tenemos una visión parcial (como con el test de Turing) ¿cómo saber que no nos engañamos como cuando vemos una flor artificial desde una ángulo en la que parece real?, ¿o sería la inteligencia artificial comparable a la invención de la rueda, que no es idéntica ni parecida a ninguna extremidad humana o animal, pero permite moverse mejor y más rápido?

Los interrogantes se multiplican y hacen tambalear a la comparación de las personas (o de sus mentes) con las computadoras, comparación que encaminó los pasos del funcionalismo computacional y de la Inteligencia Artificial hacia la distinción entre el programa (software) y la base material específica donde ese programa es corrido (hardware). Para la inteligencia artificial tradicional, lo mismo que para el funcionalismo computacional, lo que importa es la función, no el funcionario; el programa, no el material que lo realiza. Desde esta base, el funcionalismo hace su distinción entre estados "funcionales" o "estructurales" de un organismo. Para la BAIA, la arquitectura del computador clásico llega a la esencia de la inteligencia: la cognición es lo que el computador clásico hace, manipulación de símbolos gobernados por reglas.

Sin embargo, esta caracterización inicial de la inteligencia natural, más la consabida intención de imitarla a través de la IA, pronto mostraría sus limitaciones. El argumento inicial de Turing según el cual con el tiempo aparecerían computadoras con la suficiente capacidad de memoria como para instalar programas eficientes de IA, terminaría perdiendo su fuerza cuando, construidas al fin tales máquinas, la IA siguió mostrando resultados decepcionantes. Si bien se alcanzaron ciertos logros en la construcción de algunos instrumentos que incluyen programas que se conocen como "sistemas expertos", con habilidad especial para realizar funciones que con anterioridad llevaban a cabo sólo los seres humanos, este es sólo un tipo de IA conocido como de rendimiento. Los fracasos vinieron del lado de lo que se conoce como IA de comprensión, la que intenta comprender el funcionamiento de la inteligencia humana.

Ante la evidencia, los investigadores tuvieron que reconocer que la inteligencia humana es de una clase diferente, que el modelo basado en la Máquina de Turing funciona como una sistema computacional cerrado mientras que los organismos se encuentran en un constante intercambio de información con el medio y que parte de la estructura cognitiva propia de la inteligencia natural está puesta al servicio de mediar en ese intercambio. Bien dice Fodor que los únicos determinantes de las computaciones de una máquina de Turing son el estado de la máquina en cada momento, la configuración de la cinta y el programa, y que el resto del mundo importa bien poco de cara a la naturaleza de su actuación.

La idea del Test de Turing cierra sólo con una máquina manipuladora de símbolos, que no está sometida a restricciones físicas o biológicas, mientras que el organismo está sometido a múltiples demandas, con recursos energéticos limitados. Cualquier consideración de la mente como una máquina debe considerar e incluir esos aspectos relacionados con el funcionamiento dinámico del organismo.

La propia idea de considerar a los eventos mentales independientemente de su constitución física, cara al funcionalismo, plantea una distinción errónea y perniciosa, ya que refuerza la idea de una naturaleza bipartita dividida en dos niveles, a diferencia de la realidad que muestra una jerarquía múltiple de niveles naturales, cada uno de los cuales está demarcado por generalizaciones nomológicas y supervenientes a todos los niveles que le son inferiores en el continuo.

Esta misma idea de la independencia de los eventos mentales atenta contra la individualidad del hombre puesto que puede derivarse que los eventos mentales no dependen de los átomos particulares que componen el cerebro. El punto de vista de la inteligencia artificial fuerte y del funcionalismo es simplemente que el "contenido informático" es lo que caracteriza a cualquier individuo particular. Esta suposición resulta pertinente en el campo de la computación: en cualquier par de computadoras, una es completamente equivalente a la otra en el sentido de que, independientemente del hardware particular en que consista cada máquina, habrá siempre algún software adecuado que pueda efectivamente convertir a cualquiera de ellas en la otra. En cierto sentido, el hardware se ve como inatinente, y se considera que la información esencial de la operación de la máquina reside en el programa, esto es, en el software. Este hecho que resulta innegable en las máquinas debería ser extrapolado con sumo cuidado cuando se lo aplica a seres humanos. Sin embargo, tal cuidado no parece haber sido tenido en cuenta ni por el funcionalismo ni por la IA. Tal situación llevaría a una negativa a aceptar que el funcionamiento del cerebro pueda ser replicado por medios algorítmicos.

Otra de las limitaciones que se le imputan a la IA tradicional es la similar posición epistemológica a la adoptada por la medicina dental de Aristóteles. Aristóteles afirmaba que las mujeres tenían menos dientes que los hombres y atribuía esa característica a que las necesidades de las mujeres eran supuestamente menores. Sin embargo, nunca miró en la boca de una mujer para verificar su teoría. En forma parecida, se le imputa a la IA el haberse desarrollado como una empresa aislada del estudio complementario de la biología de la inteligencia natural, representado por la psicología y las neurociencias.

La IA y el funcionalismo psicológico resultan en algún sentido la descendencia de la máquina de Turing. No obstante, el funcionalismo (entendido como la idea de que la inteligencia puede ser explicada sobre la única base de la función que cumple) y las neurociencias (que trabaja más bien a partir del concepto de estructura) han avanzado por carriles distintos. De esto resulta que estas dos disciplinas del hexágono cognitivo mantienen sólo vínculos interdisciplinarios débiles. Tal situación ha comenzado a cambiar: hay interés en el tema de la mente por parte de los neurólogos y al mismo tiempo, los filósofos funcionalistas se han comenzado a interesar por cuestiones de "arquitectura". Estos dos movimientos convergentes están acercando a la IA y las neurociencias.

Ver parte 7.

El funcionalismo computacional y la Inteligencia Artificial en el nacimiento de la Psicología Cognitiva: la herencia de Turing. (5)

|
3.2. El Test de Turing

Dice Turing, al comienzo del artículo: "Me propongo examinar la pregunta siguiente: ¿Pueden pensar las máquinas?". Para contestar esta pregunta, idea la formulación de un problema que llama "juego de la imitación":

"Se juega con tres personas, un hombre (A), una mujer (B) y un interrogador (C), que puede ser de uno u otro sexo. El interrogador se queda en un cuarto, separado de los otros dos. Para él, el objetivo del juego es determinar cuál de los otros dos es el hombre y cuál la mujer. Los conoce por los signos X e Y, y al final del juego puede decir: 'X es A e Y es B', o bien: 'X es B e Y es A'. El interrogador puede hacer preguntas a A y a B de la manera siguiente:
C: Que diga X cuán largo tiene el pelo.
Supongamos que X es en realidad A. En este caso, A tiene que responder. El fin de A en el juego es tratar de lograr que C haga una identificación incorrecta. Por lo tanto, su respuesta podría ser la siguiente: 'Me cortaron el pelo y mis cabellos más largos tienen aproximadamente veinte centímetros'.

Para que el tono de la voz no ayude al interrogador, las respuestas deberían ser escritas. Lo ideal sería que un teleimpresor estuviera en comunicación con ambos cuartos. La pregunta y las respuestas pueden ser alternativamente repetidas por un intermediario. El objeto del juego para el tercer jugador (B) es ayudar al interrogador. La mejor estrategia para ella, probablemente será contestar la verdad. Puede añadir a sus respuestas cosas como: 'Yo soy la mujer, ¡no le crea a él!'. Eso, sin embargo, no adelantará nada, porque el hombre puede formular observaciones semejantes."

Hecha esta introducción, Turing introduce luego la cuestión de la máquina:
"Ahora preguntamos: '¿Qué pasaría si una máquina tomara el papel de A en este juego?'. ¿Decidirá el interrogador equivocadamente con igual frecuencia, si el juego se desarrolla de esta manera, que como cuando es jugado por un hombre y una mujer? Estas preguntas sustituyen la nuestra anterior: '¿Pueden pensar las máquinas?'."

El método ideado por Turing tenía, a su entender, algunas ventajas:
- Trazar una línea bastante bien definida entre las capacidades físicas e intelectuales del hombre (idea que luego tomaría el funcionalismo). La forma de plantar el problema lo lleva a centrarse sólo en las capacidades intelectuales, que son las que supuestamente una máquina podría imitar.
- Poder introducir casi cualquiera de las actividades humanas que deseara incluir. El método de pregunta y contestación parece ser conveniente para este propósito. Las condiciones del juego, sin contacto físico o visual, permiten que los participantes, si lo consideran oportuno, pueden jactarse cuanto quieran de sus encantos, fuerza o inteligencia, pero el interrogador no puede pedir demostraciones objetivas de ello.

Turing calculaba que para aproximadamente la época actual habría máquinas cuya potencia de memoria haría que un interrogador corriente no tuviera más de un 70% de oportunidad de hacer la identificación correcta después de cinco minutos de preguntas ("... creo que hacia fines de este siglo el uso de las palabras y la opinión culta en general habrán cambiado tanto, que será posible hablar de máquinas que piensan sin ser desmentido").

A continuación, Turing revisaba las diferentes objeciones que podrían esgrimir los opositores a su idea para ir descartándolas una a una. Entre esas objeciones, pueden citarse las siguientes:

1) La objeción de la "cabeza en la arena". Las consecuencias del hecho de que las máquinas pensaran serían demasiado horribles. Esperemos y creamos que no puedan hacerlo. El autor no se molesta en refutar este argumento que atribuye a los intelectuales "porque atribuyen más valor al poder de pensar que los demás, y tienden a fundar su creencia en la superioridad del hombre en este poder".

2) La objeción matemática, que surge de una aplicación del Teorema de Gödel: así como en cualquier sistema lógico suficientemente poderoso pueden ser formuladas proposiciones que no pueden ser demostradas ni refutadas dentro del sistema, a menos que el sistema mismo sea contradictorio, hasta la máquina de capacidad ilimitada tendrá preguntas que no podrá contestar o a las cuales dará una respuesta errónea. El argumento, entonces, postula una incapacidad de las máquinas a la cual el intelecto humano no está sometido. Sin embargo, según Turing, solamente ha sido enunciado, sin ninguna clase de pruebas, que el intelecto humano no sufre de tales limitaciones.

3) El argumento de la conciencia, expresado, según el autor, en la Oración de Lister de 1949 del profesor Jefferson: "Hasta que una máquina no sepa escribir un soneto o componer un concierto con base en los pensamientos y las emociones que siente, y no a consecuencia de la caída venturosa de símbolos, no podremos estar de acuerdo en que la máquina pueda ser igual que un cerebro, es decir, que no solamente sepa escribirlos, sino también que sepa que los ha escrito. Ningún mecanismo podría sentir alegría por sus éxitos, tristeza cuando sus válvulas se fundieran, placer al ser adulado y sentirse desgraciado a consecuencia de sus errores, encantado por el sexo, enfadado o deprimido al no lograr lo que desea". Para Turing, según este punto de vista, la única manera en que una persona podría estar segura de que una máquina piensa, sería siendo la máquina y sintiéndose pensar. Pero entonces, la única manera de saber que un hombre piensa consiste en ser este hombre particular. Esta línea de razonamiento, arguye, conduce al solipsismo.

4) Argumentos desde el punto de vista de diferentes incapacidades, que puede tomar la forma siguiente: "Admito que se puede compeler a las máquinas a hacer todas las cosas que acaba de mencionar, pero nunca podrá inducir a una máquina a hacer X", siendo X ser, amistoso, tener sentido del humor, saber distinguir lo bueno de lo malo, cometer errores, enamorarse, disfrutar las fresas con crema, aprender de la experiencia, ser el tema de sus propios pensamientos, hacer algo verdaderamente nuevo, etc. Según Turing, estas objeciones se basan en el principio de la inducción científica. Un hombre ha visto miles de máquinas en su vida, de lo que saca varias conclusiones generales. Sin embargo, la crítica de que una máquina no puede tener mucha diversidad de comportamiento es solamente una manera de decir que no puede tener mucha capacidad de almacenamiento, hecho que (suponía Turing) sería revertido con el tiempo.

5) La objeción de Lady Lovelace. "La máquina analítica no tiene pretensión de originar nada. Puede hacer todo lo que le ordenemos que haga. Puede llevar a cabo un proceso de análisis; pero no tiene poder de anticipar ninguna verdad o relación analítica". Esta primera versión del argumento contra la creatividad de las computadoras pertenece a Lady Lovalace (matemática, hija de Lord Byron) y fue sentado hacia mediados del siglo XIX. La "máquina analítica" fue el proyecto trunco de un visionario, Charles Babbage, una auténtica computadora mecánica que nunca llegó a funcionar por sufrir los rudimentos técnicos de su época. Este es el más eficaz de los argumentos en contra del test de Turing, aunque Turing sostiene que está teñido por cuestiones epocales y que si bien era fundamentado en el momento en que fue postulado no había razones para suponer que siempre sería así.

6) Argumento de la continuidad en el sistema nervioso. El sistema nervioso no es una máquina de estado discreto. Se puede argumentar que entonces no se puede esperar que seamos capaces de imitar el comportamiento del sistema nervioso con un sistema de estado discreto. Sin embargo, según Turing, aunque sea verdad que una máquina de estado discreto tiene que ser diferente de una máquina continua, si nos adherimos a las condiciones del juego de la imitación, el interrogador no será capaz de sacar ninguna ventaja de esta diferencia.
Después de estas objeciones y refutaciones, Turing sigue su razonamiento sosteniendo que el camino es recorrer un proceso que lleve a imitar una mente humana adulta. Encuentra tres componentes en este proceso:

a) El estado inicial de la mente, es decir, durante el nacimiento.

b) La educación a que ha sido sometida.

c) Otras experiencias (no definibles como educación) a las que ha sido sometida.

Entonces, en vez de tratar de elaborar un programa para estimular la mente adulta, propone tratar de producir un programa para estimular la mente infantil. Si ésta estuviera después sometida a un curso apropiado de educación, se obtendría un cerebro adulto. La idea subyacente es la de que hay tan poco mecanismo en un cerebro infantil que puede ser fácilmente programado. Así el problema queda dividido en dos partes, la construcción de la "mente" y su instrucción. Necesitamos una computadora-niño capaz de aprender, parece decir Turing y tal es el corolario de su artículo señero.

En lo que respecta a la "crianza" de esta máquina infantil, Turing se muestra digno seguidor de los cánones conductistas ya que sostiene lo siguiente: "solemos relacionar los castigos y las recompensas con el proceso de la enseñanza. Algunas máquinas infantiles simples pueden ser construidas o programadas con base en este tipo de principio. La máquina tiene que ser construida de tal manera que los resultados que precedieron brevemente a la ocurrencia de una señal de castigo tengan poca probabilidad de ser repetidos, mientras que una señal de recompensa aumenta la probabilidad de la repetición de los acontecimientos que la provocaron".
En algunas décadas, postulaba Turing en 1950, sería posible educar (programar) una máquina infantil de cierta complejidad hasta lograr que aprenda comportamientos inteligentes al igual que una persona, de manera tal que sus respuestas no pudieran distinguirse de las de un ser humano.

El artículo de Turing constituye algo así como la prehistoria de la IA. De ahí en más los investigadores de este campo tuvieron un terreno fértil para avanzar e intentar cumplir con algunas de sus promesas sobre máquinas que piensan y se comportan inteligentemente, al igual que los seres humanos. El test de Turing fue una suerte de declaración de principios de aquellos que buscaban conseguir una tecnología inteligente o pensante.

Es muy revelador que Turing haya preferido escoger esta prueba como criterio de inteligencia, en vez de utilizar algún recurso que midiera experticia, como habría sido por ejemplo la capacidad de jugar ajedrez. El tiempo le ha dado la razón: a la fecha, varios programas de computación juegan ajedrez a nivel de gran maestro e incluso pueden competir de igual a igual con el campeón del mundo; en cambio, no hay todavía ninguna máquina capaz ni siquiera mínimamente de engañar a un ser humano haciéndose pasar por mujer.

El arrogante comienzo de la IA no se correspondió siquiera con logros ínfimos que hicieran pensar que tal IA es posible. Cabe concederle a Alan Turing, igualmente, su calidad de precursor y su importancia para la ciencia cognitiva: sus ideas fueron lo suficientemente pregnantes como para atravesar toda la ya larga historia de este paradigma. Es de sospechar que de no haber sido por su prematura y lamentable muerte mucho más podría haber dicho en esta historia. De todas maneras, cualesquiera que sean los méritos o deméritos del Test de Turing como criterio de inteligencia artificial, es innegable su conexión con el funcionalismo: los estados de la computadora que está ejecutando un programa se definen por las relaciones de entrada y salida y por las relaciones que éstas guardan entre sí. Las descripciones de las operaciones de una computadora en términos de software es una descripción funcionalista. Un sistema puede ser descrito funcionalmente sin que sea preciso adoptar ningún compromiso ontológico acerca de la entidad que realiza la ejecución del programa.

Ver parte 6.

El funcionalismo computacional y la Inteligencia Artificial en el nacimiento de la Psicología Cognitiva: la herencia de Turing. (4)

|
3. Alan Turing y su test: nace la IA.

"No podemos especular sobre ningún adelanto correlativo en las facultades físicas o intelectuales del hombre que corresponda al de desarrollo muchísimo mayor que parecen tener reservado las máquinas. Algunas personas dirán que la influencia moral del hombre será suficiente para dominarlo; pero yo no puedo pensar que sea jamás una cosa segura confiar en el sentido moral de una máquina."
Samuel Butler, Erewhon (1872)

3.1. Alan Turing.
El genio matemático (prematuramente desaparecido en 1954) Alan Mathison Turing nació en Londres en 1912, en el seno de una familia de pequeña nobleza con gran tradición intelectual. A fines de 1922, le regalaron un libro titulado "Maravillas naturales que todo niño debe conocer", que le abrió los ojos para la ciencia. En ese libro, los seres vivos se presentaban como máquinas: "Por supuesto, el cuerpo es una máquina. Es una máquina muy compleja, muchas, muchas veces más complicada que cualquier máquina hecha con las manos; pero sin embargo una máquina."
Turing se hace notar a principios de 1936 (a los 23 años de edad) cuando pone a consideración de la Sociedad Matemática de Londres y publica un trabajo científico llamado "Sobre los números computables", donde especulaba sobre las posibilidades de una hipotética calculadora dotada de una cinta perforada de longitud potencialmente infinita y de una unidad de ejecución: la "máquina de Turing". La idea, si bien resultó un tanto molesta para la comunidad matemática por el desatino de introducir consideraciones tecnológicas en un texto de matemática pura, sirvió para que su autor adquiriera gran relevancia.

Cabe destacar que la idea primigenia de Turing se desarrolló antes de que existieran computadoras que funcionasen en realidad. Tal vez por esto se alentó el pensamiento en abstracto sobre la computadora y sus capacidades. Las limitaciones reales de las computadoras y de los programas se hicieron patentes después, cuando se disipó la excitación inicial. Recién entonces quedaron de manifiesto las limitaciones insalvables que tenía el modelo computacional.
Un par de años más tarde sus trabajos adquirirían mayor importancia cuando Turing comienza a trabajar en un centro de investigación en Bletchley Park, cerca de Londres, cuya misión fue descifrar el sistema de codificación de la máquina encriptadora Enigma que utilizaban los alemanes durante la Segunda Guerra Mundial. Así, los trabajos de Turing tomaron una relevancia práctica e influyeron en el desenlace de la guerra.

En 1950, Turing publica otro artículo que lo convierte en el primero en plantear la cuestión de sí las máquinas podían pensar, planteando el célebre "Test de Turing".

Ver parte 5.

El funcionalismo computacional y la Inteligencia Artificial en el nacimiento de la Psicología Cognitiva: la herencia de Turing. (3)

|
2.2. Funcionalismo Computacional o de IA.

Al considerar los estados mentales típicos debe tenerse en cuenta que éstos, generalmente, son "sobre algo", es decir, que tienen un contenido, rasgo este que los diferencia de otros fenómenos de la naturaleza. Esta característica de los estados mentales, el referirse a algo, es conocida como intencionalidad. La intencionalidad puede definirse entonces como la capacidad de los estados o eventos mentales de ser sobre otros objetos o eventos. Así, nuestras creencias, ideas, planes, deseos, dudas o esperanzas son siempre sobre algo, o en otras palabras, tienen intencionalidad.
Diversas posiciones filosóficas consideran la intencionalidad como un rasgo de los fenómenos mentales e intentan, de distinta manera, dar cuenta de ella. Una de estas posiciones, la Teoría Computacional de la mente, equipara el funcionamiento de la mente con la manipulación de símbolos, en forma de proposiciones. Los estados mentales serían traducibles a proposiciones y éstas serían luego sometidas a diferentes operaciones de acuerdo a ciertas reglas dando por resultado otras proposiciones.

Las proposiciones, una suerte de código mental de palabras, de carácter abstracto y semántico, serían la materia prima de la mente, una representación interna en nuestro sistema cognitivo. Para la Teoría Computacional de la Mente, los seres humanos llevamos a cabo nuestras actividades cognoscitivas mediante la manipulación de representaciones, mediante la manipulación de símbolos. Esta idea de que el sistema cognitivo humano puede asimilarse a una máquina de manipulación de símbolos fue la que guió los pasos de la primera psicología cognitiva, la perspectiva del procesamiento de la información, cuyo axioma básico era que el sistema cognitivo era equiparable a un procesador multi-propósito capaz de implementar cualquier clase de procedimientos efectivos.

El funcionalismo computacional, estrechamente asociado a la Teoría Computacional de la Mente, contempla a la mente como algo que lleva a cabo operaciones sobre símbolos codificados dentro de ella. La mente es entendida como un sistema formal en el que símbolos discretos se manipulan de acuerdo con un conjunto finito de reglas, o, como dice Rivière, computaciones discretas sobre representaciones discretas.

Esta concepción de las supuestas características computacionales de las actividades mentales fue prontamente adoptada por los investigadores de la Inteligencia Artificial (IA), otra de las Ciencias Cognitivas. Ya desde los albores de la Psicología Cognitiva y a partir del artículo seminal de Alan Turing, Computing Machinery and Intelligence, de 1950, la idea de que computadoras y personas son sistemas manipuladores de símbolos ha sido cara a la IA. A partir de aquel artículo, la idea de que es posible comparar seres humanos y máquinas ha estado presente en los trabajos de IA, bajo el paraguas protector de lo que se ha conocido desde entonces como Test de Turing. Si bien sobre esta prueba se ampliará en el apartado siguiente, puede adelantarse aquí que sostiene que una computadora será comparable en inteligencia a un ser humano si los seres humanos no pueden distinguir las realizaciones de un computador de las de otro ser humano. Esta concepción de la IA como capaz de encontrar las relaciones lógicas que subyacen a la realidad y representarlas en símbolos, es continuadora de una larga tradición filosófica que va desde Aristóteles y llega a Frege, Rusell, Whitehead, o Gödel, y que sostiene que un sistema físico de símbolos, dotado de una sintaxis (reglas) puede dar cuenta del pensar humano.

Los intentos por hacer equivaler la producción de la mente humana con la de algún tipo de artificio tecnológico han avanzado por dos caminos. Ambos comparten la idea de que es posible lograr, a partir de un mismo input, el mismo output en personas y computadoras, y se diferencian en la manera en que se obtiene ese output: la Inteligencia Artificial es uno de esos caminos y la Simulación el otro. Así, la IA busca realizar ejecuciones análogas o superiores al rendimiento humano en tareas idénticas, pero sin la intención expresa de reproducir los procesos cognitivos humanos. La Simulación, por su parte, además de mimetizar el comportamiento inteligente humano (con sus mismas limitaciones), pretende emular los procesos y mecanismos mentales que llevan a ese comportamiento. Esto es, la simulación está sometida a muchas más restricciones psicológicas que la IA.

La distinción anterior resulta fundamental para el funcionalismo computacional, ya que si éste intenta ser una explicación de la cognición humana, entonces su meta debe ser la simulación cognitiva, con programas de computadoras que efectúen las mismas operaciones que los seres humanos. Lo anterior es lo mismo que decir que la computadora debe seguir el mismo algoritmo que los seres humanos, lo que lleva a un doble problema: por un lado, resulta difícil sostener que todos los comportamientos humanos puedan ser traducidos a un algoritmo; más bien, puede sostenerse que los seres humanos resolvemos muchas de las cuestiones a las que nos enfrentamos de manera heurística, no "algoritmisable". Por otro lado, aún sosteniendo que los comportamientos inteligentes humanos pueden traducirse a un algoritmo, queda la cuestión de cómo especificar la secuencia de pasos que ese algoritmo supone.

Pese a la salvedad realizada en el párrafo anterior, los mayores y más reconocidos intentos por remedar la conducta inteligente humana provienen del campo de la IA. Desde los momentos iniciales fue la IA la encargada de producir programas que compitan con los seres humanos, siempre buscando la respuesta a la pregunta original de Turing: "¿pueden pensar las máquinas?".

En el verano de 1956, un grupo de investigadores, inspirados en la Prueba de Turing, se reunió en el Darmouth College (Estados Unidos) para discutir la posibilidad de construir máquinas que no se limitaran a hacer cálculos prefijados sino operaciones genuinamente "inteligentes".
Los integrantes del grupo eran Samuel, que había escrito un programa de juego de damas capaz de aprender de su propia experiencia; McCarthy, que estudiaba sistemas capaces de efectuar razonamientos de sentido común; Minsky, que trabajaba sobre razonamientos analógicos de geometría; Newell, Shaw y Simon, que habían construido un programa para la demostración automática de teoremas, y algunos otros. Entre los investigadores, entonces, estaban los que suelen considerarse como los cuatro padres de la IA: John McCarthy, Marvin Minsky, Allen Newell y Herbert Simon. Estos fueron los verdaderos iniciadores en el campo de investigación que McCarthy bautizó como "Inteligencia Artificial".

A partir de este grupo inicial, ya se delinearon las dos grandes escuelas en IA: Newell y Simon lideraron el equipo de la Universidad de Carnegie-Mellon, proponiéndose desarrollar modelos de comportamiento humano con aparatos cuya estructura se pareciese lo más posible a la del cerebro (lo que posteriormente derivó en el conexionismo y en los trabajos sobre "redes neuronales" artificiales). McCarthy y Minsky formaron otro equipo en el Instituto Tecnológico de Massachusett (MIT), centrándose en productos del procesamiento que tuvieran carácter de inteligente, sin preocuparse por que el funcionamiento o la estructura de los componentes fueran parecidas a los del ser humano.

La línea seguida por el equipo del MIT ganó prontamente preponderancia en lo que respecta al desarrollo de programas de IA, condenando al ostracismo por cerca de 25 años a los seguidores de la línea de Carnegie-Mellon. Hasta los años 80, "inteligencia artificial" fue un sinónimo de los trabajos realizados por la escuela del MIT. Luego, y ante el hecho de que los sistemas de IA sucumbían ante la creciente longitud y complejidad de su programación, esta situación comienza a cambiar y las ideas primigenias de Newell y Simon vuelven al centro de la escena científica, dando lugar al desarrollo del programa conexionista en IA. Sin embargo, estos caminos prometedores de la historia, nos alejan de los límites de este trabajo por lo que no serán abordados.

En el apartado siguiente se analizarán las propuestas originales de Turing a la luz de sus propios argumentos y de los logros reales alcanzados por la IA en estas cinco décadas.

Ver parte 4.

El funcionalismo computacional y la Inteligencia Artificial en el nacimiento de la Psicología Cognitiva: la herencia de Turing. (2)

|
2. Funcionalismo y Psicología Cognitiva.

2.1. El funcionalismo.

El cognitivismo, si bien continuador del programa conductista, se diferencia de éste en ciertas cuestiones fundamentales. La piedra de toque del nuevo paradigma, que lo torna irreconciliable con la tradición conductista, es la postulación de que deben existir, con carácter necesario, ciertas entidades mentales, ciertos procesos hipotéticos, que son determinantes para explicar las conductas y que, en consecuencia, éstas no pueden ser puestas en función únicamente de eventos externos.

De lo anterior surge uno de los puntos críticos del programa de investigación de las ciencias cognitivas: como reconocer y clasificar los eventos mentales. El funcionalismo es un intento filosófico de dar respuesta a esta cuestión, es una teoría según la cual estar en un estado mental es estar en un estado funcional. Un estado funcional es un estado que puede ser caracterizado por virtud de sus relaciones causales, esto es, para los funcionalistas los eventos mentales se clasifican en términos de sus papeles causales, por lo que un evento mental se describiría en términos de su papel en el sistema mental. De acuerdo a esto, un estado mental debe tener un tipo particular de causa, por ejemplo, un input o entrada sensorial, y un tipo particular de efecto, por ejemplo un output o salida conductual. Para los cultores del funcionalismo, éste permitiría superar las dificultades inherentes al dualismo, al conductismo y a la teoría de la identidad mente/cerebro.

Según la posición funcionalista los eventos mentales pueden reconocerse y clasificarse de manera independiente a su constitución física. Esto respeta la tradición de la psicología cognitiva que considera a las representaciones mentales como relativamente independientes tanto del plano biológico como del social. Esta idea de autonomía funcional de los aspectos mentales ha sido entendida también en términos más estrictos, llegando a postular la completa independencia de las representaciones mentales y la necesidad de un nivel de análisis diferente del neurológico y del sociológico.

En cierto sentido, el funcionalismo es un intento de soslayar el problema de la mente y el cuerpo, ya que proporciona un marco filosófico dentro del cual es posible diseñar una psicología científica sin necesidad de apelar a la ontología de la persona. Este marco filosófico se acerca a la Teoría de la Identidad como Instancia que, del mismo modo, disocia las descripciones de los eventos mentales de las descripciones de los eventos físicos. Si bien se mantiene que toda instancia de un evento mental es una instancia de un evento neural, no se exige que los tipos de eventos mentales se hagan equivaler con tipos de eventos neurales. Tal postura se corresponde con la idea de la psicología cognitiva según la cual los estados mentales son relativamente independientes del plano biológico del cual surgen. En rigor, debería hablarse de interdependencia entre los tres planos (neurológico, psicológico y social), con un desarrollo concurrente, sin que ninguno prefigure a otro. Puede decirse que sin alguno de los otros dos la experiencia psicológica no podría existir pero que en ningún modo es reductible a ellos.

Los teóricos funcionalistas, entonces, no sostienen que los estados mentales no tienen una realización material (lo que los convertiría en dualistas o espiritualistas). Más bien, imaginan que los tipos de estados mentales podrían tener demasiadas realizaciones materiales distintas. Esto es, una y la misma organización cognoscitiva puede ser producida o encarnada de distintas formas en distintas materias, lo que ocasiona que no puedan darse relaciones de uno a uno entre los tipos funcionales y los tipos estructurales. Sin embargo, funcionalismo y materialismo no son la misma teoría. Según el materialismo, todo estado mental se identifica con algún estado físico; según el funcionalismo, del hecho de que existan estados mentales, no se sigue lógicamente que tales estados sean físicos. Recién cuando al funcionalismo se le agrega una premisa extra (que todas las causas y efectos son causas y efectos físicos) puede decirse que entraña al materialismo.

De acuerdo a lo anterior, puede observarse que los funcionalistas materialistas adoptan una postura no reduccionista de la mente. El punto de vista reduccionista, como en el caso de los teóricos de la identidad, sostiene que los estados mentales son idénticos a estados del cerebro. En líneas generales, cualquier postura reduccionista en la ciencia implica sostener que una ciencia particular puede derivarse deductivamente de otra ciencia más general. En el caso de la psicología, equivale a sostener que sus leyes son casos particulares de una ciencia fundante más amplia (por ejemplo la neurobiología).

Existe en la actualidad una gran variedad de versiones diferentes del Funcionalismo filosófico. Todas comparten la idea de que los estados mentales deben identificarse en término de sus interacciones mutuas y difieren sobre cómo han de especificarse esas interacciones. A los fines de este trabajo resulta de especial interés el modelo de Funcionalismo Computacional o de Inteligencia Artificial que será reseñado a continuación.

Ver parte 3.

El funcionalismo computacional y la Inteligencia Artificial en el nacimiento de la Psicología Cognitiva: la herencia de Turing. (1)

|
Sanchez, R. Enlaces. Revista de Psiquiatría y Psicología Médica del Sudeste de la Provincia de Buenos Aires, Año III, Nº 4, pág. 14-23, 2003.

1. Introducción: Psicología, Filosofía de la mente y Ciencias Cognitivas.

Las reflexiones acerca de la naturaleza del conocimiento y de la mente humana han estado siempre presentes en la historia intelectual de nuestra civilización. En la psicología, salvo el breve interregno de dominio conductista, dichos temas fueron abordados por los distintos enfoques teóricos que históricamente han ido surgiendo. Es principalmente durante las décadas de 1920, 1930, y 1940 que la psicología se aparta del estudio científico de la mente humana.

El conductismo, momento cúlmine del afán positivista en la psicología, tuvo la ventaja de apartar a esta disciplina de toda especulación ociosa, al estilo de una discusión bizantina, pero también es cierto que la alejó de los temas más relevantes de la experiencia humana, negando las cuestiones mentales, o bien intentando explicarlas en términos de simples conexiones E - R.

Este estado de cosas comienza a cambiar hacia fines de los años '40. Tímidamente primero y de manera arrolladora después, un nuevo paradigma comenzó a imperar en la psicología trayendo de vuelta consigo a las preocupaciones serias por el estudio de la mente. En este sentido, el Simposio de Hixxon en 1948 resultó ser un momento de inflexión; allí se cuestionaron seriamente los supuestos del programa conductista. En particular, Karl Lashley (ex-seguidor de Watson) criticó a la idea de que cuestiones tales como el lenguaje pudieran explicarse a través de cadenas asociativas donde cada elemento de la serie excita al próximo. Es el significado, sostuvo, lo que determina como debe entenderse una serie de palabras y no la mera uniones entre ellas 2.

La postura de Lashley fue que para alcanzar nuevas intelecciones acerca de la mente humana era necesario enfrentar al conductismo e intentar dar cuenta de conductas organizadas complejas tales como hablar o tocar un instrumento. Jhon Von Neumann, por su parte, trazó una inesperada analogía entre la computadora electrónica (invento más que reciente para entonces) y el cerebro humano. El íntimo contacto que mantuvo Von Neumann con el nacimiento de la computación fue tal que una de las primeras computadoras comerciales fue bautizada en su honor: la Johniac 3. Estos y otros pensadores que concurrieron a Hixxon (McCulloch, Köhler, Lindsley, Nielsen, etc.) hicieron de este Simposio una coyuntura crítica de la historia de la ciencia.

Ya hacia mediados de los años '50 la Psicología Cognitiva era el paradigma dominante en la psicología y la vinculación del cerebro humano con la computadora era el modelo que guiaría las investigaciones futuras, desterradas ya las pretensiones reduccionistas de los conductistas.
Prontamente se desarrollaron otras disciplinas afines que dieron lugar a lo que se conoce como Ciencias Cognitivas: Filosofía, Lingüística, Antropología, Neurociencia, e Inteligencia Artificial componen, junto a la Psicología, el hexágono cognitivo, con vínculos interdisciplinarios de diferente fuerza entre ellos. Hasta mediados del siglo XX, no se pensaba que esas disciplinas tuvieran mucho en común. Cada una de ellas usaba métodos propios muy diferentes entre sí y era practicada por científicos y filósofos con muy distintos intereses y adiestramiento. Dentro de este cuadro, es la filosofía de la mente la encargada de ofrecer tesis sustantivas sobre la naturaleza de la mente y la actividad mental.

La revolución cognitiva ha supuesto un problema especial para la filosofía, en particular para la filosofía de la mente. En su intento de desarrollar, mediante la inteligencia artificial o la simulación, modelos de procesamiento interno los cognitivistas intentan caracterizar los sucesos mentales en términos de su eficacia causal. El funcionalismo, una de las líneas filosóficas actuales, busca dar respuesta a este intento de caracterización de los eventos mentales. Así, esta filosofía hace suya la búsqueda de la explicación de ciertos fundamentos nucleares del programa de investigación de la ciencia cognitiva.

Ver parte 2.

Cambio del sistema de significados personales

|
Cuando lo que está en juego es el modo de ser en general del paciente, la terapia debe promover cambios en los significados nucleares de los que se vale el paciente para organizar su experiencia. Estos significados constituyen el eje central de la identidad personal. El trabajo con la identidad supone los movimientos terapéuticos más críticos de un tratamiento, pues la identidad constituye el aspecto más delicado de la arquitectura psicológica del ser humano. Por eso, cuando sentimos amenazada nuestra identidad como personas o como grupos, experimentamos el máximo peligro sobre nuestras cabezas.

Existen distintos modelos para modificar esas creencias centrales, pero todos ellos implican un trabajo de largo alcance. En esta tarea deben considerarse aspectos contenidos en la memoria mediata del paciente, pues para lograr modificar esos esquemas es imprescindible que el paciente revise su historia vital y, con ello, tenga acceso al programa que ha guiado su vida hasta la crisis con la que se enfrenta.

La terapia cognitiva ha contribuido con sus ideas a concebir la terapia de largo aliento como un proceso narrativo en el que el paciente cuenta su vida y despliega sus potencialidades con miras a poder desarrollar una nueva interpretación de los hechos. La psicoterapia se convierte en ese caso en una reconstrucción personal que llevan a cabo conjuntamente el paciente y el terapeuta. En ese sentido, la psicoterapia constituye un fenómeno de co-construcción.

Material consultado:
Fernández Alvarez, H. Terapia Cognitiva. (1999) En "El bienestar que buscamos. Tres enfoques terapéuticos", AH Editores, Buenos Aires, págs. 242-243.

Afrontamiento

| 11/6/07
Para muchos problemas, el mejor método de resolución consiste en poder realizar un enfrentamiento gradual de la situación. La T.C ha efectuado diversas adaptaciones de procedimientos originados en la terapia del comportamiento como la exposición y la desensibilización. Con el afrontamiento se busca ayudar al paciente a ir logrando disminuir, de manera progresiva, las reacciones negativas que le despierta alguna situación. Se trata de una técnica con diferentes modalidades, que se aplican, entre otros casos, en los pacientes que presentan reacciones de ansiedad. Una variante importante de la exposición es la denominada exposición en vivo. En ese caso, el proceso no se realiza en el consultorio, sino en los espacios habituales donde se desempeña el paciente.

Este ejemplo de aplicaciones terapéuticas en ámbitos "reales" no es una excepción. La T.C prescribe una relación paciente-terapeuta que admite ese tipo de intervenciones. Aunque sostiene, como en toda terapia, que existe una asimetría natural entre ambos roles, no se espera que el terapeuta mantenga una distancia muy pronunciada respecto del paciente. Esto es una variante más del principio que sostiene que la relación terapéutica debe ser de alta colaboración.
Cuando el tratamiento es más complejo y los cambios que se deben promover son más profundos, entonces la terapia deberá recurrir a otros procedimientos de mayor complejidad. En ese caso, las técnicas anteriormente descriptas pueden utilizarse como facilitadores o elementos auxiliares, pero el trabajo principal tiene otra dirección. La tarea fundamental consiste en modificar los esquemas nucleares que gobiernan la personalidad.

Material consultado:
Fernández Alvarez, H. Terapia Cognitiva. (1999) En "El bienestar que buscamos. Tres enfoques terapéuticos", AH Editores, Buenos Aires, págs. 241-242.

Emergencia del cognitivismo (4)

|
4.- Problemas prácticos: Los ingenieros industriales durante la segunda guerra mundial y posteriormente se enfrentaron a ciertos problemas prácticos relativos a la relación hombre-máquina. Cuando se diseña un dispositivo mecánico o electrónico hay que tener en cuenta el "factor humano", es decir el operario que lo va a usar. Los psicólogos proponen a los ingenieros que la máquina y el operario deben considerarse como un único "sistema hombre-máquina" cuyo rendimiento hay que optimizar. Por ejemplo, si se diseña una cabina de avión, las señales de los indicadores deben ser fácilmente legibles por el piloto; los mandos deben tener una disposición adecuada a la anatomía humana; y en general debe minimizarse el esfuerzo físico y mental del piloto para evitar errores. Es evidente que la nueva concepción del diseño industrial exige no sólo soluciones pragmáticas, sino un cierto grado de comprensión de los procesos psíquicos del "factor humano"; por ejemplo, sus límites atencionales, sus mecanismos de forma de decisión, etc. Todo ello sin duda supone una demanda social de una psicología más cognitiva.

Broadbent (1958), uno de los primeros psicólogos cognitivos, trabajaba como psicólogo militar en la Marina británica. Estudiando el rendimiento de los operarios de radar y los controladores aéreos, que reciben una gran sobrecarga de información, Broadbent comienza a interesarse por los procesos de atención. Entre sus aportaciones destaca el primer modelo de la atención humana, formalizado como un diagrama de flujo.

Material consultado:
De Vega, M (1984) Introducción a la Psicología Cognitiva. Madrid: Alianza. Cap. 1, pp. 28-30.

Emergencia del cognitivismo (3)

| 10/6/07
3.- La psicolingüística: La psicolingüística tiene un origen relativamente reciente, que puede situarse cronológicamente en el verano de 1951, cuando el Social Science Research Council realizó un seminario interdisciplinar sobre lenguaje en la Universidad de Cornell en el que participaron varios psicólogos y lingüistas (Rieber y Vetter, 1979). Sin embargo, fue a partir de la publicación de Syntactic Structures (Chomsky, 1957), cuando la interacción entre psicólogos y lingüistas cobró especial importancia.

La obra de Chomsky constituyó un hito en el campo de la lingüística y un revulsivo en el estudio psicológico del lenguaje. Chomsky realizó una crítica demoledora de los modelos del lenguaje de su época. Por una parte, rechaza las concepciones asociativas de la escuela de aprendizaje verbal y del conductismo. Además argumenta en contra de las "gramáticas de estado finito" que estaban en boga entre los lingüistas. En opinión de Chomsky las expresiones gramaticales no se generan como cadenas asociativas lineales. En lugar de ello, propone su gramática transformacional que comprende una serie de reglas generativas y reglas de transformación. El lenguaje se puede estudiar como un dispositivo de competencia, que incluye un conjunto de reglas de reescritura de símbolos, capaz de generar todas las frases gramáticales del lenguaje natural.

Asimismo estableció una importante distinción entre competencia y actuación lingüistica. La principal labor del lingüista es elaborar un modelo de competencia gramatical, es decir, de las reglas que permiten generar todas las frases gramaticales de un idioma y ninguna de las no gramaticales. La competencia es un dispositivo idealizado, que se puede estudiar de modo formal, al margen de cualquier pretensión psicológica. Pero cuando dirigimos nuestra atención a los usuarios particulares de un idioma, observamos que su producción y comprensión de frases no depende exclusivamente de la competencia -si así fuese nos limitaríamos a construir frases gramaticalmente correctas pero aleatorias-. El hablante, está constreñido por sus intenciones, su conocimiento del mundo y del interlocutor, sus estados mentales, sus limitaciones atencionales y de memoria, el contexto, etc. Es decir, que la actuación verbal depende tanto de la competencia como de un conjunto de variables psicológicas.

La teoría chomskyana fue aceptada inmediatamente por la naciente psicología cognitiva, que compartió la crítica de Chomsky a las concepciones asociativas y lineales, y aceptó gustosamente la noción de reglas generativas y transformacionales. Actualmente existen estrechas conexiones interdisciplinares entre los lingüistas postchomskyanos (la teoría estandar de Chomsky ha perdido vigencia), la psicología cognitiva y la Inteligencia Artificial.