Distributed Agents to Retrieve Web Intelligence
  
email E-mail    
HOME                 Registration        About us  Alliances  Contact us |
 Attractions    Bibliography    Classified Papers    Search    Infomaps    Site Map    i-Web    Images Bank    White Papers  
Login Area 11111
 User: 
 Password:
Forgot your password?
Register





free counters
Agents Tour | AI-Lab | Darwin Tour | Faq | News | Newsletter | Pag's | Press Releases | Search Tutorial


ELIZA - Chatterbots
Juan Chamero, Editor Jefe de aunmas.com
Revisado y actualizado a Junio del 2008


En 1960 Joseph Wiezbaum Profesor Emérito del MIT, Instituto Tecnológico de Massachussets, desarrolló un programa de psicoterapia denominado ELIZA, escrito en Fortran, que simulaba el diálogo entre un psicoterapista Rogeriano (Terapia Centrada en la Persona, de Carl Rogers) y un paciente. Si bien éste programa rudimentario no engañaba con su lenguaje a los científicos sentó las bases de la rama de IA denominada Procesamiento en Lenguaje Natural (NLP en inglés). Algunas aplicaciones de ésta rama pueden encontrarse en programas de reconocimiento de la conversación y de la voz humana.

Abajo presentamos un fragmento de una “conversación” que mantuve en Inglés con una versión de Eliza escrita en Java recientemente y que puede encontrar en Eliza, Computer Therapist preparada por George Dunlop y que aclara que realmente el programa emula a un psicoterapista Rogeriano y que Eliza carece realmente de inteligencia, son solo trucos realizados sobre cadenas lingüísticas que se sustituyen y respuestas tipo basadas en palabras claves aunque brinda una ilusión de intercambio inteligente. La ilusión se hace mayor cuando uno habla de sí mismo y de su vida.

  • ..........................................
  • P- But what could I do Dr?
  • E- Have you asked such questions before?
  • P- No I only commented that with my wife
  • E- Are you sure?
  • P- Of course I'm feeling bad but I'm not crazy yet
  • E- Do you believe it is normal to be feeling bad but you're not crazy yet?
  • P- Well one thing is to feel bad and another one to be crazy isn’t?
  • E- I'm not sure I understand you fully
  • P_Well let me explain a little more. I feel bad, depressed but I could think normally... I believe
  • E- Tell me more about such feelings
  • ....................................................

que luce como una conversación posible entre un paciente (P) y un psicoterapeuta (E) algo retorcido y huidizo. Veamos en Español una de las pruebas que hizo el propio Eliza de Weizbaum “dialogando” con una adolescente: en negrita la respuesta de Eliza:
  • A- Todos los hombres son iguales
  • E- ¿En qué sentido?
  • A- Siempre está embromando con una u otra cosa
  • E- ¿Podría darme un ejemplo específico?
  • A- Bueno, mi novio me hizo venir acá
  • E- ¿Su novio la hizo venir?
  • A-El dice que estoy siempre deprimida
  • E- Lo siento que se sienta deprimida
  • A- Si, es cierto, me siento infeliz
  • E- ¿Cree Usted que viviendo aquí dejará de ser infeliz?
  • A- Yo necesito ayuda, eso es verdad
  • E_ ¿Qué significaría tener algo de ayuda?
  • A-Quizá pueda aprender a llevarme mejor con mi madre
  • E- Cuénteme algo de su familia
  • A-Mi madre me cuida..
  • E-¿Quién más en su familia cuida de Usted?
  • A- Mi padre
  • E- Su padre
  • A- Usted es en cierto modo como mi padre
  • E- ¿Qué parecido ve?
  • A- Usted no parece agresivo pero creo que Usted no quiere que yo lo note
  • E- ¿Qué es lo que le hace pensar que no soy agresivo?
  • A- Usted no polemiza conmigo
  • E- ¿Porqué cree que debo polemizar?
  • A- Usted tiene miedo de mí
  • E- ¿Le place entonces que yo le tenga miedo?
  • A- Mi padre tiene miedo de todo
  • E- ¿Qué otra cosa viene a su mente cuando piensa en su padre?
  • .........................................


Proyectos Recientes

En Octubre del año 2004 surge CLARION, una creación de Ron Sun que incorpora la idea de un "agente psicológico" o chatbot con capacidad de aprendizaje y fundamentado además en una nueva ontología de la conversación humana. En realidad el proyecto apunta a la creación de modelos cognitivos para simular la sociedad humana. En la figura de abajo se muestra su arquitectura



el agente que se encuentra en un determinado estado s reacciona hablando (acción a) a un estímulo externo y dentro de una cadena de razonamiento sintético. La acción a debería ser de utilidad para el agente, por ejemplo aumentando su conocimiento. Dentro del proceso de aprendizaje se ha estado trabajando mucho en Q-learning que trata de optimizar una función de aprendizaje Q(s, a) que depende de la acción y estado y que es función, a su vez, de la experiencia que se va adquiriendo (el agente), aún ignorando el modelo cognitivo del medio, digamos de la "otra parte" del diálogo, por ejemplo en un chat.


Función solo compleja en apariencia pero de programación trivial y que nos dice algo así: el aprendizaje emergente del par (s, a), para un estado s de un conjunto de estados posibles S y para una acción a dentro de un conjunto de acciones posibles A, el cálculo de la recompensa Q se realiza mediante esa transformación, donde r es una recompensa real observada, "alfa" es la tasa de aprendizaje, un factor comprendido entre 0 y 1, y "gama" es un factor de descuento, también comprendido entre 0 y 1, computada sobre todos las posibles acciones a (tomando el valor máximo como señala la transformación). Al respecto estas tecnologías son muy similares y hasta diría del mismo tipo que las empleadas en la Programación Dinámica de la "vieja" Investigación Operativa de la década del 40. Esto también se conoce como aprendizaje reforzado.

La arquitectura de CLARION se lee así: ACS es el subsistema cognitivo centrado en la acción mientras que NACS el subsistema centrado en la No-ación. MS es el subsistema motivacional y MCS el subsistema meta-cognitivo. Toda la arquitectura tiene un sesgo de la mónada Yin-Yang de complementarios. En cada susbistema se considera lo eplícito (arriba) separado pero trabajando en equilibrio con lo implícito (abajo) y en el otro "eje" la acción de la no-acción, lo motivacional de lo mete-motivacional, de su regulación y control.


Otros chatbot

Verbots, por Verbal bots agentes verbales, orientados a crear Personalidades Virtuales, guías, tutores, "wizards", agentes de servicios, etc.

A.L.I.C.E., Artificial Intelligence Foundation,entidad sin fines de lucro que auspicia el perfeccionamiento y uso de ALICE, Artificial Linguistic Internet Computer Entity, con Procesamiento de Lenguaje natural (NPL), un robochat de IA. Este robot ha ganado el Premio Loebner del año 2004, instituido especialmente para premiar los chatterbots más parecidos al ser humano. El creador de ALICE fue Richard Wallace quien fue merecedor del Premio Loebner en tres oportunidades, años 2000 2001 y 2004.

En el año 2007 el premio fue otrorgado a Ultra HAL Assistant, definido como compañero y secretario digital. Por ahora programado en Lenguaje Natural Inglés.


HAL Assistant interface


Back
Back to the last page


Copyright © 2003-2013 Darwin! Inc. All rights reserved.