Site hosted by Angelfire.com: Build your free website today!

Atrás Principal Arriba Siguiente

Parte V

Tiempo en el razonamiento probabilista

Tiempo e incertidumbre 

Variables aleatorias

Una variable aleatoria booleana tendrá un dominio que sea verdad o falso. Para ser realmente un sistema probabilista, se debe reconocer en primer lugar la presencia de no menos de una variable aleatoria.

Para el mundo de la “mochila 1-0”, una variable aleatoria sería la capacidad C de la serie de mochilas disponibles. Cada uno de los 10 candidatos a meter dentro de la mochila elegida (de dudosa capacidad C) podrá estar (1) o no estar (0) en una dada selección. Aparecerá entonces un número “aleatorio” de 10 cifras binarias representando el contenido temporal de la mochila elegida.

Iconos de la red decisional

Nodos aleatorios: contienen variables probabilistas representando el estado del ambiente. 

Nodos decisionales: contienen posibles elecciones para una dada acción. 

Nodo de utilidad: contiene una función para calcular la utilidad basada en las variables probabilistas y en las decisiones.

El problema de la mochila

¿En que consiste?

¿Cuales pueden ser los enfoques de solución?

Hay tres variantes:

Fuerza bruta: Probar todas las posibilidades. Un objeto puede ser añadido o restado a la mochila y sumar los pesos correspondientes para estar seguro de no sobrepasar la capacidad de carga W. Es un aproximación bastante mala 

Greedy: En cada iteración agregar el objeto con la relación Bi / Wi más alta. Ejemplo con W = 500 (Carga máxima).

Objeto Peso Beneficio Bi/Wi
Lentes de sol 50 g 50 1
Traje de baño 300 g 450 1.5
Toalla 400 g 520 1.3
Refrigerador 250 g 100 0.4

La solución con el método greedy sería seleccionar traje de baño y los lentes para el sol con un beneficio total: 500.

Obviamente esta solución no es la óptima; pero también podríamos tomar la toalla y los lentes para el sol y obtener un beneficio total de 570. 

Programación dinámica:

Sea :

Donde:

Obtener todas las posibles G(Wj); donde Wj es un entero tal que Wj = W; y j es un tipo de artículo

G(W) = MAX j{ Bj + G(W - Wj) }

Una vez que se obtienen las soluciones anteriores, se obtiene G(W – Wj ) sucesivamente hasta que W-Wj = 0 o
W –Wj es menor que el peso de cualquier artículo.

Ejemplo: Suponga que se ha de llenar una mochila de 10 kilos con los artículos que aparecen en la tabla que se muestra abajo. Para maximizar el beneficio total ¿Cómo se debe llenar la mochila? 

Artículo Peso Beneficio
Artículo 1 4 kg. 11 Pesos
Artículo 2 3 kg. 7 Pesos
Artículo 3 5 kg. 12 Pesos

Existen 2 soluciones de X(10):

En resumen: Se alcanza el beneficio máximo G(10) = 25 llenando la mochila con 2 artículos tipo 2 y uno tipo1.

Importancia del problema:

Papel de las emociones

Las nociones de emociones y de sensaciones pueden ser formalizadas y hechas útiles en diseño de agentes inteligentes artificiales que deben obrar en ambientes inciertos, complejos, a veces poblados por agentes y humanos.

Formalización, diseño racional del agente decisión – teórico, esto es, dicho agente actúa para maximizar la expectativa de su medida de desempeño. Este modelo de decisión-teórico de la toma de decisión se puede adaptar para definir formalmente los estados emocionales y las sensaciones de un agente racional.

Definiciones demuestran cómo los estados emocionales transforman la situación de la toma de decisión del agente, p. ej.: haciéndolo más miope, alterando la medida de desempeño subjetiva del agente, o modificando las probabilidades asignadas por el agente a los estados del mundo.

Así, las emociones pueden ser útiles para un agente racional:

  1. Modificando el modelo decisión-teórico usado para la racionalidad deliberativa, las emociones permiten que el agente controle la asignación “anytime” de sus recursos cognoscitivos y la complejidad de sus deliberaciones, bajo presión del tiempo y en un ambiente incierto. P. ej.: limitando el número de los comportamientos alternativos considerados, o acortando el lapso de tiempo para una toma de decisión más rápida.

  2. Las emociones y las sensaciones resultan tener para informar al otro agente sobre su propio estado interno. En vez de tener que describir los detalles de su estado interno, el agente puede utilizar términos más abstractos y más universales. Por ejemplo, las nociones de tensión o de pánico pueden ser convenientes para urgir a que el otro agente considere solamente efectos a corto plazo de sus acciones. Así, en el contexto de la comunicación con otros agentes, las definiciones formales de emociones sirven como semántica de términos emocionales, con los cuales los agentes pueden expresar sus propios estados internos y entender los estados en que están otros agentes.

  3. Los estados emocionales bien definidos de uno mismo y de otros son cruciales en la interacción del agente con seres humanos. Con frecuencia, la interacción humano - agente resulta muy afectada porque la máquina no aprecia el estado emocional del humano. Pero el estado emocional de los usuarios se puede determinar usando factores mensurables. Es importante que la máquina modele y prediga el efecto que el estado emocional del humano tiene sobre la toma de decisión y la actuación de éste.

Cadenas de Markov

Un agente debe tomar con frecuencia una decisión bajo incertidumbre sobre muchos acontecimientos futuros. Los procesos estocásticos se adecuan a un modelo probabilista para los acontecimientos que se desarrollan en un cierto plazo. Un proceso estocástico suele estar determinado como cadena de Markov. En este modelo la incertidumbre futura depende solamente del estado actual y no de la historia del proceso hasta el presente. Se utiliza los Procesos de Decisión Markovianos (MDP) para modelizar las búsquedas en dominios estocásticos.

El "problema de la mochila" es un ejemplo de un problema de toma de decisión que se puede modelar por una cadena de Markov.

Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. " Recuerdan" el último evento y esto condiciona las posibilidades de los eventos futuros. Esta suposición de Markov afirma la dependencia de un evento y distingue a las cadenas de Markov de las series de eventos como la de revolear monedas – series independientes.

En la figura se muestra el proceso para formular una cadena de Markov. El generador de Markov produce uno de n eventos posibles, Ej , donde j = 1, 2, . . . , n, a intervalos discretos de tiempo (que no siempre son iguales ). Las probabilidades de ocurrencia para cada uno de estos eventos depende del estado del generador. Este estado se describe por el último evento generado. Si el último evento generado fue Ej , entonces el generador se encuentra en el estado Mj.

La probabilidad de que Ek sea el siguiente evento generado es una probabilidad condicional : P ( Ek| Mj ). Esto se llama probabilidad de transición del estado Mj al estado Ek. Para describir completamente una cadena de Markov es necesario saber el estado actual y todas las probabilidades de transición.

Probabilidades de transición

Una forma de describir una cadena de Markov es con un diagrama que se muestra - Diagrama de Estados - donde se ve un sistema de Markov con cuatro estados posibles : M1, M2 , M3 y M4 . La probabilidad condicional o de transición de moverse de un estado a otro se indica en el diagrama.