Práctica 2
|
|
Título del Test:
![]() Práctica 2 Descripción: Inteligencia Artificial |



| Comentarios |
|---|
NO HAY REGISTROS |
|
Sea la variable aleatoria C={sol, lluvia, niebla} con P(C=sol) = 0.2, P(C=lluvia) = 0.5. ¿Cuál es el valor de P(C=niebla)?. 0.2. Ninguna de las anteriores. 0.5. 0.3. La política óptima en un MDP: Minimiza probabilidades. Maximiza utilidad acumulada esperada. Elimina estados. Maximiza recompensa inmediata. En el problema de Actualización de Servidores. ¿Cuál es la utilidad esperada de no actualizar?. 18. 22. 28. 30. Dada la distribución conjunta de la imagen. Calcula P(C=sol). 0.4. 0.5. 0.6. 0.1. Escoge la respuesta correcta. En teoría de la decisión, la acción óptima es aquella que: Maximiza la probabilidad. Minimiza el riesgo siempre. Maximiza la utilidad esperada. Tiene mayor utilidad inmediata. Escoge la respuesta correcta. La inferencia por enumeración: Es más eficiente que eliminación de variables en redes grandes. Requiere calcular todas las combinaciones posibles de las variables ocultas. No produce resultados exactos. Solo funciona en redes sin evidencia. En el problema de Actualización de Servidores. ¿Qué acción maximiza la utilidad esperada?. Actualizar. No actualizar. Ambas son equivalentes. No puede saberse. Dado el grafo de la Figura 2 donde los nodos representan los estados y las flechas las acciones (asociados con sus nombres, recompensas y probabilidades de transición). Calcula Q∗(S3,b) considerando un factor de descuento de 1. 2. 0.5. 1. -2. Sea la red bayesiana del ejemplo Alarma de la Figura 1. Calcula P(R=si | A=si). 0.01. 0.10. 0.37. 0.94. En el problema de Gestión de batería de un dron. ¿Cuál es el conjunto de estados?. {V,R}. {H,L}. {5,2}. {H,V}. En el problema de Actualización de Servidores. ¿Cuál es la utilidad esperada de actualizar?. 34. 36. 38. 40. En el problema de Gestión de batería de un dron. ¿Cuál es el conjunto de acciones?. {H,L}. {V,R}. {5,1}. {H,R}. En el problema de Gestión de batería de un dron. En el estado L, ¿qué acción parece más conveniente a largo plazo?. Volar. Recargar. Ambas son equivalentes. No depende de γ. En un árbol de decisión, las hojas representan: Estados intermedios. Probabilidades. Utilidades finales. Acciones. Escoge la respuesta correcta. La independencia condicional implica que: P(A,B|C) = P(A|C)P(B|C). P(A,B) = P(A)P(B). P(A|B) = P(A). P(A|C) = P(B|C). Escoge la respuesta correcta. En una red bayesiana: El grafo puede contener ciclos. Cada nodo es independiente de todos los demás nodos. La distribución conjunta se factoriza como producto de probabilidades condicionales. No es necesario definir tablas de probabilidad condicional. Escoge la respuesta correcta. Dos eventos A y B son independientes si: P(A|B) = 1. P(A,B) = P(A) + P(B). P(A,B) = P(A)P(B). P(A|B) > P(A). Dada la distribución conjunta de la imagen. Calcula P(C=sol|T=calor). 0.6. 0.8. 0.1. 0.4. Dada la distribución conjunta de la imagen. Calcula P(T=calor). 0.3. 0.1. 0.4. 0.5. En el problema de Gestión de batería de un dron. ¿Cuál es la recompensa inmediata de volar con batería baja?. 5. 2. -10. 1. Dado el grafo de la Figura 2 donde los nodos representan los estados y las flechas las acciones (asociados con sus nombres, recompensas y probabilidades de transición). Calcula Q∗(S3,a) considerando un factor de descuento de 1. 2. 0.5. 1. -2. Dado el grafo de la Figura 2 donde los nodos representan los estados y las flechas las acciones (asociados con sus nombres, recompensas y probabilidades de transición). Calcula Q∗(S5,a) considerando un factor de descuento de 1. 2. 4. 3. -2. Dado el grafo de la Figura 2 donde los nodos representan los estados y las flechas las acciones (asociados con sus nombres, recompensas y probabilidades de transición). Calcula Q∗(S6,a) considerando un factor de descuento de 1. 2. 4. 3. -2. |





