Cuestiones
ayuda
option
Mi Daypo

TEST BORRADO, QUIZÁS LE INTERESEBloque 2 - Temas {5,6,7,8,9,10} (2)

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del test:
Bloque 2 - Temas {5,6,7,8,9,10} (2)

Descripción:
Sistemas Inteligentes

Autor:
AVATAR
Henry, Gulurs y Paukemon
(Otros tests del mismo autor)


Fecha de Creación:
25/03/2019

Categoría:
Universidad

Número preguntas: 30
Comparte el test:
Facebook
Twitter
Whatsapp
Comparte el test:
Facebook
Twitter
Whatsapp
Últimos Comentarios
No hay ningún comentario sobre este test.
Temario:
Si tenemos la mínima incertidumbre de que el equipo A ganará al equipo B porque el partido está amañado podemos afirmar que: Tenemos máxima información sobre ese partido y podremos apostar seguros por A Tenemos mínima información sobre ese partido y no podremos apostar seguros Tenemos máxima información sobre ese partido y podremos apostar seguros por B.
¿Qué queremos conseguir con un árbol de decisión? Saber decidir si tengo que realizar una acción o no. Establecer en qué orden testar las acciones para conseguir la clasificación del vector de entrada. Saber clasificar las acciones del vector de entrada.
¿A qué se debe que el cálculo de la entropía pueda superar el valor 1?: A que existen más de 2 valores en la distribución de probables. A que existen menos de 2 valores en la distribución de probables. A que existen exactamente 2 valores en la distribución de probables.
¿Cuál de las siguientes afirmaciones es correcta?: En los atributos numéricos el ID3 trabaja sólo con valores discretos. En los atributos numéricos el ID3 trabaja sólo con valores contínuos. En los atributos numéricos el ID3 trabaja tanto con valores disctretos como contínuos.
¿Qué afirmación acerca de la entropía es falsa? En una distribución pico la información es mínima. En una distribución pico la información es máxima. En una distribución pico la información es igual a 1.
Los árboles de decisión establecen en qué orden testar los atributos para conseguir la clasificación del vector de entrada. Ahora, ¿cómo se compone dicho orden? se eligen primero aquellos atributos que mejor ganancia de información prometen a efectos de descubrir la clase del vector de entrada. se eligen primero aquellos atributos que peor ganancia de información prometen a efectos de descubrir la clase del vector de entrada. se eligen primero aquellos atributos que mejor ganancia de información prometen a efectos de descubrir la clase del vector de salida.
La evaluación de un árbol de decisión se realiza: Siempre de derecha a izquierda. Siempre de izquierda a derecha. El orden no es relevante.
En un árbol de decisión es cierto que: No siempre se seleccionan todos los atributos Siempre se seleccionan todos los atributos Nunca se seleccionan todos los atributos.
¿Cuál de las siguientes afirmaciones es cierta?(considerando una entropía de distribución de Y condicionada a X) Una entropía condicionada mayor que E(Y) indica que el conocimiento de X mejora la información que se dispone sobre Y Una entropía condicionada menor que E(Y) indica que el conocimiento de X no mejora la información que se dispone sobre Y Ambas son falsas.
Dado que N es el número de valores que puede tomar una variable, el valor de su entropía se encuentra acotado por: [0, log2 (N)] [0, 1] [0, -log2 (N)].
Respecto a la entropía... En una distribución uniforme, todos los valores son igualmente probables Pi = 1/N y por tanto la entropía es mínima, lo cual indica máxima incertidumbre. Es una medida de cuanto ayuda el conocer el valor de una variable aleatoria X para conocer el valor de otra Y. Ninguna de las anteriores es correcta.
Sabiendo que el resultado de los partidos disputados entre el Hércules y el Elche ha sido: Gana Hércules(H): 20 Empate (X): 5 Gana Elche(E): 5 Calcula la entropía de que el Hércules gane al Elche en un partido de futbol. E(H) = 1.25 E(H) = 0.5 E(H) = 1.5.
Referente a los árboles de decisión.... : es interesante aprenderlos a partir de un conjunto de vectores es interesante aprenderlos a partir de un conjunto de valores es interesante aprenderlos a partir de un único vector.
La complejidad de ID3: ID3 crece linealmente con el número de ejemplos de entrenamiento. ID3 crece exponencialmente con el número de atributos. Ambas son correctas.
Se lanza una moneda al aire para ver si sale cara o cruz (dos estados con probabilidad 0,5). Su entropía es: 1 1.35 0.5.
Calcular el valor de Ent ([5,2,1]) 1.3 1 1.567.
Según la definición de Ganancia de Información. ¿Cuál de estas respuestas es correcta?: Una alta ganancia implica que el atributo X permite reducir la incertidumbre de la clasificación del ejemplo de entrada. Una baja ganancia implica que el atributo X permite reducir la incertidumbre de la clasificación del ejemplo de entrada. Una alta ganancia implica que el atributo X permite aumentar la incertidumbre de la clasificación del ejemplo de entrada.
¿Qué es la Ganancia de información?: Medida de cuanto ayuda el conocer el valor de una variable aleatoria X para conocer el verdadero valor de otra Y Medida de cuanto ayuda el conocer el valor de una variable conocida X para conocer el verdadero valor de otra aleatoria Y Medida de cuanto ayuda el conocer el valor de una variable conocida X para conocer el verdadero valor de otra Y.
Teniendo en cuenta las formulas anteriores cual se corresponde al cálculo de la Entropía: (FOTO) a b c.
Si después de lanzar un dado cargado 100 veces tenemos que cada una de las caras ha salido el siguiente número de veces: 1 -> 8 2 -> 11 3 -> 6 4 -> 7 5 -> 9 6 -> 59 ¿Qué entropía tenemos sobre el lanzamiento de dicho dado? 1.9156 1.8423 0.2234.
La ganancia de información se puede calcular de la siguiente manera: IG(Y | X) = E(Y) - E(Y |X) IG(Y | X) = E(Y |X) - E(Y) IG(Y | X) = E(Y*X).
Hallar la ganancia de información con los datos siguientes: (FOTO) IG(Y|X)=1,243 IG(Y|X)=0,206 IG(Y|X)=0,393.
Tenemos el vector [66,114,66,69,66], ¿cuál es su entropía? 1.37 0.34 2.35.
Después de realizar el cálculo de la Entropía condicionada obtenemos que E(Y|X) = 0. ¿Qué podemos determinar? El conocimiento de X implica el conocimiento de Y El conocimiento de Y no implica el conocimiento de X El conocimiento de X no implica el conocimiento de Y.
Una entropía condicionada menor que E(Y): Indica que el conocimiento de X mejora la información que se dispone sobre Y Indica que el conocimiento de Y mejora la información que se dispone sobre X Indica que el conocimiento de X no mejora la información que se dispone sobre Y.
La entropía es máxima cuando: En una distribución los valores son igualmente probables Pi = 1/N y por tanto la entropía es máxima. En una distribución los valores son igualmente probables Pi = N y por tanto la entropía es máxima. En una distribución los valores son igualmente probables Pi = 1 y por tanto la entropía es máxima.
Los árboles de decisión son: Una estructura para clasificación de vectores de atributos. Una estructura para clasificación de vectores de sin atributos. Una estructura para estimación de vectores de atributos.
En cuanto a los árboles de decisión: Se clasifican vectores de atributos testados en orden. Para componer dicho orden se eligen primero los atributos que mejor ganancia de información prometen a efectos de descubrir la clase del vector de entrada. Se clasifican vectores de atributos entrenados en orden. Para componer dicho orden se eligen primero los atributos que mejor ganancia de información prometen a efectos de descubrir la clase del vector de entrada. Se clasifican vectores de atributos testados en orden. Para componer dicho orden se eligen primero los atributos que peor ganancia de información prometen a efectos de descubrir la clase del vector de entrada.
Según la definición de Entropía cuando obtendremos máxima información: Cuando hay mínima incertidumbre Cuando no hay incertidumbre Cuando hay máxima incertidumbre.
En una distribución pico en la que Pi = 1 y Pj=0... : para todo j≠i la entropía es mínima lo cual indica mínima incertidumbre o sea máxima información. para todo j≠i la entropía es máxima lo cual indica mínima incertidumbre o sea máxima información. para todo j≠i la entropía es mínima lo cual indica máxima incertidumbre o sea máxima información.
Denunciar test Consentimiento Condiciones de uso