Si tenemos la mínima incertidumbre de que el equipo A ganará al equipo
B porque el partido está amañado podemos afirmar que: Tenemos máxima información sobre ese partido y podremos apostar seguros por A Tenemos mínima información sobre ese partido y no podremos apostar seguros Tenemos máxima información sobre ese partido y podremos apostar seguros por B. ¿Qué queremos conseguir con un árbol de decisión? Saber decidir si tengo que realizar una acción o no. Establecer en qué orden testar las acciones para conseguir la clasificación del
vector de entrada. Saber clasificar las acciones del vector de entrada. ¿A qué se debe que el cálculo de la entropía pueda superar el valor 1?: A que existen más de 2 valores en la distribución de probables. A que existen menos de 2 valores en la distribución de probables. A que existen exactamente 2 valores en la distribución de probables. ¿Cuál de las siguientes afirmaciones es correcta?: En los atributos numéricos el ID3 trabaja sólo con valores discretos. En los atributos numéricos el ID3 trabaja sólo con valores contínuos. En los atributos numéricos el ID3 trabaja tanto con valores disctretos como contínuos. ¿Qué afirmación acerca de la entropía es falsa? En una distribución pico la información es mínima. En una distribución pico la información es máxima. En una distribución pico la información es igual a 1. Los árboles de decisión establecen en qué orden testar los atributos
para conseguir la clasificación del vector de entrada. Ahora, ¿cómo se
compone dicho orden? se eligen primero aquellos atributos que mejor ganancia de información
prometen a efectos de descubrir la clase del vector de entrada. se eligen primero aquellos atributos que peor ganancia de información
prometen a efectos de descubrir la clase del vector de entrada. se eligen primero aquellos atributos que mejor ganancia de información
prometen a efectos de descubrir la clase del vector de salida. La evaluación de un árbol de decisión se realiza: Siempre de derecha a izquierda. Siempre de izquierda a derecha. El orden no es relevante. En un árbol de decisión es cierto que: No siempre se seleccionan todos los atributos Siempre se seleccionan todos los atributos Nunca se seleccionan todos los atributos. ¿Cuál de las siguientes afirmaciones es cierta?(considerando
una entropía de distribución de Y condicionada a X) Una entropía condicionada mayor que E(Y) indica que el conocimiento
de X mejora la información que se dispone sobre Y Una entropía condicionada menor que E(Y) indica que el conocimiento
de X no mejora la información que se dispone sobre Y Ambas son falsas. Dado que N es el número de valores que puede tomar una variable,
el valor de su entropía se encuentra acotado por: [0, log2 (N)] [0, 1] [0, -log2 (N)]. Respecto a la entropía... En una distribución uniforme, todos los valores son igualmente probables Pi =
1/N y por tanto la entropía es mínima, lo cual indica máxima incertidumbre. Es una medida de cuanto ayuda el conocer el valor de una variable aleatoria
X para conocer el valor de otra Y. Ninguna de las anteriores es correcta. Sabiendo que el resultado de los partidos disputados entre el Hércules
y el Elche ha sido:
Gana Hércules(H): 20
Empate (X): 5
Gana Elche(E): 5
Calcula la entropía de que el Hércules gane al Elche en un partido de
futbol. E(H) = 1.25 E(H) = 0.5 E(H) = 1.5. Referente a los árboles de decisión.... : es interesante aprenderlos a partir de un conjunto de vectores es interesante aprenderlos a partir de un conjunto de valores es interesante aprenderlos a partir de un único vector. La complejidad de ID3: ID3 crece linealmente con el número de ejemplos de entrenamiento. ID3 crece exponencialmente con el número de atributos. Ambas son correctas. Se lanza una moneda al aire para ver si sale cara o cruz (dos estados
con probabilidad 0,5). Su entropía es: 1 1.35 0.5. Calcular el valor de Ent ([5,2,1]) 1.3 1 1.567. Según la definición de Ganancia de Información. ¿Cuál de
estas respuestas es correcta?: Una alta ganancia implica que el atributo X permite reducir la incertidumbre
de la clasificación del ejemplo de entrada. Una baja ganancia implica que el atributo X permite reducir la incertidumbre
de la clasificación del ejemplo de entrada. Una alta ganancia implica que el atributo X permite aumentar la incertidumbre
de la clasificación del ejemplo de entrada. ¿Qué es la Ganancia de información?: Medida de cuanto ayuda el conocer el valor de una variable aleatoria X para
conocer el verdadero valor de otra Y Medida de cuanto ayuda el conocer el valor de una variable conocida X para
conocer el verdadero valor de otra aleatoria Y Medida de cuanto ayuda el conocer el valor de una variable conocida X para
conocer el verdadero valor de otra Y. Teniendo en cuenta las formulas anteriores cual se corresponde
al cálculo de la Entropía:
(FOTO) a b c. Si después de lanzar un dado cargado 100 veces tenemos que cada
una de las caras ha salido el siguiente número de veces:
1 -> 8
2 -> 11
3 -> 6
4 -> 7
5 -> 9
6 -> 59
¿Qué entropía tenemos sobre el lanzamiento de dicho dado? 1.9156 1.8423 0.2234. La ganancia de información se puede calcular de la siguiente manera: IG(Y | X) = E(Y) - E(Y |X) IG(Y | X) = E(Y |X) - E(Y) IG(Y | X) = E(Y*X). Hallar la ganancia de información con los datos siguientes:
(FOTO) IG(Y|X)=1,243 IG(Y|X)=0,206 IG(Y|X)=0,393. Tenemos el vector [66,114,66,69,66], ¿cuál es su entropía? 1.37 0.34 2.35. Después de realizar el cálculo de la Entropía condicionada
obtenemos que E(Y|X) = 0. ¿Qué podemos determinar? El conocimiento de X implica el conocimiento de Y El conocimiento de Y no implica el conocimiento de X El conocimiento de X no implica el conocimiento de Y. Una entropía condicionada menor que E(Y): Indica que el conocimiento de X mejora la información que se dispone sobre Y Indica que el conocimiento de Y mejora la información que se dispone sobre X Indica que el conocimiento de X no mejora la información que se dispone sobre Y. La entropía es máxima cuando: En una distribución los valores son igualmente probables Pi = 1/N y por tanto
la entropía es máxima. En una distribución los valores son igualmente probables Pi = N y por tanto
la entropía es máxima. En una distribución los valores son igualmente probables Pi = 1 y por tanto
la entropía es máxima. Los árboles de decisión son: Una estructura para clasificación de vectores de atributos. Una estructura para clasificación de vectores de sin atributos. Una estructura para estimación de vectores de atributos. En cuanto a los árboles de decisión: Se clasifican vectores de atributos testados en orden. Para componer dicho
orden se eligen primero los atributos que mejor ganancia de información
prometen a efectos de descubrir la clase del vector de entrada. Se clasifican vectores de atributos entrenados en orden. Para componer dicho
orden se eligen primero los atributos que mejor ganancia de información
prometen a efectos de descubrir la clase del vector de entrada. Se clasifican vectores de atributos testados en orden. Para componer dicho
orden se eligen primero los atributos que peor ganancia de información
prometen a efectos de descubrir la clase del vector de entrada. Según la definición de Entropía cuando obtendremos
máxima información: Cuando hay mínima incertidumbre Cuando no hay incertidumbre Cuando hay máxima incertidumbre. En una distribución pico en la que Pi = 1 y Pj=0... : para todo j≠i la entropía es mínima lo cual indica mínima incertidumbre o sea
máxima información. para todo j≠i la entropía es máxima lo cual indica mínima incertidumbre o sea
máxima información. para todo j≠i la entropía es mínima lo cual indica máxima incertidumbre o sea
máxima información.