Cuestiones
ayuda
option
Mi Daypo

TEST BORRADO, QUIZÁS LE INTERESEÁrboles de decisión

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del test:
Árboles de decisión

Descripción:
Preguntas son el tema de árboles de decisión

Autor:
Honolulu Vibes
(Otros tests del mismo autor)

Fecha de Creación:
25/03/2019

Categoría:
Otros

Número preguntas: 80
Comparte el test:
Facebook
Twitter
Whatsapp
Comparte el test:
Facebook
Twitter
Whatsapp
Últimos Comentarios
No hay ningún comentario sobre este test.
Temario:
Ganancia de información. Qué expresión correcta, corresponde a la ganancia de y condicionado a x: IG(Y | X) = E(Y) – E(Y | X). IG(Y | X) = E(Y) – E( X). IG(Y | X) = E(X) + E(Y | X).
Entropía: Hablamos de "DISTRIBUCIÓN EN PICO" cuando se cumple que: Pi = 1 y Pj=0, para todo j≠i Pi = 0 y Pj=1, para todo j≠i Pi=1 y Pj=0, para todo j=i.
¿Qué es la entropía?:{ Es la medida del grado de incertidumbre asociado a una distribución uniforme. Es la medida del grado de incertidumbre siempre que consiga la máxima información. Es la medida del grado de incertidumbre asociado a una distribución de probabilidad.
Los árboles de decisión Es interesante aprenderlos a partir de un grafo Establecen el vector de entrada. Ninguna de las anteriores.
En cuanto a la entropía: Es mínima cuando la distribución es uniforme Es máxima cuando la distribución es de pico Es máxima cuando la distribución es uniforme.
Los arboles de decisión establecen en que orden testar los atributos para conseguir la clasificación del vector de entrada. a que velocidad testar los atributos para conseguir la clasificación del vector de salida. el estado inicial de la clasificación de los nodos.
¿Qué es la ganancia de información? Conjunto de todos los valores posibles de X Medida de cuanto ayuda el conocer el valor de una variable aleatoria X para conocer el verdadero valor de otra Y Ninguna de las anteriores.
Sobre atributos con gran número de valores Se forman grupos pequeños de ejemplos que siempre deben ser homogéneos. Se forman grupos pequeños de ejemplos que pueden ser homogéneos por casualidad Ninguna de las anteriores.
Cuando el conocimiento de X mejora la información que se dispone sobre Y, se dice que tiene un entropía condicionada :{ menor que E(Y). igual que E(Y). mayor que E(Y).
¿Cuál sería la entropía del siguiente atributo? 1.585 Para atributos uniformemente distribuidos la entropía será máxima, es decir, 1 Para atributos uniformemente distribuidos la entropía será mínima, es decir, 0.
¿ID3 con qué tipo de atributos trabaja? Atributos discretos Todas las anteriores Atributos continuos si están descompuestos en rangos.
En una distribución pico en la que Pi = 1 y Pj=0, para todo j≠i la entropía será Máxima Mínima No lo podemos saber.
¿Qué implica una alta ganancia de información? Que el atributo X permite aumentar la incertidumbre de la clasificación del ejemplo de entrada. Que el atributo X permite reducir la incertidumbre de la clasificación del ejemplo de entrada. Que la clase Y permite reducir la incertidumbre de la clasificación del ejemplo de entrada.
¿Cual de las siguientes afirmaciones es cierta acerca de la entropía? En una distribución uniforme, todos los valores son equiprobables, lo que implica entropía máxima y por tanto, total incertidumbre. En una distribución pico en la que Pi = 0 y Pj = 1 para j != i la entropía es mínima. En una distribución uniforme todos los valores son equiprobables, lo que implica una entropía mínima y por tanto, la mínima incertidumbre.
El recorrido de un árbol de decisión equivale a una: Búsqueda irrevocable Búsqueda tentativa Ninguna de las anteriores.
Una de las características de los árboles de decisión es: Establece en qué orden testar los atributos para conseguir la clasificación del vector de entrada En una distribución uniforme, todos los valores son igualmente probables. Ninguna de las anteriores.
En la entropía, ¿qué grado de incertidumbre tendremos en una distribución uniforme? Minina Máxima No se puede saber.
El algoritmo ID3, a la hora de descomponer los atributos continuos en rangos, después de ordenarlos: Debemos tener en cuenta los puntos límites donde se cambie de clase. No es necesario descomponer, pues siempre tratamos con atributos discretos. Debemos de realizar la descomposición siempre en partes iguales.
Lanzamos un dado al aire, ¿cuál es la entropía del lanzamiento?: 1, máxima incertidumbre 0,16, al ser distribución uniforme 2,58, máxima incertidumbre.
Una entropía condicionada menor que E(Y) indica que: El conocimiento de X reduce la información que se dispone sobre Y El conocimiento de X mejora la información que se dispone sobre Y No indica nada. Siempre es mayor o igual que E(Y).
En la Entropía condicionada No interviene ninguna variable Interviene una variable. Intervienen al menos dos variables.
La Entropía condicionada es según su definición la entropía de la distribución de Y condicionada a Y la entropía de la distribución de Y condicionada a X la entropía de la distribución de X condicionada a X.
¿Qué pasa si usamos ID3 con atributos continuos? Nada porque es con lo que trabaja. Hay que descomponerlo en rangos Hay que ordenarlos según valor y pasarlos a discretos.
Los árboles de decisión, ¿contienen información local? No, no están basados en información local. Sí, lo que permite poder encontrar la mejor solución Si, pero nunca encontrarán la mejor solución.
El valor de entropía, ¿está acotado de 0 a 1?: Si, dado que es un valor de probabilidad. Si, dado que es una medida del grado de incertidumbre No, dado que es una medida del grado de incertidumbre.
Si tenemos una E(Y) = 0.971 y tras analizar la información de la que disponemos obtenemos los siguientes datos para aplicar una entropía condicionada: vj Prob(X=vj) E(Y|X =vj) Atribut 0.3 0.92 Atribut 0.4 0.81 Atributo3 0.3 0.92 ¿Después de calcular el valor de E(Y | X) podemos decir que hemos obtenido ganancia de información? Si, hemos obtenido una ganancia ≈ 0.09 Si, hemos obtenido una ganancia ≈ 0.5 No.
Dado un conjunto de ejemplos y su árbol de decisión generado por ID3. Los elementos de dicho árbol son: Nodos que contienen valores del padre, arcos que contienen variables continuas y hojas que clasifican el ejemplo como positivo. Nodos que contienen valores del padre, arcos que contienen valores del hijo y las hojas que clasifican el ejemplo como positivo Nodos que contienen atributos, arcos que contienen posibles valores del padre y las hojas que clasifican el ejemplo como positivo o negativo.
En los árboles de decisión, que criterio utilizamos para el orden en el que testaremos los atributos: El que nos da una ganancia de información más baja. Es indiferente, el orden es aleatorio. El que nos da una ganancia de información más alta.
Dado el conjunto anterior, que atributo cogeríamos primero para aprender el concepto “días que se juega a tenis” y obtener el nodo inicial del árbol de decisión mediante el algoritmo ID3 El orden en que cojamos los atributos no tiene importancia, el nodo inicial puede ser tanto “cielo” como “humedad”. Cogemos el atributo “cielo”, ya que es el que mayor ganancia de información nos ofrece. Cogemos el atributo “humedad”, ya que es el que mayor ganancia de información nos ofrece.
Si tenemos la mínima incertidumbre de que el equipo A ganará al equipo B porque el partido está amañado podemos afirmar que Podemos apostar por A, pero no sabemos nada con certeza Tenemos máxima información sobre ese partido y podremos apostar seguros por A Deberemos apostar por B; porque seguro que ganara.
¿Que queremos conseguir con un árbol de decisión? Explorar las infinitas soluciones de un grafo y dar una aleatoria. Hacer un grafo de 20 nodos. Saber decidir si tengo que realizar una acción o no.
¿A qué se debe que el cálculo de la entropía pueda superar el valor 1?: A que existen más de 2 valores en la distribución de probables. A que existen 2 o menos valores en la distribución de probables El cálculo de la entropía nunca supera el 1.
¿Cuál de las siguientes afirmaciones es correcta? En los atributos numéricos el ID3 trabaja con valores discretos y continuos. En los atributos numéricos el ID3 trabaja sólo con valores discretos. En los atributos numéricos el ID3 trabaja sólo con valores continuos.
¿Qué afirmación acerca de la entropía es falsa? En una distribución uniforme la entropía es máxima La entropía mide el grado de incertidumbre asociado a una distribución de probabilidad En una distribución pico la información es mínima.
Los árboles de decisión establecen en qué orden testar los atributos para conseguir la clasificación del vector de entrada. Ahora, ¿cómo se compone dicho orden? se eligen primero aquellos atributos que peor ganancia de información prometen a efectos de descubrir la clase del vector de entrada se eligen primero aquellos atributos que mejor ganancia de información prometen a efectos de descubrir la clase del vector de entrada se eligen los atributos sin importar que ganancia de información prometen a efectos de descubrir la clase del vector de entrada.
La evaluación de un árbol de decisión se realiza: Siempre de derecha a izquierda Siempre de izquierda a derecha Ninguna de las anteriores son correctas.
El Algoritmo ID3 que trabaje con atributos continuos tiene que ... Siempre se seleccionan todos los atributos Siempre se seleccionan n-1 atributos, siendo n el número de atributos No siempre se seleccionan todos los atributos.
¿Cual de las siguientes afirmaciones es cierta?(considerando una entropía de distribución de Y condicionada a X) Una entropía condicionada mayor que E(Y) indica que el conocimiento de X mejora la información que se dispone sobre Y Una entropía condicionada menor que E(Y) indica que el conocimiento de X no mejora la información que se dispone sobre Y Ambas son falsas.
Dado que N es el número de valores que puede tomar una variable, el valor de su entropía se encuentra acotado por: [0, log2 (N)] [0, ∞) No es posible determinarlo/ninguna de las anteriores.
Respecto a la entropía... En una distribución uniforme, todos los valores son igualmente probables Pi = 1/N y por tanto la entropía es mínima, lo cual indica máxima incertidumbre. Es una medida de cuanto ayuda el conocer el valor de una variable aleatoria X para conocer el valor de otra Y. Ninguna de las anteriores es correcta.
Sabiendo que el resultado de los partidos disputados entre el Hércules y el Elche ha sido: Gana Hércules(H): 20 Empate (X): 5 Gana Elche(E): 5 Calcula la entropía de que el Hércules gane al Elche en un partido de futbol. E(H) = 0 E(H) = 1.25 E(H) = 0.5.
La fórmula que nos permite calcular la Ganancia Normalizada es Solucion es la img Solucion es la img.
Referente a los árboles de decisión... es interesante aprenderlos a partir de un conjunto de matrices es interesante aprenderlos a partir de un conjunto de vectores ninguna de las anteriores.
ID3 sólo trabaja con atributos discretos. Para tratar atributos numéricos o continuos hay que... ignorarlos descomponerlos en rangos descomponerlos como máximo en tres valores discretos.
La complejidad de ID3: ID3 crece linealmente con el número de ejemplos de entrenamiento. ID3 crece exponencialmente con el número de atributos. Ambas son correctas.
Se lanza una moneda al aire para ver si sale cara o cruz (dos estados con probabilidad 0,5). Su entropía es: 0,5 0 1.
Calcular el valor de Ent ([5,2,1]) 1.3 1.4 1.5.
Según la definición de Ganancia de Información . ¿Cuál de estas respuestas es correcta? : Ganancia de información es conocer el valor de una variable aleatoria X. Si obtenemos una alta ganancia implica que el atributo X permite ampliar la incertidumbre de la clasificación. Una alta ganancia implica que el atributo X permite reducir la incertidumbre de la clasificación del ejemplo de entrada.
En los árboles de decisión: Se usan algoritmos voraces. Vuelta atrás, (Backtracking). Ambas son correctas.
Si en un dado de 4 caras en el que todas las cara tiene la misma posibilidad de aparecer eliminamos dos caras(nunca pueden salir) que tipo de incertidumbre existiría? Máxima Mínima Ninguna de las anteriores.
Sobre la entropía y el grado de incertidumbre sobre una distribución de probabilidad, ¿Cuál es la opción correcta?:{ La entropía es mínima cuando existe una máxima incertidumbre. Cuando una distribución de probabilidad es uniforme la entropía es mínima. La entropía es máxima cuando existe una máxima incertidumbre.
En el algoritmo ID3: Se calcula la ganancia de información de los atributos más prometedores. Se escoge el atributo con menor entropía o grado de incertidumbre. Ninguna de las anteriores.
En una distribución uniforme...:{ La entropía es máxima, lo cual indica mínima incertidumbre. La entropía es mínima, lo cual indica máxima información. La entropía es máxima, lo cual indica mínima información.
¿Cuál de estas afirmaciones es falsa? Medida del grado de incertidumbre asociado a una distribución de probabilidad. La entropía te da el grado de probabilidad La entropía es máxima indica que hay mínima información.
Sobre la entropía en el contexto de IA, se puede decir: Es la medida del grado de incertidumbre asociado a una distribución de probabilidad Es interesante aprenderla a partir de un conjunto de vectores. Es siempre una distribución uniforme.
Deseamos generar un árbol de decisión para saber si un terreno es apto para viñedo. Para ello partimos de los atributos y valores de la siguiente tabla, ¿cuál sería el primer atributo del árbol? Temperatura. Fertilidad. Lluvia.
El árbol de decisión es utilizado en problemas de.. clasificación inducción ambos son correctos.
Esperamos un mensaje que puede consistir de las letras en minúscula de la a hasta la z. Cual de las siguientes afirmaciones es correcta cuando recibamos el mensaje "qalmnbphijcdgketrsfuvxyzwño"? Es una distribución pico en la que Pi = 1 y Pj=0, para todo j≠i la entropía es mínima lo cual indica mínima incertidumbre o sea máxima información Es una distribución uniforme, todos los valores son igualmente probables Pi = 1/N y por tanto la entropía es máxima, lo cual indica máxima incertidumbre Ninguna de las anteriores es correcta.
¿Cuál de las siguientes características de los árboles de decisión es incorrecta? Es una estructura para la clasificación de vectores de atributos. Establece en qué orden testear los atributos para conseguir la clasificación del vector de entrada. Se eligen primero aquellos atributos que menor ganancia de información.
Atendiendo a los datos de la siguiente tabla, la Ganancia de Información IG(Y|X) sería IG(Y|X) = 0.15625 IG(Y|X) = 0 IG(Y|X) = 0.84375.
Se nos plantea resolver un problema de arboles de decisiones mediante el algoritmo ID3, y en la especificación del conjuntos de valores nos encontramos con la siguiente tabla adjunta. Elije la respuesta incorrecta: Habría que ordenar los Ids según la cantidad y tomar como puntos límite los puntos medios de aquellos en que cambie el valor de la salida. Estamos ante un caso de atributos numéricos continuos; por lo que es necesario discretizar estos y descomponerlos en rangos. El algoritmo ID3 trabaja con todo tipo de variables, porque el propio algoritmo trata esto sin necesidad de extensiones adicionales.
¿Cual de los siguientes es un algoritmo utilizado en Arboles de Decisión?: Backtracking Ramificación y poda. El algoritmo ID3.
¿Cuál de las siguientes características corresponde a un árbol de decisión?: Estructura para clasificación de vectores de atributos. Establece en qué orden testar los atributos para conseguir la clasificación del vector de salida. Se eligen primero aquellos atributos que mejor ganancia de información prometen a efectos de descubrir la clase del vector de salida.
La entropía puede ser definida como: Estructura para clasificación de vectores de atributos. Medida de cuanto ayuda el conocer el valor de una variable aleatoria X para conocer el verdadero valor de otra Y. Medida del grado de incertidumbre asociado a una distribución de probabilidad.
¿Que es la ganancia de información?: Estructura para clasificación de vectores de atributos. Medida de cuanto ayuda el conocer el valor de una variable aleatoria X para conocer el verdadero valor de otra Y. Medida del grado de incertidumbre asociado a una distribución de probabilidad.
Respecto a las variables en la clasificación de un arbol de decisión, indica que afirmación es correcta: Las variables continuas tienen el mismo tratamiento que las variables discretas. Las variables continuas deben establecerse dentro de categorías. Ninguna de las anteriores es correcta.
Indica que afirmación no es correcta: Ganancia de información es la Medida de cuanto ayuda el conocer el valor de una variable aleatoria X para conocer el verdadero valor de otra Y. Entropía es la medida del grado de incertidumbre asociado a una distribución de probabilidad. Ninguna de las anteriores es correcta.
En un sistema dado, en el que todas las opciones tengan la misma probabilidad: para todo j≠i la entropía es mínima lo cual indica mínima incertidumbre o sea máxima información. para todo j=i la entropía es mínima lo cual indica mínima incertidumbre o sea máxima información. para todo j≠i la entropía es mínima lo cual indica mínima incertidumbre o sea mínima información.
Según la definición de Entropía cuando obtendremos máxima información: Cuando hay mínima incertidumbre Cuando la entropía es máxima Nunca podemos obtener máxima información.
En cuanto a los árboles de decisión: Es una estructura donde se clasifican vectores de atributos. Estos atributos se testan aleatoriamente. Se clasifican vectores de atributos testados en orden. Para componer dicho orden se eligen primero los atributos menos probabilidad tienen de llegar a una solución optima. Se clasifican vectores de atributos testados en orden. Para componer dicho los atributos que mejor ganancia de información prometen a efectos de descubrir la clase del vector de entrada.
Los árboles de decisión son: Datos sin ningún tipo de relación entre si. Una estructura para la separación de vectores por tipos de datos. Una estructura para clasificación de vectores de atributos.
La entropía es máxima cuando: La incertidumbre es mínima. a ganancia de información es máxima. En una distribución los valores son igualmente probables Pi = 1/N y por tanto la entropía es máxima.
Una entropía condicionada menor que E(Y): Indica que el conocimiento de X mejora la información que se dispone sobre Y. Indica que el conocimiento de X reduce la información que se dispone sobre Y. No indica nada.
Después de realizar el cálculo de la Entropía condicionada obtenemos que E(Y|X) = 0. ¿Qué podemos determinar? Nos hemos equivocado en el cálculo. El conocimiento de X implica el conocimiento de Y. El conocimiento de X no nos aporta información alguna sobre Y.
Tenemos el vector [66,114,66,69,66], ¿cuál es su entropía? 1,37 -1,37 0.486.
Hallar la ganancia de información con los datos siguientes IG(Y|X)=1,243 IG(Y|X)=0.104 IG(Y|X)=0.578.
La ganancia de información se puede calcular de la siguiente manera: IG(Y | X) = E(Y) - E(Y |X) IG(X) = E(Y) - E(Y |X) IG(Y | X) = E(X) - E(Y |X).
Si después de lanzar un dado cargado 100 veces tenemos que cada unade las caras ha salido el siguiente número de veces: 1 -> 8 2 -> 11 3 -> 6 4 -> 7 5 -> 9 6 -> 59 ¿Qué entropía tenemos sobre el lanzamiento de dicho dado? 2.5849 1.9156 1.0152.
Teniendo en cuenta las formulas anteriores cual se corresponde al calculo de la Entropía a b c.
¿Qué es la Ganancia de información? Medida de cuanto ayuda el conocer el valor de una variable aleatoria X para conocer el verdadero valor de otra Y. Medida de cuanto ayuda a no conocer el valor de una variable Y para conocer el verdadero valor de otra Y. Ninguna de las anteriores.
Denunciar test Consentimiento Condiciones de uso