Cuestiones
ayuda
option
Mi Daypo

TEST BORRADO, QUIZÁS LE INTERESEBloque 2 - Temas {5,6,7,8,9,10} (3)

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del test:
Bloque 2 - Temas {5,6,7,8,9,10} (3)

Descripción:
Sistemas Inteligentes

Autor:
AVATAR
Henry, Gulurs y Paukemon
(Otros tests del mismo autor)


Fecha de Creación:
25/03/2019

Categoría:
Universidad

Número preguntas: 30
Comparte el test:
Facebook
Twitter
Whatsapp
Comparte el test:
Facebook
Twitter
Whatsapp
Últimos Comentarios
No hay ningún comentario sobre este test.
Temario:
En un sistema dado, en el que todas las opciones tengan la misma probabilidad: La entropía es alta. La entropía es baja. La entropía es media.
Indica que afirmación no es correcta: Ninguna de las anteriores es correcta. Ganancia de información es la Medida de cuanto ayuda el conocer el valor de una variable aleatoria X para conocer el verdadero valor de otra Y. Entropía es la medida del grado de incertidumbre asociado a una distribución de probabilidad.
Respecto a las variables en la clasificación de un árbol de decisión, indica que afirmación es correcta: Las variables continuas deben establecerse dentro de categorías. Las variables discretas deben establecerse dentro de categorías. Las variables continuas o discretas deben establecerse dentro de categorías.
¿Que es la ganancia de información?: Medida de cuanto ayuda el conocer el valor de una variable aleatoria X para conocer el verdadero valor de otra Y. Medida de cuanto ayuda el conocer el valor de una variable aleatoria X para conocer el verdadero valor de X. Medida de cuanto ayuda el conocer el valor de una variable aleatoria X para conocer el verdadero valor de otra Y con respecto a Z.
La entropía puede ser definida como: Medida del grado de incertidumbre asociado a una distribución de probabilidad. Medida del grado de incertidumbre asociado a una distribución de exactitud. Medida del grado de incertidumbre asociado a una distribución de datos continuos.
¿Cuál de las siguientes características corresponde a un árbol de decisión?: Estructura para clasificación de vectores de atributos. Estructura para clasificación de atributos. Estructura para clasificación de atributos de vectores.
¿Cual de los siguientes es un algoritmo utilizado en Arboles de Decisión?: El algoritmo ID3. El algoritmo D3. El algoritmo IDD.
Se nos plantea resolver un problema de arboles de decisiones mediante el algoritmo ID3, y en la especificación del conjuntos de valores nos encontramos con la siguiente tabla adjunta: (FOTO) El algoritmo ID3 trabaja con todo tipo de variables, porque el propio algoritmo trata esto sin necesidad de extensiones adicionales. El algoritmo ID3 trabaja con un tipo de variable, porque el propio algoritmo trata esto sin necesidad de extensiones adicionales. El algoritmo ID3 trabaja con dos tipos de variables, porque el propio algoritmo trata esto sin necesidad de extensiones adicionales.
Atendiendo a los datos de la siguiente tabla: (IMAGEN) La Ganancia de información IG(Y|X) sería: IG(Y|X) = 0.15625 IG(Y|X) = 1.15625 IG(Y|X) = 0.26525.
¿Cuál de las siguientes características de los árboles de decisión es incorrecta? Se eligen primero aquellos atributos de menor ganancia de información. Se eligen primero aquellos atributos de mayor ganancia de información. Se eligen primero aquellos atributos sin ganancia de información.
Esperamos un mensaje que puede consistir de las letras en minúscula de la a hasta la z. Cuál de las siguientes afirmaciones es correcta cuando recibamos el mensaje "qalmnbphijcdgketrsfuvxyzwño"? Es una distribución uniforme, todos los valores son igualmente probables Pi = 1/N y por tanto la entropía es máxima, lo cual indica máxima incertidumbre NO es una distribución uniforme, todos los valores son igualmente probables Pi = 1/N y por tanto la entropía es máxima, lo cual indica máxima incertidumbre Es una distribución uniforme, todos los valores son igualmente probables Pi = 1/N y por tanto la entropía es mínima, lo cual indica mínima incertidumbre.
El árbol de decisión es utilizado en problemas de... ambos son correctos clasificación inducción.
Deseamos generar un árbol de decisión para saber si un terreno es apto para viñedo. Para ello partimos de los atributos y valores de la siguiente tabla: (IMAGEN) ¿Cuál sería el primer atributo del árbol? Lluvia Temperatura Humedad.
Sobre la entropía en el contexto de IA, se puede decir: Es la medida del grado de incertidumbre asociado a una distribución de probabilidad. Es la medida del grado de certidumbre asociado a una distribución de probabilidad. Es la medida del grado de incertidumbre asociado a una distribución de pares.
¿Cuál de estas afirmaciones es falsa? La entropía te da el grado de probabilidad La entropía te da el grado de desorden La entropía te da el grado de falta de orden.
En una distribución uniforme...: La entropía es máxima, lo cual indica mínima información. La entropía es mínima, lo cual indica mínima información. La entropía es máxima, lo cual indica máxima información.
En el algoritmo ID3: Ninguna de las anteriores. Se calcula la ganancia de información de los atributos más prometedores. Se escoge el atributo con menor entropía o grado de incertidumbre.
Sobre la entropía y el grado de incertidumbre sobre una distribución de probabilidad, ¿Cuál es la opción correcta?: La entropía es máxima cuando existe una máxima incertidumbre. La entropía es mínima cuando existe una máxima incertidumbre. La entropía es mínima cuando existe una mínima incertidumbre.
Si en un dado de 4 caras en el que todas las cara tiene la misma posibilidad de aparecer eliminamos dos caras (nunca pueden salir) que tipo de incertidumbre existiría? máxima mínima no existe incertidumbre.
En los árboles de decisión: Se usan algoritmos voraces. Se usan algoritmos marcha-atrás. Se usan algoritmos alimentados hacia delante.
El teorema de Bayes aplicado al aprendizaje permite: Conocer el máximo a posteriori MAP Conocer el mínimo a posteriori MAP Conocer el máximo y mínimo a posteriori MAP.
Cuántos y qué tipos de aprendizaje podemos encontrarnos en el aprendizaje automático: 3 tipos: supervisado, no supervisado y por refuerzo. 2 tipos: supervisado y no supervisado. 1 tipo: supervisado.
En el aprendizaje bayesiano, el máximo a posteriori o MAP es: hMAP = argmaxP(h|D) hMAP = argmaxP(D|h) hMAP = argmaxP(h).
¿Por cuántas fases pasa el aprendizaje bayesiano?: Por 2 fases. Por 1 fase. Por ninguna fase.
El clasificador bayesiano "naive" asume que: los atributos que describen a los ejemplos son condicionalmente independientes entre sí con respecto al concepto que se pretende aprender los atributos que describen a los ejemplos son condicionalmente dependientes entre sí con respecto al concepto que se pretende aprender los atributos que describen a los ejemplos son absolutamente independientes entre sí con respecto al concepto que se pretende aprender.
Considerando 3 variables A=1, B=5, C=2, el resultado devuelto por argmax(A, B, C) es : B A C.
Respecto a los fundamentos MAP y ML es cierto que : ML implica máxima verosimilitud, debido a que P(h) = cte. ML implica mínima verosimilitud, debido a que P(h) = cte. ML implica cero verosimilitud, debido a que P(h) = cte.
Respecto al aprendizaje bayesiano, ¿cuál de las siguientes opciones es correcta?: Permite combinar los datos de ejemplo con conocimiento a priori. Permite desordenar los datos de ejemplo con conocimiento a priori. Permite recombinar los datos de ejemplo con conocimiento a priori.
En el Aprendizaje Supervisado: Hay que entrenar hasta alcanzar el error de validación mínimo. Hay que entrenar hasta alcanzar el error de validación máximo. Hay que entrenar hasta alcanzar el error de validación medio.
El conjunto de validación en un proceso de aprendizaje supervisado sirve: Para comprobar la capacidad de generalización del proceso y evitar el sobre entrenamiento. Para comprobar la capacidad de automatización del proceso y evitar el sobre entrenamiento. Para comprobar la capacidad de localización del proceso y evitar el sobre entrenamiento.
Denunciar test Consentimiento Condiciones de uso