Arboles de decisión
![]() |
![]() |
![]() |
Título del Test:![]() Arboles de decisión Descripción: Arboles de decisión |




Comentarios |
---|
NO HAY REGISTROS |
¿A que tarea son aplicables los arboles de decisión?. clasificación. regresión. agrupamiento. Todas son correctas. ¿Con que tipo de atributos tratan los arboles de decisión?. Solo numéricos. Solo categóricos. Numéricos y Categóricos. Mide la reducción de incertidumbre en la predicción de la clase objetivo después de dividir los datos basados en un atributo específico. Information Gain. Entropía. Índice Gini. Recall. Mide la impureza del conjunto de entrada. Information Gain. Entropía. Índice Gini. Recall. Mide la probabilidad de no sacar dos registros de la misma clase del nodo. Information Gain. Entropía. Índice Gini. Recall. Indica cuán desordenados o mezclados quedan los nodos una vez divididos. Information Gain. Entropía. Índice Gini. Recall. Cuanto más “impuro” sea un conjunto de datos... Mayor será la entropía. Menor será la entropía. Menor índice de Gini. Mayor será la entropía y el índice de Gini. ¿Que quiere decir un Índice de Gini bajo?. Dataset más puro. Dataset más impuro. No tiene relación con el dataset. ¿Cómo se construye un árbol de decisión?. Hacia abajo. Hacia arriba. Desde el centro. ¿Cómo se poda un árbol de decisión?. Hacia abajo. Hacia arriba. Desde el centro. ¿Cuál es la profundidad de un nodo?. Número de pasos (ascendentes) necesarios para llegar hasta el nodo raíz. Número de pasos ( ascendentes o descendentes) necesarios para llegar hasta el nodo que se encuentra en el centro del árbol. Número de pasos (descendentes) necesarios para llegar hasta el nodo final. Según la metodología de construcción de los árboles de decisión, un conjunto se sigue dividiendo si está formado por objetos de una misma clase. Verdadero. Falso. ¿Que es un nodo puro en los arboles de decisión?. Un nodo que no tiene padres. Un nodo que no tiene hijos. Un nodo que está formado por objetos de una misma clase. Ninguna es correcta. ¿Cuál es el enfoque general utilizado en la construcción de árboles de decisión?. Bottom-Up. Top-Down. Side-to-Side. Random Selection. ¿Cómo se realiza cada división en un árbol de decisión?. Aleatoriamente. Basada en las instancias con valores faltantes. Según una propiedad específica. Según la profundidad del nodo. ¿Qué característica define el enfoque Top-Down en la construcción de árboles de decisión?. Agrupar todos los datos en un único nodo final. Dividir los conjuntos de datos en subconjuntos más pequeños, formando una jerarquía. Ajustar los nodos en función de la tasa de error. Construir el árbol a partir de nodos puros directamente, formando una jerarquía. ¿Qué criterio se utiliza para asignar un objeto a un subconjunto durante la construcción de un árbol de decisión?. Por la cantidad de datos en el subconjunto. Por el valor de una propiedad específica. Por el índice Gini del nodo actual. Por el índice Gini del nodo padre. ¿Qué propiedad candidata es mejor para crear particiones en un árbol de decisión?. La que genera el mayor número de nodos. La que forma árboles compactos, balanceados y con menor cantidad de nodos. La que utiliza todos los atributos disponibles. La que minimiza el número de hojas en el árbol. ¿Qué principio se sigue al elegir la mejor propiedad candidata en un árbol de decisión?. Teorema de Bayes. Backpropagation. Navaja de Occam. Transformada de Fourier. Según la navaja de Occam, ¿cuál de las siguientes opciones describe mejor el modelo ideal para un árbol de decisión?. Un modelo con varias ramas profundas. Un modelo sencillo que explique los datos de manera efectiva. Un modelo que considere todos los atributos sin excepción. Un modelo con un único nodo raíz y múltiples hojas. ¿Qué significa generar nodos más "puros" en un árbol de decisión?. Que cada nodo contenga el menor número de datos posible. Que los datos en cada nodo pertenezcan mayoritariamente a una sola clase. Que los nodos tengan el mismo número de datos en cada división. Que los nodos contengan valores equitativos entre clases. ¿Qué sucede si una propiedad genera nodos con alta impureza en un árbol de decisión?. Se selecciona para maximizar el número de divisiones. Se descarta para evitar un árbol innecesariamente complejo. Se combina con otras propiedades para crear nodos balanceados. Se utiliza para dividir el árbol en partes iguales. ¿Cuál es una de las condiciones para detener la división de un árbol de decisión?. Cuando el valor de impureza es mayor o igual a un umbral predefinido (β). Cuando el valor de impureza es menor o igual a un umbral predefinido (β). Cuando todos los atributos han sido utilizados al menos una vez. Cuando el número de nodos supera un límite preestablecido. ¿Qué sucede si se continúa dividiendo un árbol de decisión hasta alcanzar nodos puros?. Riesgo de sobreajuste. Se evita el sobreajuste y se mejora la generalización. Riesgo de underfiting. Se minimiza la complejidad computacional del modelo. ¿Qué pasa si se detiene la división de un árbol de decisión muy rápido?. Se generan árboles más compactos. Riesgo de sobreajuste. Error muy alto debido a una falta de ajuste. El modelo se vuelve demasiado complejo para ser interpretado. ¿Cuánto es la entropía si todos los datos de la entrada pertenecen a la misma clase?. 0. 1. Hay que aplicar la fórmula de la entropía para conocer el resultado. La entropía no está relacionada con los datos de entrada. |