option
Cuestiones
ayuda
daypo
buscar.php

IA Árboles de Decisión

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
IA Árboles de Decisión

Descripción:
Test Temas 456

Fecha de Creación: 2025/12/02

Categoría: Otros

Número Preguntas: 30

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

¿Cuál de las siguientes es una técnica de aprendizaje no supervisado?. Regresión lineal. Árboles de decisión. Clusterización. Red neuronal convolucional.

¿Qué representa una anomalía o outlier en el contexto de Bosques Aislados?. Un punto de datos normal. Un punto de datos con mayor profundidad de aislamiento. Un punto de datos con menor profundidad de aislamiento. Un punto de datos siempre dentro del clúster.

¿Cuál es el principal objetivo del algoritmo de K-medias?. Predecir valores continuos. Clasificar datos en categorías. Agrupar datos en clústeres k basados en la similitud. Reducir la dimensionalidad de los datos.

En el algoritmo de DBSCAN, ¿qué es un punto que no pertenece a ningún clúster?. Núcleo. Borde. Ruido. Centroide.

¿Cuál es el parámetro clave en K-medias que debe definirse antes de ejecutar el algoritmo?. Número de iteraciones. Número de clústeres k. Distancia mínima. Tasa de aprendizaje.

¿Qué técnica de clusterización es más adecuada para detectar clústeres de forma arbitraria?. K-medias. DBSCAN. Bosques Aislados. PCA.

¿Qué mide la métrica silhouette score en la clusterización?. La distancia entre los clústeres. La compacidad de los clústeres. La separación entre clústeres y la cohesión dentro de los clústeres. La precisión del modelo.

En el algoritmo Bosques Aislados, ¿qué indica un alto valor de la profundidad promedio de aislamiento?. El punto es muy probablemente un punto aislado. El punto es un nodo terminal. El punto está mal clasificado. Es un punto común.

¿Qué criterio usa DBSCAN para formar clústeres?. Número de clústeres predeterminado. Distancia mínima entre los puntos. Densidad de puntos en una vecindad. Suma de distancias cuadradas.

¿Qué ventaja tiene el algoritmo de Bosques Aislados sobre otro método de detección de anomalías?. No requiere submuestreo de datos. No necesita parámetros de dominio específicos. Requiere menos datos para entrenar. Siempre encuentra la mejor solución.

¿Qué estrategia podría ser buena para reducir el sobre ajuste en un modelo de árbol de decisión usando la clase DecisionTreeRegressor?. Aumentar la profundidad del árbol (max_depth). Disminuir el número de muestras para el conjunto de prueba. Aumentar el número de muestras necesarias para dividir un nodo interno (min_sample_split). Definir random_state a None.

Una de las ventajas de los algoritmos de árboles de decisión es que podemos crear una representación gráfica del árbol: Verdadero. Falso.

¿Cuál de las siguientes métricas no están asociadas a la clase DecisionTreeClassifier?. Gini. MAE. MSE. Chi cuadrado.

Los algoritmos de bosques aleatorios solo sirven para problemas de clasificación: Verdadero. Falso.

En la clase Random ForestClassifier de sklearn, ¿qué ocurre al definir el hiperparámetro max_feature = 0,5?. Toma todas las variables predictoras. Toma como máximo log(variables predictoras). Toma como máximo (variables predictoras)/2. Toma como máximo el 50% de las variables predictoras.

¿Cuál de las siguientes estrategias puede ayudar a reducir la varianza en un modelo de bosques aleatorios?. Aumentar el número de árboles del bosque (n_estimators). Reducir la profundidad de los árboles (max_depth). Disminuir el número de muestras necesarias para dividir un nodo (min_sample_split). Reducir el número de características consideradas para cada división (max_features).

¿Qué hace el hiperparámetro bootstrap en la clase Random ForestClassifier de sklearn?. Determina el número de árboles en el bosque. Determina si se deben utilizar muestras de bootstrap al construir los árboles. Determina el número máximo de características que considerar para la mejor división. Determina la profundidad máxima del árbol.

¿Cuál es la ventaja clave de usar bosques aleatorios sobre un árbol de decisión?. Menor tiempo de entrenamiento. Facilidad de interpretación. Mayor precisión y capacidad de generalización. Menor complejidad computacional.

En un modelo de bosques aleatorios, ¿qué ocurre si se establece el parámetro max_depth a None?. El modelo no entrenará correctamente. Cada árbol crecerá hasta que todas las hojas sean puras o contengan menos de min_sample_split muestras. La profundidad de los árboles será limitada a un valor predeterminado. El modelo será más propenso a un sobreajuste.

¿Cuál es la función principal del hiperparámetro n_estimators en la clase Random ForestClassifier?. Controlar la profundidad máxima de los árboles. Establecer el número de características que considerar para cada división. Determinar el número de árboles en el bosque. Definir el criterio para medir la calidad de una división.

¿Quién desarrollo LightGBM?. Google. IBM. Amazon. Microsoft.

¿Cuál es el objetivo principal de los algoritmos de boosting?. Reducir la varianza en el modelo. Combinar modelos débiles para crear un modelo fuerte. Simplificar los datos. Aumentar la complejidad del modelo.

¿Cuál es la técnica de crecimiento del árbol utilizada por LightGBM?. Crecimiento basado en niveles. Crecimiento basado en hojas. Crecimiento aleatorio. Crecimiento jerárquico.

¿Qué algoritmo fue introducido por Freund y Schapire en 1995?. XGBoost. LightGBM. Bosques aleatorios. AdaBoost.

¿Cuál es la ventaja de XGBoost sobre otros algoritmos de boosting?. Menor velocidad de entrenamiento. Mayor consumo de memoria. Mayor eficiencia computacional. Menor precisión.

¿Qué parámetro en LightGBM controla el número máximo de hojas en cada árbol?. Num_leaves. Max_depth. Learning_rate. N_estimators.

¿Qué característica distingue a AdaBoost de otros algoritmos de boosting?. Utiliza un crecimiento basado en hojas. Asigna pesos a los modelos en función de su rendimiento. Utiliza paralelismo para acelerar el entrenamiento. Maneja características categóricas sin codificación.

¿Qué parámetro de XGBoost controla la tasa de aprendizaje del modelo?. Max_depth. Learning_rate. Gamma. Subsample.

¿Qué técnica usa LightGBM para acelerar el proceso de búsqueda de mejores divisiones?. One-hot encoding. Histogramas. Árboles aleatorios. Enfoque de árbol completo.

¿Qué técnica utilizan tanto XGBoost como LightGBM para manejar el sobreajuste?. Regularizaciones L1 y L2. Aumento de la tasa de aprendizaje. Disminución del número de iteraciones. Aumento del número de características.

Denunciar Test