option
Cuestiones
ayuda
daypo
buscar.php

EXAMEN SAA

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
EXAMEN SAA

Descripción:
examen saa

Fecha de Creación: 2026/05/13

Categoría: Otros

Número Preguntas: 13

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

En el análisis Cluster del Aprendizaje Supervisado tenemos el concepto de Distancia entre objetos o puntos. Si tenemos los puntos A=(0,4) y B=(3,2) podemos calcular distintas distancias entre ambos. ¿Cuál(es) de las siguientes son correctas?. La distancia Manhattan entre A y B es igual a raizcuad(13). La distancia Euclídea entre A y B es igual a 5. Ninguna es correcta. La distancia Chebychev entre A y B es igual a 3.

En el algoritmo de las K-medias tenemos el hiperparámetro K (número de grupos a formar), del cual ... Se ajusta automáticamente su valor en dicho algoritmo. No tiene relevancia porque siempre lleva un valor fijo establecido por el programador. Se estima su valor óptimo por medio de un indice/función llamado BIC, que tenemos que implementar expresamente y del que buscaremos el valor más bajo. Se estima su valor óptimo por medio de un indice/función llamado BIC, que tenemos que implementar expresamente y del que buscaremos el valor más alto.

La repetición del algoritmo de las K-medias con diferentes puntos iniciales es para: Evitar la convergencia a mínimos globales. Evitar la convergencia a máximos locales. Encontrar el máximo global de la distancia media. Ninguna es correcta.

¿Qué tiene de peculiar y diferente el algoritmo/estrategia Fuzzy C-means respecto a K-Means?. Los grados de pertenencia de cada punto/individuo a cada grupo se reflejan en una Matriz de Pertenencia. Es la adaptacion de K-Means a la lógica de primer orden. a) y d) son correctas. Para cada punto/individuo, la suma de sus grados de pertenencia a cada grupo es 1.

Entre los parametros de entrada de Fuzzy C-means tenemos ... numeroMaximoIteraciones (criterio de parada), K (nº interaciones), m (fuzzifier: con m=1, mayor grado de suavidad/difuminación de los puntos en su pertenencia a varios clusters). tolerancia y numeroMaximoIteraciones (criterios de parada), K (nº clusters), m (fuzzifier: con m=1, igual comportamiento que K-Means). tolerancia y numeroMaximoIteraciones (criterios de parada), K (nº clusters), m (fuzzifier: su valor por defecto es m=0). Ninguna es correcta.

Los algoritmos de Clustering Jerárquico se basan en el concepto de ... Distancia interclusters: a través de un dendrograma hacemos agrupaciones de grupos ya definidos en funcion de una distancia umbral prefijada. Distancia interclusters: se toma una medida de distancia entre grupos basada en el método Single (vecino más próximo), el método Complete (vecino más alejado) o el método de distancia Entre centroides. Distancia interclusters: a través de un dendrograma hacemos agrupaciones de puntos aislados. Todas correctas excepto la c).

¿Cuál(es) es(son) el(los) parámetro(s) crítico(s) del algoritmo de clustering DBSCAN (Density-Based Spatial Clustering of Applications with Noise) y cómo influye(n) en sus resultados?. Epsilon: el radio de vecinos de un punto dado. Si es pequeño, la mayoría de los datos se clasifican como outliers por no alcanzar la densidad necesaria. a) y d) son correctas. La a) es la correcta si le cambiamos "pequeño" por "grande". minPts/min_samples: indica el número mínimo de puntos necesarios dentro del radio Epsilon para considerar una región como "densa" (e.d., para formar un clúster). Si minPts/min_samples es grande, DBSCAN crea clústeres más compactos y sólidos, pero los conjuntos de datos con densidades bajas pueden ser etiquetados incorrectamente como ruido.

Algunas ventajas del algoritmo de clustering DBSCAN son que ... Es sensible a los outliers en su proceso de clustering (mejorando sus resultados), a pesar de que los detecta por sí mismo y permite representarlos en los plots. No necesita indicación previa del número de clusteres (él lo determina en su ejecución). Además, es capaz de agrupar puntos de clusters que no tengan forma esférica. Solo necesita de un hiperparámetro: el radio Epsilon. Todas serían correctas si se mencionase un segundo hiperparámetro y se exluyese la respuesta a).

El algoritmo DPC (Density-Peak Clustering) ... Hace algo muy similar a DBSCAN, aunque va más allá: calcula la distancia de cada punto sin etiquetar a cada centroide con mayor densidad que dicho punto, siendo éste etiquetado/asignado al cluster cuyo centroide está más cerca del punto. Tiene la desventaja de necesitar al menos 3 parametros de entrada. Es un algoritmo de clustering muy potente (es insensible a outliers), pero apenas aporta mejora alguna respecto a DBSCAN y es muy poco relevante en el momento actual. Ninguna es correcta.

¿Qué componente de una red neuronal indica la intensidad de la conexión entre neuronas?. La función de activación. El sesgo (bias). Los pesos (weights). La capa de salida.

Si una red neuronal tiene un rendimiento excelente en el entrenamiento pero malo en los datos de prueba, ¿qué problema puede estar sufriendo?. Bajo ajuste (Underfitting). Sobreajuste (Overfitting). Falta de datos de entrenamiento. La tasa de aprendizaje es muy baja. ...

¿Qué ventaja ofrece el Deep Learning (aprendizaje profundo) sobre las redes neuronales tradicionales?. Requiere menos potencia de cómputo. Puede extraer automáticamente características de alto nivel de los datos. Siempre es más rápido de entrenar. No necesita datos de prueba.

¿Qué librería(s) de alto nivel está(n) integrada(s) en TensorFlow para construir redes neuronales?. Scikit-learn. Keras. PyTorch. b) y c) son correctas.

Denunciar Test