option
Cuestiones
ayuda
daypo
buscar.php

Examen tipo ejemplo - Slides_knn.html

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Examen tipo ejemplo - Slides_knn.html

Descripción:
Mineria de datos

Fecha de Creación: 2026/01/20

Categoría: Otros

Número Preguntas: 50

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

El algoritmo K-Nearest Neighbors basa sus predicciones principalmente en: Una función paramétrica estimada en training. La distancia entre observaciones. El ajuste de coeficientes β. La maximización de la verosimilitud.

KNN puede utilizarse para: Solo problemas de clasificación. Solo problemas de regresión. Clasificación y regresión. Únicamente clustering.

En KNN para regresión, la predicción se obtiene como: El valor máximo de los k vecinos. El valor medio de los k vecinos. El valor del vecino más cercano. Un ajuste lineal local.

En KNN para clasificación, la clase predicha es: La clase del vecino más cercano. La clase con mayor probabilidad a priori. La clase más frecuente entre los k vecinos. La clase con menor distancia media.

KNN es considerado un algoritmo de tipo lazy learner porque: No necesita datos de test. No aprende durante el training. Aprende de forma incremental. Reduce la dimensionalidad.

Una desventaja principal de KNN es que: No admite variables categóricas. Es costoso en memoria y computación. No puede tunearse. Es sensible solo al ruido.

La similaridad entre observaciones en KNN se mide habitualmente mediante: Correlación. Distancias. Covarianzas. Probabilidades.

¿Cuál de las siguientes es una distancia utilizada en KNN?. Distancia de Mahalanobis. Distancia euclídea. Distancia de Hellinger. Distancia coseno.

La distancia euclídea se define como: La suma de las diferencias absolutas. La raíz cuadrada de la suma de las diferencias al cuadrado. El máximo de las diferencias. El producto de las diferencias.

La distancia de Manhattan es especialmente adecuada cuando: Las variables son continuas. Se usan variables dummy binarias. Hay alta multicolinealidad. Se usa regresión.

La distancia de Minkowski generaliza a: Solo la distancia euclídea. Solo la distancia Manhattan. Euclídea y Manhattan. Ninguna de las anteriores.

Normalizar las variables antes de aplicar KNN es importante porque: Aumenta el número de vecinos. Elimina outliers. Evita que la escala domine la distancia. Reduce el número de predictores.

Si no se normalizan las variables en KNN: El modelo no converge. Las variables con mayor escala dominan. No afecta al resultado. Se reduce el overfitting.

El parámetro k en KNN indica: El número de variables. El número de observaciones. El número de vecinos considerados. El número de clusters.

Un valor de k muy pequeño suele provocar: Underfitting. Mayor sesgo. Mayor varianza. Menor sensibilidad al ruido.

Un valor de k muy grande suele provocar: Mayor varianza. Overfitting. Underfitting. Mayor sensibilidad al ruido.

El principal hiperparámetro a tunear en KNN es: La distancia. El número de vecinos k. La normalización. El número de observaciones.

El valor óptimo de k se suele seleccionar mediante: Conjunto de test. Training sin remuestreo. Validación cruzada. Bootstrapping del test.

KNN es especialmente sensible a: Multicolinealidad. Escala de las variables. Valores missing. Variables irrelevantes.

¿Qué tipo de problemas presenta KNN en datasets muy grandes?. Falta de convergencia. Alto coste computacional. Imposibilidad de clasificación. Pérdida de interpretabilidad.

El trade-off sesgo–varianza en KNN depende principalmente de: La métrica de distancia. El valor de k. El número de observaciones. El número de variables.

Un valor pequeño de k en KNN suele implicar: Alto sesgo y baja varianza. Bajo sesgo y alta varianza. Bajo sesgo y baja varianza. Alto sesgo y alta varianza.

Un valor grande de k en KNN suele implicar: Bajo sesgo y alta varianza. Bajo sesgo y baja varianza. Alto sesgo y baja varianza. Alto sesgo y alta varianza.

El fenómeno de curse of dimensionality afecta a KNN porque: Las distancias pierden capacidad discriminativa. El algoritmo no converge. El número de vecinos disminuye. El sesgo se reduce.

Cuando aumenta el número de dimensiones, las distancias entre puntos tienden a: Diferenciarse más. Ser más informativas. Volverse similares. Ser nulas.

Para mitigar la maldición de la dimensionalidad en KNN es recomendable: Aumentar k indefinidamente. Eliminar normalización. Reducir dimensionalidad. Usar solo clasificación.

KNN no es adecuado cuando: Hay pocas observaciones. El dataset es muy grande. Hay pocas variables. Las variables están normalizadas.

En problemas con ruido elevado, suele ser preferible: Un k pequeño. Un k grande. No usar KNN. No normalizar.

La frontera de decisión de KNN con k=1 es: Suave y estable. Lineal. Muy irregular. Convexa.

Al aumentar k, la frontera de decisión de KNN se vuelve: Más irregular. Más suave. Más compleja. Discontinua.

KNN es un algoritmo de tipo: Paramétrico. No paramétrico. Semi-paramétrico. Lineal.

En KNN, el “modelo” consiste en: Un conjunto de coeficientes. Una red neuronal. El conjunto completo de training. Una matriz de covarianzas.

Una ventaja de KNN es que: Aprende rápidamente en training. No requiere entrenamiento explícito. Tiene bajo coste computacional. Es poco sensible a la escala.

Una desventaja de KNN es que: No admite regresión. Es sensible a la escala de las variables. No admite clasificación. No requiere memoria.

El rendimiento de KNN se evalúa usando: Solo accuracy. Las métricas habituales según el tipo de problema. Exclusivamente RMSE. Exclusivamente AUC.

En KNN para regresión, una métrica adecuada es: Accuracy. AUC. RMSE. Precision.

En KNN para clasificación binaria, una métrica adecuada es: RMSE. MAE. Accuracy. R².

El conjunto de test en KNN debe utilizarse para: Elegir k. Normalizar variables. Evaluar el modelo final. Reducir dimensionalidad.

Elegir k usando el conjunto de test provoca: Underfitting. Mejor generalización. Data leakage. Menor varianza.

Durante un assessment con validación cruzada, KNN se entrena sobre: Todo el dataset. Datos externos. Subconjuntos del training. Solo el test.

KNN es especialmente sensible a: Multicolinealidad. Outliers cercanos. Normalidad de los errores. Linealidad.

La presencia de outliers en KNN puede provocar: Mejores predicciones. Cambios bruscos en la predicción. Menor sensibilidad. Reducción de varianza.

Una estrategia para reducir el impacto de outliers en KNN es: Reducir k. Aumentar k. Eliminar normalización. No usar validación.

KNN requiere normalización porque: Es un modelo lineal. Usa coeficientes β. Se basa en distancias. Minimiza SSR.

KNN no requiere: Definir una función de distancia. Elegir k. Ajustar parámetros durante training. Normalizar variables.

Comparado con regresión penalizada, KNN: Es menos sensible a la escala. Requiere más preprocesamiento. Es paramétrico. Es más interpretable.

En presencia de muchas variables irrelevantes, KNN: Mejora su rendimiento. Se ve perjudicado. No se ve afectado. Elimina variables automáticamente.

Una técnica habitual para mejorar KNN es: Añadir más ruido. Reducir dimensionalidad previamente. Eliminar validación cruzada. Aumentar el tamaño del test.

El principal objetivo del tuneado en KNN es: Minimizar el error de generalización. Maximizar el R² en training. Eliminar variables. Reducir el coste computacional.

KNN es más adecuado cuando: Hay relaciones lineales claras. Hay estructura local en los datos. El número de variables es muy alto. El dataset es extremadamente grande.

Denunciar Test