Examen tipo ejemplo - Slides_SVM.html
|
|
Título del Test:
![]() Examen tipo ejemplo - Slides_SVM.html Descripción: Mineria de datos |



| Comentarios |
|---|
NO HAY REGISTROS |
|
El objetivo principal de un SVM es: Minimizar el error cuadrático medio. Maximizar el margen entre clases. Maximizar la verosimilitud. Reducir la dimensionalidad. El margen en un SVM se define como: La distancia media entre observaciones. La distancia entre los vectores soporte y el hiperplano. La distancia entre centroides. El número de observaciones mal clasificadas. Los vectores soporte son: Todas las observaciones del dataset. Las observaciones más alejadas del hiperplano. Las observaciones que definen el margen. Observaciones seleccionadas aleatoriamente. Un SVM lineal es adecuado cuando: Las clases no son separables. Las clases son separables linealmente. Hay muchas variables categóricas. El número de observaciones es pequeño. El hiperplano óptimo es aquel que: Minimiza la varianza. Minimiza el número de errores. Maximiza el margen. Maximiza el accuracy en training. El parámetro de coste (C) en SVM controla: La complejidad del kernel. El tamaño del margen. El trade-off entre margen y errores. El número de vectores soporte. Un valor grande de C implica: Un margen más ancho y más errores. Un margen más estrecho y menos errores. Menor sensibilidad a outliers. Mayor regularización. Un valor pequeño de C implica: Menor margen. Mayor penalización de errores. Mayor margen y más tolerancia al error. Mayor overfitting. SVM es un modelo: Paramétrico. No paramétrico. Lineal. Basado en distancias. El kernel trick permite: Reducir el número de observaciones. Resolver problemas no lineales. Normalizar las variables. Eliminar outliers. Un kernel permite: Ajustar pesos a observaciones. Mapear datos a espacios de mayor dimensión. Reducir dimensionalidad. Eliminar multicolinealidad. El kernel lineal es equivalente a: Regresión logística. Regresión lineal con margen máximo. KNN. Árbol de decisión. El kernel polinómico introduce: Interacciones y no linealidades. Solo efectos lineales. Regularización L1. Reducción de varianza. El kernel RBF se basa en: Distancia euclídea. Productos escalares. Gradientes. Bootstrap. El parámetro γ (gamma) en el kernel RBF controla: El número de árboles. El alcance de la influencia de cada observación. El número de clases. El margen. Un valor grande de γ provoca: Modelos más suaves. Mayor sesgo. Modelos más complejos. Menor varianza. Un valor pequeño de γ provoca: Modelos muy complejos. Modelos más suaves. Mayor overfitting. Menor margen. SVM con kernel RBF es especialmente sensible a: Multicolinealidad. Escala de las variables. Valores missing. Variables categóricas. Antes de aplicar SVM es recomendable: Eliminar outliers siempre. Normalizar las variables. Aplicar PCA obligatoriamente. Codificar con one-hot. SVM puede utilizarse para: Solo clasificación. Solo regresión. Clasificación y regresión. Solo clustering. En SVM para regresión (SVR), el objetivo es: Maximizar accuracy. Minimizar RMSE. Ajustar una banda de tolerancia ε. Maximizar el margen entre clases. El parámetro ε en SVR controla: El número de vectores soporte. El ancho de la banda de tolerancia. El kernel. El margen. Aumentar ε en SVR suele provocar: Mayor sensibilidad a ruido. Modelos más simples. Mayor varianza. Overfitting. SVM es especialmente adecuado cuando: El dataset es muy grande. Hay alta dimensionalidad. Hay muchas variables categóricas. Se requiere interpretabilidad. Una desventaja de SVM es que: No captura no linealidades. Requiere normalización. No admite clasificación. Tiene alto sesgo. En clasificación multiclase con SVM se suele usar: One-versus-all u one-versus-one. Curva ROC. PCA. Boosting. La estrategia one-versus-one consiste en: Entrenar un modelo por clase. Entrenar un modelo por cada par de clases. Entrenar un único modelo. Usar voting aleatorio. Comparado con one-versus-all, one-versus-one: Usa menos modelos. Usa más modelos. Es menos costoso. No se utiliza en la práctica. El tuneado en SVM se centra principalmente en: Métricas. Kernel y sus parámetros. Normalización. Número de observaciones. El conjunto de test debe utilizarse para: Ajustar C y γ. Elegir el kernel. Evaluar el modelo final. Normalizar. Usar el conjunto de test para tunear hiperparámetros provoca: Mejor generalización. Underfitting. Data leakage. Menor varianza. SVM suele ser menos interpretable que: Árboles. Regresión lineal. KNN. Todas las anteriores. Comparado con Random Forest, SVM: Es más interpretable. Escala mejor a grandes datasets. Puede ser más costoso computacionalmente. No requiere tuneado. SVM es sensible a outliers cuando: C es pequeño. C es grande. Se usa kernel lineal. Se normaliza. Un SVM con margen blando permite: Separación perfecta. Errores de clasificación. Márgenes infinitos. Overfitting. El margen blando es útil cuando: Los datos son perfectamente separables. Hay ruido en los datos. No hay outliers. Se usa PCA. SVM pertenece a la familia de modelos: Probabilísticos. Ensamble. Máximo margen. Basados en reglas. SVM NO requiere: Definir un kernel. Normalizar. Elegir hiperparámetros. Calcular distancias explícitas. Una ventaja de SVM es que: Es muy interpretable. Funciona bien en alta dimensión. Escala muy bien con big data. No necesita tuneado. Una mala elección del kernel puede provocar: Mejor generalización. Underfitting u overfitting. Normalización automática. Eliminación de ruido. SVM con kernel lineal es similar a: KNN. Regresión penalizada. Árbol de decisión. Boosting. El número de vectores soporte suele: Ser igual al número de observaciones. Disminuir con C grande. Aumentar con C pequeño. No depender de C. En SVM, solo influyen en la solución: Todas las observaciones. Los centroides. Los vectores soporte. Las observaciones bien clasificadas. SVM puede manejar variables categóricas: De forma nativa. Nunca. Tras una codificación adecuada. Solo ordinales. En un workflow, SVM se incluye como: Recipe. Métrica. Modelo. Validación. El assessment de SVM debe realizarse mediante: Training completo. Validación cruzada. Solo test. Bootstrap del test. SVM es especialmente útil cuando: Hay muchas observaciones y pocas variables. Hay pocas observaciones y muchas variables. Hay muchas categóricas. Se necesita interpretabilidad. Comparado con KNN, SVM: Usa distancias directamente. Es menos sensible a la escala. Generaliza mejor en alta dimensión. No necesita normalización. El principal riesgo de SVM es: Alto sesgo. Overfitting por mal tuneado. No converger. No capturar no linealidades. El objetivo final al usar SVM es: Maximizar interpretabilidad. Reducir dimensionalidad. Minimizar el error de generalización. Maximizar accuracy en training. |




