Aprendizaje Supervisado ii
![]() |
![]() |
![]() |
Título del Test:![]() Aprendizaje Supervisado ii Descripción: Regresión y Clasificación |




Comentarios |
---|
NO HAY REGISTROS |
El algoritmo ordinary least squares. Es apto para regresion simple y múltiple. Genera un modelo realizando una combinación lineal de los atributos. Produce como predicción el promedio de las clases de los ejemplos de entrenamiento más parecidos. Es un método de regresión. Está basada en la idea de encontrar una frontera lineal entre dos clases a partir de la transformación exponencial. Es un método de clasificación. Divide el conjunto de datos de forma jerárquica en trozos cada vez menores hasta llegar a trozos donde los ejemplos son todos (o casi) de la misma clase. El algoritmo vecinos más cercanos o KNN (K nearest neighbors). Es apto para regresion simple y múltiple. Genera un modelo realizando una combinación lineal de los atributos. Produce como predicción el promedio de las clases de los ejemplos de entrenamiento más parecidos. Es un método de regresión. Está basada en la idea de encontrar una frontera lineal entre dos clases a partir de la transformación exponencial. Es un método de clasificación. Divide el conjunto de datos de forma jerárquica en trozos cada vez menores hasta llegar a trozos donde los ejemplos son todos (o casi) de la misma clase. Los árboles de decisión. Es apto para regresion simple y múltiple. Genera un modelo realizando una combinación lineal de los atributos. Produce como predicción el promedio de las clases de los ejemplos de entrenamiento más parecidos. Es un método de regresión. Está basada en la idea de encontrar una frontera lineal entre dos clases a partir de la transformación exponencial. Es un método de clasificación. Divide el conjunto de datos de forma jerárquica en trozos cada vez menores hasta llegar a trozos donde los ejemplos son todos (o casi) de la misma clase. Es un método de clasificación. La regresión logística (logr) o clasificaicón por máxima entripía (log-linear). Es apto para regresion simple y múltiple. Genera un modelo realizando una combinación lineal de los atributos. Produce como predicción el promedio de las clases de los ejemplos de entrenamiento más parecidos. Es un método de regresión. Está basada en la idea de encontrar una frontera lineal entre dos clases a partir de la transformación exponencial. Es un método de clasificación. Divide el conjunto de datos de forma jerárquica en trozos cada vez menores hasta llegar a trozos donde los ejemplos son todos (o casi) de la misma clase. Es un método de clasificación. La regresión lineal. Utiliza el coeficiente de determinación R2 para evaluar el modelo. Utiliza la distancia de Minkowski para evaluar la similitud. Utiliza AUC (area under curve) bajo la cuva ROC (receiver operating characteristic) para medir la bondad del clasificador. Utiliza CART para averiguar cual es el atributo más apropiado en cada caso. La regresión logística LOGR. Utiliza el coeficiente de determinación R2 para evaluar el modelo. Utiliza la distancia de Minkowski para evaluar la similitud. Utiliza AUC (area under curve) bajo la cuva ROC (receiver operating characteristic) para medir la bondad del clasificador. Utiliza CART para averiguar cual es el atributo más apropiado en cada caso. El algoritmo KNN (k nearest neighbors) o vecinos mas cercanos. Utiliza el coeficiente de determinación R2 para evaluar el modelo. Utiliza la distancia de Minkowski para evaluar la similitud. Utiliza AUC (area under curve) bajo la cuva ROC (receiver operating characteristic) para medir la bondad del clasificador. Utiliza CART para averiguar cual es el atributo más apropiado en cada caso. Los árboles de decisión. Utiliza el coeficiente de determinación R2 para evaluar el modelo. Utiliza la distancia de Minkowski para evaluar la similitud. Utiliza AUC (area under curve) bajo la cuva ROC (receiver operating characteristic) para medir la bondad del clasificador. Utiliza CART para averiguar cual es el atributo más apropiado en cada caso. El/Los siguientes algoritmos tienen las siguientes ventajas: - Simplicidad de los modelos generados - fácil interpretacion de soluciones - tiempo de ejecución bueno (razonable o nulo). Regresión lineal multiple, KNN (k nearest neighbors), árboles de decisión, LOGR. Regresión lineal multiple, support vector machine. Arboles de decisión, Boosting. Boosting, support vector machine. El/Los siguientes algoritmos tienen las siguientes inconvenientes: - Los outliers afectan mucho al modelo. Regresión lineal multiple, LOGR. KNN (k nearest neighbors), Adaboost. Arboles de decisión, Boosting. support vector machine,Boosting. El/Los siguientes algoritmos tienen las siguientes inconvenientes: - Sensible a datos ruidosos. Regresión lineal multiple, LOGR. KNN (k nearest neighbors), Adaboost. Adaboost, Support Vector Machine. support vector machine. El/Los siguientes algoritmos tienen las siguientes inconvenientes: - Inconsistencia con datasets pequeños - Coste computacional elevado. Regresión lineal multiple, árboles de decisión, LOGR. Regresión lineal multiple, support vector machine, KNN (k nearest neighbors). Arboles de decisión, Boosting. Random forest (Bagging). El/Los siguientes algoritmos tienen las siguientes inconvenientes: - No adecuado a conjuntos de datos muy grandes (mucho coste computacional) - No eficaz en conjunto de datos ruidosos (clases superpuestas. Regresión lineal multiple, árboles de decisión, LOGR. KNN (k nearest neighbors). Support Vector Machine. Random forest (Bagging), Arboles de decisión. El/Los siguientes algoritmos tienen las siguientes inconvenientes: - Riesgo de sobreajuste - Sensibiliad al desbalanceo de clases. Regresión lineal multiple, KNN (k nearest neighbors), árboles de decisión, LOGR. Arboles de decision. Arboles de decisión, Boosting. Boosting. El/Los siguientes algoritmos tienen las siguientes ventajas: - Optimización convexa - adecuado para problemas lineales y no lineales - funciona bien independientemente del tamaño del espacio de caracteristicas - funciona de manera eficaz en conjunto de datos pequeños. LOGR. Regresión lineal multiple, support vector machine. Arboles de decisión. support vector machine. El/Los siguientes algoritmos tienen las siguientes ventajas: - eficiente sin ajustar hiperparametros en clasificación y regresión - estabilidad y robustez en la predicción - posibilidad de usar gran cantidad de caracteristicas - reduce riesgo de overfitting. Bagging. Adaboost. Arboles de decisión. support vector machine. El/Los siguientes algoritmos tienen las siguientes ventajas: - gran flexibilidad a las caracteristicas de los datos - robusto a otliers, valores ausents y atributos en diferentes escalas. Bagging. Adaboost. Arboles de decisión. support vector machine. En KNN (k nearest neighbors). Podemos usar la distancia de minkowski con q=1/2. La escala de los valores de los atributos es importante. Los más altos contribuyen mas al cálculo de los vecinos. Es importante normalizar. Lá unica manera de seleccionar los vecinos tomando el número k de vecinos más cercanos. No es posible ponderar los vecinos. En KNN (k nearest neighbors). Podemos usar la distancia de minkowski con q=1. La escala de los valores de los atributos no es importante. Los más bajos contribuyen mas al cálculo de los vecinos. Lá unica manera de seleccionar los vecinos tomando el número k de vecinos más cercanos. No es posible ponderar los vecinos. En KNN (k nearest neighbors). Podemos usar la distancia de minkowski con q=1/2. La escala de los valores de los atributos no es importante. Los más bajos contribuyen mas al cálculo de los vecinos. Lá unica manera de seleccionar los vecinos tomando el número k de vecinos más cercanos. Es posible ponderar los vecinos transofrmando el conjunto de datos, multiplicando los valores por un peso. En KNN (k nearest neighbors). Podemos usar la distancia de minkowski con q=-1. La escala de los valores de los atributos no es importante. Los más bajos contribuyen mas al cálculo de los vecinos. Podemos seleccionar los vecinos tomando el número k de vecinos más cercanos o seleccionar aquellos vecinos dado un radio r. No es posible ponderar los vecinos. La regresión logística LOGR. No puede resolver un problema con una clasificaicón de más de dos clases. Genera una distribución que indica o predice la probabilidad pi de que su clase sea una dada. Usa la umbralización sobre esta pi. Mide su bondad según el área bajo la curva ROC (AUC). La curva ROC mide la relación entre las tasas de aciertos y de falsos positivos en el umbral de clasificación. Si AUC=0 entonces el modelo es perfecto. Es un modelo de regresión. La regresión logística LOGR. Puede resolver un problema con una clasificaicón de más de dos clases descomponiendo el problema complejo en m subproblemas de clasificiación binaria tipo one-vs-rest(OvR). Predice si es de una clase u otra clase, pro eso solo puede resolver problemas con 2 categorías. Mide su bondad según el área bajo la curva ROC (AUC). La curva ROC mide la relación entre las tasas de aciertos y de falsos positivos en el umbral de clasificación. Si AUC=0 entonces el modelo es perfecto. Es un modelo de regresión. La regresión logística LOGR. No puede resolver un problema con una clasificaicón de más de dos clases. Predice si es de una clase u otra clase, por eso solo puede resolver problemas con 2 categorías. Mide su bondad según el área bajo la curva ROC (AUC). La curva ROC mide la relación entre las tasas de aciertos y de falsos positivos en el umbral de clasificación. Si AUC=1 entonces el modelo es perfecto. Es un modelo de regresión. Los árboles de decisión. Sólo se pueden utilizar en clasificación. Se debe asignar a cada nodo el atributo más apropiado (el que mejor discrimine), para eso se utiliza el método CART (clasification and regression tree). Lo ideal es hacer un árbol muy exhaustivo, para asi obtener exactitud precision sensibilidad y F1 del 100%. Sólo pueden ser binarios. Los árboles de decisión. Se pueden utilizar en clasificación y en regresión. Se debe asignar a cada nodo el atributo más apropiado (el que peor discrimine), para eso se utiliza el método ID3 (clasification and regression tree). Lo ideal es hacer un árbol muy exhaustivo, para asi obtener exactitud precision sensibilidad y F1 del 100%. Sólo pueden ser binarios. Los árboles de decisión. Sólo se pueden utilizar en regresión. Se debe asignar a cada nodo el atributo más apropiado (el que peor discrimine), para eso se utiliza el método ID3 (clasification and regression tree). Lo ideal es hacer un árbol muy exhaustivo, para asi obtener exactitud precision sensibilidad y F1 del 100%. Pueden ser binarios o no. El parámetro C de SVM (Support Vector Machine). Es un hipermarámetro que se usa con RBF de kernel gaussiano. Si usamos kernel lineal es necesario utilizarlo. Define el grado de curatura de la frontera de decisión. Es unhiperparámetro que se usa con RBF de kernel gaussiano. No es necesario si usamos kernel lineal/polinomial. Define el grado de curatura de la frontera de decisión. Es un hiperparámetro de regularización que controla la compensación entre las penalizaciones de las decisiones erróneas y el ancho del margen. Es un hiperparámetro que optimiza el margen, que debe ser el menor posible. El parámetro gamma de SVM (Support Vector Machine). Es un hipermarámetro que se usa con RBF de kernel gaussiano. Si usamos kernel lineal es necesario utilizarlo. Define el grado de curatura de la frontera de decisión. Es un hiperparámetro que se usa con RBF de kernel gaussiano. No es necesario si usamos kernel lineal/polinomial. Define el grado de curatura de la frontera de decisión. A más curvatura, más grande. Toma valores entre 0.01 y 100. Es un hiperparámetro de regularización que controla la compensación entre las penalizaciones de las decisiones erróneas y el ancho del margen. Cuanto más grande, más peso a los errores (permite más error), cuanto más pequeño, menos peso a los errores (permite menos error). Es un hiperparámetro que optimiza el margen, que debe ser el menor posible. El parámetro C de SVM (Support Vector Machine). Es un hipermarámetro que se usa con RBF de kernel gaussiano. Si usamos kernel lineal es necesario utilizarlo. Define el grado de curatura de la frontera de decisión. Es un hiperparámetro que se usa con RBF de kernel gaussiano. No es necesario si usamos kernel lineal/polinomial. Define el grado de curatura de la frontera de decisión. A más curvatura, más grande. Toma valores entre 0.01 y 100. Es un hiperparámetro de regularización que controla la compensación entre las penalizaciones de las decisiones erróneas y el ancho del margen. Cuanto más grande, más peso a los errores (permite más error), cuanto más pequeño, menos peso a los errores (permite menos error). Es un hiperparámetro que optimiza el margen, que debe ser el menor posible. El SVM (Support Vector Machine). Siempre se puede usar. Se usa cuando la cantidad de datos es suficientemente pequeña y si los datos son linealmente separables. Se usa cuando la cantidad de datos es suficientemente grande y no importa que los datos no puedan ser linealmente separables. Se usa cuando la cantidad de datos es suficientemente pequeña y no importa que los datos no puedan ser linealmente separables. El kernel trick. Usa una funcion kernel y permite proyectar un espacio muestral D dimensional a otro espacio M dimensional. Permite separar aquellos datos que originalmente no eran linealmente separables. Usado para SVM. Es un hiperparámetro que se usa con RBF de kernel gaussiano. No es necesario si usamos kernel lineal/polinomial. Define el grado de curatura de la frontera de decisión. A más curvatura, más grande. Toma valores entre 0.01 y 100. Usa una funcion kernel y permite proyectar un espacio muestral D dimensional a otro espacio M dimensional. Permite separar aquellos datos que originalmente no eran linealmente separables. Usado para árboles de decision. Es un hipermarámetro que se usa con RBF de kernel gaussiano. Si usamos kernel lineal es necesario utilizarlo. Define el grado de curatura de la frontera de decisión. En random forest. La clasificación final se obtiene promediando los resultados de los clasificadores de manera ponderada. La clasificación final se obtiene promediando los resultados de los clasificadores. La clasificación final se obtiene siguiendo el árbol clasificador. En adaboost. La clasificación final se obtiene promediando los resultados de los clasificadores de manera ponderada. La clasificación final se obtiene promediando los resultados de los clasificadores. La clasificación final se obtiene siguiendo el árbol clasificador. Ordena los pasos del algoritmo random forest. Consideramos 1 solo subconjunto de varaibles en cada etapa. Creamos bootstraped dataset. predecimos en uevo registro aplicando tecnica de majority voting. Repetimos paso 1 y 2 muchas veces. Ordena los pasos del algoritmo Adaboost. Calculamos el indice de Gini para cada stump, el que tenga menor indice será el primer stump. Todas las instancias tienen la misma ponderación. Los stumps se construyen analizando el valor que toma cada atributo y la variable a predecir. Se calcula la importancia para cada stump. Se normalizan los pesos y a cada instancia se le asigna un intervalo (entre 0 y 1) con respecto a ese peso. Se pondera el algoritmo otorgando a las instancias en los que mi primer stump se equivoca más peso. Se vuelve a comenzar el algoritmo para el segundo stump y así sucesivamente. Finalmente se aplica majority voting de manera ponderada. Se eligen nuevas instancias aleatoriamente según esos pesos y se obtinee un dataset con los registros errados en mayor frecuencia. Un stump es. Un árbol con más de dos hojas por nodo. Un árbol compuesto por un solo nodo y dos hojas. Es un hiperparámetro que optimiza el margen, que debe ser el menor posible. Es un hipermarámetro que se usa con RBF de kernel gaussiano. Si usamos kernel lineal es necesario utilizarlo. Define el grado de curatura de la frontera de decisión. |