option
Cuestiones
ayuda
daypo
buscar.php

Aprendizaje supervisado i

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Aprendizaje supervisado i

Descripción:
Hasta tema 4 de regresion (sin incluir)

Fecha de Creación: 2022/02/13

Categoría: Otros

Número Preguntas: 80

Valoración:(3)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

Qué es un atributo en aprendizaje supervisado. Es la variable (columna) de una tabla de datos que actúa como variable de salida en el aprendizaje supervisado. es una variable (columna) de una tabla de datos que actúa como variable de entrada en el aprendizaje automático. es una fila de una tabla de datos. También se llama ejemplo, muestra, observación, punto o prototipo (instance, data point, sample). es el error cometido por un modelo cuando predice los mismos ejemplos de entrenamiento con los que fue entrenado.

Qué es una clase en aprendizaje supervisado. Es la variable (columna) de una tabla de datos que actúa como variable de salida en el aprendizaje supervisado. es una variable (columna) de una tabla de datos que actúa como variable de entrada en el aprendizaje automático. es una fila de una tabla de datos. También se llama ejemplo, muestra, observación, punto o prototipo (instance, data point, sample). es el error cometido por un modelo cuando predice los mismos ejemplos de entrenamiento con los que fue entrenado.

Qué es un error de entrenamiento en aprendizaje supervisado. Es la variable (columna) de una tabla de datos que actúa como variable de salida en el aprendizaje supervisado. es una variable (columna) de una tabla de datos que actúa como variable de entrada en el aprendizaje automático. es una fila de una tabla de datos. También se llama ejemplo, muestra, observación, punto o prototipo (instance, data point, sample). es el error cometido por un modelo cuando predice los mismos ejemplos de entrenamiento con los que fue entrenado.

Qué es una instancia en aprendizaje supervisado. Es la variable (columna) de una tabla de datos que actúa como variable de salida en el aprendizaje supervisado. es una variable (columna) de una tabla de datos que actúa como variable de entrada en el aprendizaje automático. es una fila de una tabla de datos. También se llama ejemplo, muestra, observación, punto o prototipo (instance, data point, sample). es el error cometido por un modelo cuando predice los mismos ejemplos de entrenamiento con los que fue entrenado.

Un algoritmo de búsqueda. permite determinar la bondad de los atributos con el fin de seleccionar aquellos más relevantes de cara a su relación con la clase. el conjunto de datos del problema se divide una única vez en dos partes: entrenamiento y test. Se utiliza habitualmente un porcentaje, que indica la proporción de muestras que se destinarán al conjunto de entrenamiento, siendo el resto de las muestras las destinadas para el conjunto de test. es una algoritmo de construcción que asigna a cada nodo de un árbol de decisión el atributo más apropiado en cada caso. trata de encontrar las soluciones más prometedoras a un problema de forma inteligente de manera que se optimice (maximice o minimice) una determinada función objetivo.

El algoritmo CART. permite determinar la bondad de los atributos con el fin de seleccionar aquellos más relevantes de cara a su relación con la clase. el conjunto de datos del problema se divide una única vez en dos partes: entrenamiento y test. Se utiliza habitualmente un porcentaje, que indica la proporción de muestras que se destinarán al conjunto de entrenamiento, siendo el resto de las muestras las destinadas para el conjunto de test. es un algoritmo de construcción que asigna a cada nodo de un árbol de decisión el atributo más apropiado en cada caso. trata de encontrar las soluciones más prometedoras a un problema de forma inteligente de manera que se optimice (maximice o minimice) una determinada función objetivo.

Un algoritmo de evaluación de atributos. permite determinar la bondad de los atributos con el fin de seleccionar aquellos más relevantes de cara a su relación con la clase. el conjunto de datos del problema se divide una única vez en dos partes: entrenamiento y test. Se utiliza habitualmente un porcentaje, que indica la proporción de muestras que se destinarán al conjunto de entrenamiento, siendo el resto de las muestras las destinadas para el conjunto de test. es un algoritmo de construcción que asigna a cada nodo de un árbol de decisión el atributo más apropiado en cada caso. trata de encontrar las soluciones más prometedoras a un problema de forma inteligente de manera que se optimice (maximice o minimice) una determinada función objetivo.

El conjunto de entrenamiento es. Es el conjunto de datos utilizado para que un algoritmo de aprendizaje automático realice sus predicciones utilizando el modelo aprendido con el conjunto de entrenamiento. Es el conjunto de datos utilizado para que un algoritmo de aprendizaje automático aprenda y genere su modelo de conocimiento. Es el conjunto de datos utilizado para validar el modelo que el algoritmo de aprendizaje automático ha generado.

El conjunto de validación es. Es el conjunto de datos utilizado para que un algoritmo de aprendizaje automático realice sus predicciones utilizando el modelo aprendido con el conjunto de entrenamiento. Es el conjunto de datos utilizado para que un algoritmo de aprendizaje automático aprenda y genere su modelo de conocimiento. Es el conjunto de datos utilizado para validar el modelo que el algoritmo de aprendizaje automático ha generado.

El conjunto test es. Es el conjunto de datos utilizado para que un algoritmo de aprendizaje automático realice sus predicciones utilizando el modelo aprendido con el conjunto de entrenamiento. Es el conjunto de datos utilizado para que un algoritmo de aprendizaje automático aprenda y genere su modelo de conocimiento. Es el conjunto de datos utilizado para validar el modelo que el algoritmo de aprendizaje automático ha generado.

El sobreajuste es. es una predicción cuyo valor es superior al valor real de la clase. un fenómeno indeseado que sucede cuando un algoritmo de aprendizaje tiende a construir modelos de complejidad elevada que minimizan en gran medida los errores de entrenamiento a costa de aumentar los errores de generalización. es un fenómeno indeseado que sucede cuando un algoritmo de aprendizaje tiende a construir modelos de escasa complejidad que son incapaces de reflejar las relaciones importantes del conjunto de datos. una subestimación es una predicción cuyo valor es inferior al valor real de la clase.

El subajuste es. es una predicción cuyo valor es superior al valor real de la clase. un fenómeno indeseado que sucede cuando un algoritmo de aprendizaje tiende a construir modelos de complejidad elevada que minimizan en gran medida los errores de entrenamiento a costa de aumentar los errores de generalización. es un fenómeno indeseado que sucede cuando un algoritmo de aprendizaje tiende a construir modelos de escasa complejidad que son incapaces de reflejar las relaciones importantes del conjunto de datos. una subestimación es una predicción cuyo valor es inferior al valor real de la clase.

La sobreestimación es. es una predicción cuyo valor es superior al valor real de la clase. un fenómeno indeseado que sucede cuando un algoritmo de aprendizaje tiende a construir modelos de complejidad elevada que minimizan en gran medida los errores de entrenamiento a costa de aumentar los errores de generalización. es un fenómeno indeseado que sucede cuando un algoritmo de aprendizaje tiende a construir modelos de escasa complejidad que son incapaces de reflejar las relaciones importantes del conjunto de datos. una subestimación es una predicción cuyo valor es inferior al valor real de la clase.

La subestimación es. es una predicción cuyo valor es superior al valor real de la clase. un fenómeno indeseado que sucede cuando un algoritmo de aprendizaje tiende a construir modelos de complejidad elevada que minimizan en gran medida los errores de entrenamiento a costa de aumentar los errores de generalización. es un fenómeno indeseado que sucede cuando un algoritmo de aprendizaje tiende a construir modelos de escasa complejidad que son incapaces de reflejar las relaciones importantes del conjunto de datos. una subestimación es una predicción cuyo valor es inferior al valor real de la clase.

La validación cruzada. consiste en partir el conjunto de datos original en subconjuntos (también llamados bolsas, folds en inglés) de igual tamaño. Una vez partido el conjunto de datos en bolsas, se realizan validaciones de tipo hold-out empleando, en cada validación, como test una bolsa distinta y como entrenamiento el resto de los ejemplos de las demás bolsas. los conjuntos de validación que se generan guardan aproximadamente la misma distribución de clases que los conjuntos de entrenamiento. el conjunto de datos del problema se divide una única vez en dos partes: entrenamiento y validación. Se utiliza habitualmente un porcentaje, que indica la proporción de muestras que se destinarán al conjunto de entrenamiento, siendo el resto de las muestras las destinadas para el conjunto de validación. tienen lugar dos validaciones en cascada: una externa y otra interna. La validación externa puede coincidir con una validación cruzada clásica, mientras que la interna se aplica sobre cada bolsa de entrenamiento de la externa, lo cual permite que se utilicen varios tests de validación.

La validación anidada. consiste en partir el conjunto de datos original en subconjuntos (también llamados bolsas, folds en inglés) de igual tamaño. Una vez partido el conjunto de datos en bolsas, se realizan validaciones de tipo hold-out empleando, en cada validación, como test una bolsa distinta y como entrenamiento el resto de los ejemplos de las demás bolsas. los conjuntos de validación que se generan guardan aproximadamente la misma distribución de clases que los conjuntos de entrenamiento. el conjunto de datos del problema se divide una única vez en dos partes: entrenamiento y validación. Se utiliza habitualmente un porcentaje, que indica la proporción de muestras que se destinarán al conjunto de entrenamiento, siendo el resto de las muestras las destinadas para el conjunto de validación. tienen lugar dos validaciones en cascada: una externa y otra interna. La validación externa puede coincidir con una validación cruzada clásica, mientras que la interna se aplica sobre cada bolsa de entrenamiento de la externa, lo cual permite que se utilicen varios tests de validación.

La validación estratificada. consiste en partir el conjunto de datos original en subconjuntos (también llamados bolsas, folds en inglés) de igual tamaño. Una vez partido el conjunto de datos en bolsas, se realizan validaciones de tipo hold-out empleando, en cada validación, como test una bolsa distinta y como entrenamiento el resto de los ejemplos de las demás bolsas. los conjuntos de validación que se generan guardan aproximadamente la misma distribución de clases que los conjuntos de entrenamiento. el conjunto de datos del problema se divide una única vez en dos partes: entrenamiento y validación. Se utiliza habitualmente un porcentaje, que indica la proporción de muestras que se destinarán al conjunto de entrenamiento, siendo el resto de las muestras las destinadas para el conjunto de validación. tienen lugar dos validaciones en cascada: una externa y otra interna. La validación externa puede coincidir con una validación cruzada clásica, mientras que la interna se aplica sobre cada bolsa de entrenamiento de la externa, lo cual permite que se utilicen varios tests de validación.

La validación hold-out. consiste en partir el conjunto de datos original en subconjuntos (también llamados bolsas, folds en inglés) de igual tamaño. Una vez partido el conjunto de datos en bolsas, se realizan validaciones de tipo hold-out empleando, en cada validación, como test una bolsa distinta y como entrenamiento el resto de los ejemplos de las demás bolsas. los conjuntos de validación que se generan guardan aproximadamente la misma distribución de clases que los conjuntos de entrenamiento. el conjunto de datos del problema se divide una única vez en dos partes: entrenamiento y validación. Se utiliza habitualmente un porcentaje, que indica la proporción de muestras que se destinarán al conjunto de entrenamiento, siendo el resto de las muestras las destinadas para el conjunto de validación. tienen lugar dos validaciones en cascada: una externa y otra interna. La validación externa puede coincidir con una validación cruzada clásica, mientras que la interna se aplica sobre cada bolsa de entrenamiento de la externa, lo cual permite que se utilicen varios tests de validación.

La comprensión de negocio... Es una fase de CRISP-DM en al que se determinan los objetivos de negocio, se evalua la situación actual y se determinan los objetivos. Finalmente se produce un plan de proyecto. Es una fase de CRISP-DM en la que se recolecta y explora inicialmente los datos. También se verifica la calidad de los datos. Es una fase en la que se selecciona, se limpia, se construyen, se integran y se formatean datos. Fase critica de CRISP-DM. Es una fase de CRISP-DM en la que se seleccionan los algoritmos de modelado, se genera el plan de prueba, se construye el modelo y se evaluan los resultados del modelo. Es una fase de CRISP-dm en la que se evalua el proceso y se determinan los siguientes pasos.

La evaluación de negocio... Es una fase de CRISP-DM en al que se determinan los objetivos de negocio, se evalua la situación actual y se determinan los objetivos. Finalmente se produce un plan de proyecto. Es una fase de CRISP-DM en la que se recolecta y explora inicialmente los datos. También se verifica la calidad de los datos. Es una fase en la que se selecciona, se limpia, se construyen, se integran y se formatean datos. Fase critica de CRISP-DM. Es una fase de CRISP-DM en la que se seleccionan los algoritmos de modelado, se genera el plan de prueba, se construye el modelo y se evaluan los resultados del modelo. Es una fase de CRISP-DM en la que se evalua el proceso y se determinan los siguientes pasos.

La fase de modelado... Es una fase de CRISP-DM en al que se determinan los objetivos de negocio, se evalua la situación actual y se determinan los objetivos. Finalmente se produce un plan de proyecto. Es una fase de CRISP-DM en la que se recolecta y explora inicialmente los datos. También se verifica la calidad de los datos. Es una fase en la que se selecciona, se limpia, se construyen, se integran y se formatean datos. Fase critica de CRISP-DM. Es una fase de CRISP-DM en la que se seleccionan los algoritmos de modelado, se genera el plan de prueba, se construye el modelo y se evaluan los resultados del modelo. Es una fase de CRISP-DM en la que se evalua el proceso y se determinan los siguientes pasos.

La fase de preparación de datos... Es una fase de CRISP-DM en al que se determinan los objetivos de negocio, se evalua la situación actual y se determinan los objetivos. Finalmente se produce un plan de proyecto. Es una fase de CRISP-DM en la que se recolecta y explora inicialmente los datos. También se verifica la calidad de los datos. Es una fase en la que se selecciona, se limpia, se construyen, se integran y se formatean datos. Fase critica de CRISP-DM. Es una fase de CRISP-DM en la que se seleccionan los algoritmos de modelado, se genera el plan de prueba, se construye el modelo y se evaluan los resultados del modelo. Es una fase de CRISP-DM en la que se evalua el proceso y se determinan los siguientes pasos.

La fase de comprension de los datos... Es una fase de CRISP-DM en al que se determinan los objetivos de negocio, se evalua la situación actual y se determinan los objetivos. Finalmente se produce un plan de proyecto. Es una fase de CRISP-DM en la que se recolecta y explora inicialmente los datos. También se verifica la calidad de los datos. Es una fase en la que se selecciona, se limpia, se construyen, se integran y se formatean datos. Fase critica de CRISP-DM. Es una fase de CRISP-DM en la que se seleccionan los algoritmos de modelado, se genera el plan de prueba, se construye el modelo y se evaluan los resultados del modelo. Es una fase de CRISP-DM en la que se evalua el proceso y se determinan los siguientes pasos.

La fase de comprension de negocio... Es una fase de CRISP-DM en al que se determinan los objetivos de negocio, se evalua la situación actual y se determinan los objetivos. Finalmente se produce un plan de proyecto. Es una fase de CRISP-DM en la que se recolecta y explora inicialmente los datos. También se verifica la calidad de los datos. Es una fase en la que se selecciona, se limpia, se construyen, se integran y se formatean datos. Fase critica de CRISP-DM. Es una fase de CRISP-DM en la que se seleccionan los algoritmos de modelado, se genera el plan de prueba, se construye el modelo y se evaluan los resultados del modelo. Es una fase de CRISP-DM en la que se evalua el proceso y se determinan los siguientes pasos.

El aprendizaje supervisado es. aprendizaje automático con una variable especial llamada variable objetivo/etiqueta, que es una variable de salida y es necesari oque todas las filas de datos tengan un valor para la variable de salida. aprendizaje automático sin variable o función objetivo. No son de inferencia o predicción. aprendizaje automático en el que los problemas involucran una variable de salida que puede estar en algunas filas de datos. aprendizaje automático en el que el algoritmo recibe algún tipo de valoración acerca de la idoneidad de la respuesta que produce el modelo.

El aprendizaje por refuerzo es. aprendizaje automático con una variable especial llamada variable objetivo/etiqueta, que es una variable de salida y es necesari oque todas las filas de datos tengan un valor para la variable de salida. aprendizaje automático sin variable o función objetivo. No son de inferencia o predicción. aprendizaje automático en el que los problemas involucran una variable de salida que puede estar en algunas filas de datos. aprendizaje automático en el que el algoritmo recibe algún tipo de valoración acerca de la idoneidad de la respuesta que produce el modelo.

El aprendizaje semisupervisado es. aprendizaje automático con una variable especial llamada variable objetivo/etiqueta, que es una variable de salida y es necesari oque todas las filas de datos tengan un valor para la variable de salida. aprendizaje automático sin variable o función objetivo. No son de inferencia o predicción. aprendizaje automático en el que los problemas involucran una variable de salida que puede estar en algunas filas de datos. aprendizaje automático en el que el algoritmo recibe algún tipo de valoración acerca de la idoneidad de la respuesta que produce el modelo.

El aprendizaje no supervisado es. aprendizaje automático con una variable especial llamada variable objetivo/etiqueta, que es una variable de salida y es necesari oque todas las filas de datos tengan un valor para la variable de salida. aprendizaje automático sin variable o función objetivo. No son de inferencia o predicción. aprendizaje automático en el que los problemas involucran una variable de salida que puede estar en algunas filas de datos. aprendizaje automático en el que el algoritmo recibe algún tipo de valoración acerca de la idoneidad de la respuesta que produce el modelo.

La normalización. consiste en transformar los valores de sus atributos numéricos al ranco continuo [0,1] mediante una homotecia. Se lleva a cabo para cada columna. Centra y escala los datos. consiste en transformar la distribución de los valores para que tengan una media y desviación tipica determinada. Se lleva a acbo para cada atributo de forma independiente.

La estandarizacion. consiste en transformar los valores de sus atributos numéricos al ranco continuo [0,1] mediante una homotecia. Se lleva a cabo para cada columna. Centra y escala los datos. consiste en transformar la distribución de los valores para que tengan una media y desviación tipica determinada. Se lleva a acbo para cada atributo de forma independiente.

El algoritmo de envolvente eliptica. presupone que los datos siguen una distribución normal. debe hacerse sobre unos datos normalizados. debe hacerse sobre unos datos estandarizados. sirve para la detección de valores normales.

La eliminación por baja varianza. es una técnica no supervisada en la que se elimian aquellos valores que no varían mucho en el conjunto de datos. debe hacerse sobre unos datos normalizados. se utiliza para la detección de outliers creando superficies elipticas entorno a la nube de puntos con valores normales en el conjunto de datos. se utiliza para la detección de outliers creando superficies cuadradas entorno a la nube de puntos con valores estandarizados en el conjunto de datos.

La métrica MAE. Mide el grado de dependencia lineal entre dos atributos y es útil para detectar atributos correlacionados linealmente. Mide cualquier tipo de dependencia entre los atributos, lineal o no lineal pero necesita un número mayor de instancias para que los resutados sean fiables. Se utiliza para la evaluación de regrsión, es una media ritmética de las diferencias en valor absoluto entre los valores reales y los predichos. Métrica de evaluación absoluta. Es el porcentaje de aciertos con respecto a l total de preducciones acertadas.

La métrica de información mutua. Mide el grado de dependencia lineal entre dos atributos y es útil para detectar atributos correlacionados linealmente. Mide cualquier tipo de dependencia entre los atributos, lineal o no lineal pero necesita un número mayor de instancias para que los resutados sean fiables. Se utiliza para la evaluación de regrsión, es una media ritmética de las diferencias en valor absoluto entre los valores reales y los predichos. Métrica de evaluación absoluta. Métrica de evaluación relativa, en la que conocemos la magintud de los errores cometidos de forma relativa al valor real. Utilizada en regresión. Se basa en las diferencias al cuadrado entre preducciones y valores reales. Métrica de evaluación absoluta.

La métrica RMSE. Métrica de evaluación para clasificación binaria o multiclase. Mide la tasa de aciertos positivos con respecto al total de predicciones positivas realizadas. Métrica de evaluación para clasificación binaria o multiclase. Mide la cantidad de casos positivos que el modelo es capaz de cubrir con sus predicciones positivas acertadas. Se utiliza para la evaluación de regrsión, es una media ritmética de las diferencias en valor absoluto entre los valores reales y los predichos. Métrica de evaluación absoluta. Se basa en las diferencias al cuadrado entre preducciones y valores reales. Métrica de evaluación absoluta.

La métrica MAPE. Mide el grado de dependencia lineal entre dos atributos y es útil para detectar atributos correlacionados linealmente. Métrica de evaluación relativa, en la que conocemos la magintud de los errores cometidos de forma relativa al valor real. Utilizada en regresión. Métrica de evaluación para clasificación binaria o multiclase. Mide la tasa de aciertos positivos con respecto al total de predicciones positivas realizadas. Métrica de evaluación para clasificación binaria o multiclase. Mide la cantidad de casos positivos que el modelo es capaz de cubrir con sus predicciones positivas acertadas.

La exactitud es ... Métrica de evaluación relativa, en la que conocemos la magintud de los errores cometidos de forma relativa al valor real. Utilizada en regresión. Métrica de evaluación para clasificación binaria o multiclase. Mide la cantidad de casos positivos que el modelo es capaz de cubrir con sus predicciones positivas acertadas. Métrica de evaluación para clasificación binaria o multiclase. Mide la tasa de aciertos positivos con respecto al total de predicciones positivas realizadas. Métrica que es el porcentaje de aciertos con respecto a l total de preducciones acertadas.

La métrica F-test. Mide el grado de dependencia lineal entre dos atributos y es útil para detectar atributos correlacionados linealmente. Mide cualquier tipo de dependencia entre los atributos, lineal o no lineal pero necesita un número mayor de instancias para que los resutados sean fiables. Se utiliza para la evaluación de regrsión, es una media ritmética de las diferencias en valor absoluto entre los valores reales y los predichos. Métrica de evaluación absoluta. Es el porcentaje de aciertos con respecto a l total de preducciones acertadas.

La matriz de confusión. Es una métrica de tipo matriz, contiene el recuento de predicciones realizadas organizadas por su correspondencia con la clase real. Mide cualquier tipo de dependencia entre los atributos, lineal o no lineal pero necesita un número mayor de instancias para que los resutados sean fiables. Se utiliza para la evaluación de regrsión, es una media ritmética de las diferencias en valor absoluto entre los valores reales y los predichos. Métrica de evaluación absoluta. Métrica de evaluación para clasificación binaria o multiclase. Mide la cantidad de casos positivos que el modelo es capaz de cubrir con sus predicciones positivas acertadas.

La precisión es. Métrica de evaluación para clasificación binaria o multiclase. Mide la tasa de aciertos positivos con respecto al total de predicciones positivas realizadas. Métrica de evaluación relativa, en la que conocemos la magintud de los errores cometidos de forma relativa al valor real. Utilizada en regresión. Métrica de evaluación para clasificación binaria o multiclase. Mide la cantidad de casos positivos que el modelo es capaz de cubrir con sus predicciones positivas acertadas. Es el porcentaje de aciertos con respecto a l total de preducciones acertadas.

La sensibilidad es. Métrica de evaluación para clasificación binaria o multiclase. Mide la cantidad de casos positivos que el modelo es capaz de cubrir con sus predicciones positivas acertadas. Métrica de evaluación para clasificación binaria o multiclase. Mide la tasa de aciertos positivos con respecto al total de predicciones positivas realizadas. Métrica de evaluación relativa, en la que conocemos la magintud de los errores cometidos de forma relativa al valor real. Utilizada en regresión. Es el porcentaje de aciertos con respecto a l total de preducciones acertadas.

La métrica F1. Métrica de evaluación para clasificación binaria o multiclase. Mide la cantidad de casos positivos que el modelo es capaz de cubrir con sus predicciones positivas acertadas. Métrica de evaluación para clasificación binaria o multiclase. Mide la tasa de aciertos positivos con respecto al total de predicciones positivas realizadas. Métrica de evaluación relativa, en la que conocemos la magintud de los errores cometidos de forma relativa al valor real. Utilizada en regresión. Resume sensibilidad y precisión de los modelos. se define como la media armónica entre sensibilidad y precisión.

La métrica R2 o coeficiente de determinación. Métrica de evaluación para clasificación binaria o multiclase. Mide la cantidad de casos positivos que el modelo es capaz de cubrir con sus predicciones positivas acertadas. Recoge la cantidad de variabilidad de la calse con respecto a su media aritmética que el modelo es capaz de predecir con respecto al total de variabilidad de la clase. Es usado para evaluar modelos no lineales. Recoge la cantidad de variabilidad de la clase que el modelo es capaz de predecir con respecto al total de variabilidad de la clase. Es usado para evaluar modelos lineales. Resume sensibilidad y precisión de los modelos. se define como la media armónica entre sensibilidad y precisión.

A la hora de comenzar un proceso de aprendizaje supervisado... Es recomendable tener un conjunto de entrenamiento, que se dividirá en datos train y datos de validacion y separados tener un conjunto de datos test. Es recomendable tener un conjunto de entrenamiento con los que también validaremos y el conjunto de test. La interseccion de ambos conjuntos no tiene por que ser vacía. No es recomendable hacer validación cruzada. Lo primero que tengo que hacer es normalizar.

En regresión es habitual, para validar el modelo,. Utilizar RMSE. Utilizar exactitud. Utilizar sensibilidad. Utilizar F1.

En clasificación es habitual, para validar el modelo,. Utilizar RMSE. Utilizar MAE. Utilizar MAPE. Utilizar F1.

Una población. Es el conjunto de items que se desea estudiar. Es un subconjunto aleatorio y representativo. Es una función bidimensional f(x,y) donde x, y son coordenadas epsaciales y el valor de la f la intensidad de la imagen de dicho punto. Es cada una de las cualidades que poseen los idnividuos de una población para una determinada característica.

Una muestra. Es el conjunto de items que se desea estudiar. Es un subconjunto aleatorio y representativo. Es una función bidimensional f(x,y) donde x, y son coordenadas epsaciales y el valor de la f la intensidad de la imagen de dicho punto. Es cada una de las cualidades que poseen los idnividuos de una población para una determinada característica.

Una imágen. Es el conjunto de items que se desea estudiar. Es un subconjunto aleatorio y representativo. Es una función bidimensional f(x,y) donde x, y son coordenadas epsaciales y el valor de la f la intensidad de la imagen de dicho punto. Es cada una de las cualidades que poseen los idnividuos de una población para una determinada característica.

La desviaicón típica. Es una medida cuantitativa de dispersión. Es una medida cuantitativa que mide la simetría de la distribución de una varialbe respecto a la media aritmética. Es una medida cuantitativa que mide el grado de apuntamiento/achatamiento de la distribución de frecuencia respecto a una distribución normal. Corresponde al valor más repetido del conjunto de datos.

La Varianza. Es una medida cuantitativa de dispersión. Es una medida cuantitativa que mide la simetría de la distribución de una varialbe respecto a la media aritmética. Es una medida cuantitativa que mide el grado de apuntamiento/achatamiento de la distribución de frecuencia respecto a una distribución normal. Corresponde al valor más repetido del conjunto de datos.

El coeficiente de asimetría. Es una medida cuantitativa de dispersión. Es una medida cuantitativa que mide la simetría de la distribución de una varialbe respecto a la media aritmética. Es una medida cuantitativa que mide el grado de apuntamiento/achatamiento de la distribución de frecuencia respecto a una distribución normal. Corresponde al valor más repetido del conjunto de datos.

La curtosis. Es una medida cuantitativa de dispersión. Es una medida cuantitativa que mide la simetría de la distribución de una varialbe respecto a la media aritmética. Es una medida cuantitativa que mide el grado de apuntamiento/achatamiento de la distribución de frecuencia respecto a una distribución normal. Corresponde al valor más repetido del conjunto de datos.

La mediana. Es una medida cuantitativa de dispersión. Es una medida cuantitativa que mide la simetría de la distribución de una varialbe respecto a la media aritmética. Es una medida cuantitativa que mide el grado de apuntamiento/achatamiento de la distribución de frecuencia respecto a una distribución normal. Corresponde al valor más repetido del conjunto de datos.

El flipping. Permite voltear la imágen de diversas maneras. Consiste en la rotación de la superficie de presepctiva un cierto ángulo. Consiste en la selección y extracción de una determinada zona de la imagen que ocnsideramos región de interes (ROI) para centrar los algoritmos en esa parte especifica. Es el desplazamiento de la posición de un objeto.

La transformación de perspectiva. Permite voltear la imágen de diversas maneras. Consiste en la rotación de la superficie de presepctiva un cierto ángulo. Consiste en la selección y extracción de una determinada zona de la imagen que ocnsideramos región de interes (ROI) para centrar los algoritmos en esa parte especifica. Es el desplazamiento de la posición de un objeto.

La rotación. Permite voltear la imágen de diversas maneras. Consiste en aplicar un determinado angulo a una matriz de rotación. Consiste en la selección y extracción de una determinada zona de la imagen que ocnsideramos región de interes (ROI) para centrar los algoritmos en esa parte especifica. Es el desplazamiento de la posición de un objeto.

El cropping. Permite voltear la imágen de diversas maneras. Consiste en aplicar un determinado angulo a una matriz de rotación. Consiste en la selección y extracción de una determinada zona de la imagen que ocnsideramos región de interes (ROI) para centrar los algoritmos en esa parte especifica. Es el desplazamiento de la posición de un objeto.

La taslación. Permite voltear la imágen de diversas maneras. Consiste en aplicar un determinado angulo a una matriz de rotación. Consiste en la selección y extracción de una determinada zona de la imagen que ocnsideramos región de interes (ROI) para centrar los algoritmos en esa parte especifica. Es el desplazamiento de la posición de un objeto.

Un algoritmo de segmentación. presupone que los datos siguen una distribución normal. se basa en particionar una imagen digital en diferents objetos para simplificar la representación de la imagen. debe hacerse sobre unos datos estandarizados. sirve para la detección de valores normales.

La segmentación semática. consiste en un problema de clasificación a nivel pixel que permite asignar una etiqueta de objeto a cada pixel para delimitar regiones de interés. consiste en llevar a cabo de objetos para asignar una etiqueta de instancia a cada objeto. permite identificar objetos difusos.

La segmentación de instancia. consiste en un problema de clasificación a nivel pixel que permite asignar una etiqueta de objeto a cada pixel para delimitar regiones de interés. consiste en llevar a cabo de objetos para asignar una etiqueta de instancia a cada objeto. permite identificar objetos difusos.

El operador sobel. es un procedimiento no paramétrico que permite obtener el umbral óptimo maximizando la varianza entre clases. se basa en el cálculo de la primera derivada para obtener el gradiente de la intensidad de una imagen en cada píxel.Mide cambios de intensidad Se utiliza para detectar bordes. se utiliza en aplicaciones que involucran un escalado de la imagen Sirve para la detección de esquinas, bordes o texturas, siendo estable frente a perturbaciones y transformaciones que pueda sufrir la imagen Es. utiliza la distribución de la dirección de los gradientes como características, ya que la magnitud del gradiente presenta una alta respuesta a los cambios de intensidad elevados Esto permite obtener información sobre la forma de los objetos. consisten en un operador que describe patrones de la imagen a nivel local proporcionando buenos resultados en aplicaciones de reconocimiento de texturas y en identificación de objetos y formas. Consiste en un protocolo de ventana deslizante donde el valor del píxel central se modifica a partir del valor de intensidad de sus píxeles vecinos.

El algoritmo SIFT. es un procedimiento no paramétrico que permite obtener el umbral óptimo maximizando la varianza entre clases. se basa en el cálculo de la primera derivada para obtener el gradiente de la intensidad de una imagen en cada píxel.Mide cambios de intensidad Se utiliza para detectar bordes. se utiliza en aplicaciones que involucran un escalado de la imagen Sirve para la detección de esquinas, bordes o texturas, siendo estable frente a perturbaciones y transformaciones que pueda sufrir la imagen. Es invariante a posición, escala, rotación, iluminación y contraste. utiliza la distribución de la dirección de los gradientes como características, ya que la magnitud del gradiente presenta una alta respuesta a los cambios de intensidad elevados Esto permite obtener información sobre la forma de los objetos. consisten en un operador que describe patrones de la imagen a nivel local proporcionando buenos resultados en aplicaciones de reconocimiento de texturas y en identificación de objetos y formas. Consiste en un protocolo de ventana deslizante donde el valor del píxel central se modifica a partir del valor de intensidad de sus píxeles vecinos.

El histograma de gradientes. es un procedimiento no paramétrico que permite obtener el umbral óptimo maximizando la varianza entre clases. se basa en el cálculo de la primera derivada para obtener el gradiente de la intensidad de una imagen en cada píxel.Mide cambios de intensidad Se utiliza para detectar bordes. se utiliza en aplicaciones que involucran un escalado de la imagen Sirve para la detección de esquinas, bordes o texturas, siendo estable frente a perturbaciones y transformaciones que pueda sufrir la imagen. Es invariante a posición, escala, rotación, iluminación y contraste. utiliza la distribución de la dirección de los gradientes como características, ya que la magnitud del gradiente presenta una alta respuesta a los cambios de intensidad elevados Esto permite obtener información sobre la forma de los objetos. consisten en un operador que describe patrones de la imagen a nivel local proporcionando buenos resultados en aplicaciones de reconocimiento de texturas y en identificación de objetos y formas. Consiste en un protocolo de ventana deslizante donde el valor del píxel central se modifica a partir del valor de intensidad de sus píxeles vecinos.

El algoritmo local binary patterns. es un procedimiento no paramétrico que permite obtener el umbral óptimo maximizando la varianza entre clases. se basa en el cálculo de la primera derivada para obtener el gradiente de la intensidad de una imagen en cada píxel.Mide cambios de intensidad Se utiliza para detectar bordes. se utiliza en aplicaciones que involucran un escalado de la imagen Sirve para la detección de esquinas, bordes o texturas, siendo estable frente a perturbaciones y transformaciones que pueda sufrir la imagen. Es invariante a posición, escala, rotación, iluminación y contraste. utiliza la distribución de la dirección de los gradientes como características, ya que la magnitud del gradiente presenta una alta respuesta a los cambios de intensidad elevados Esto permite obtener información sobre la forma de los objetos. consisten en un operador que describe patrones de la imagen a nivel local proporcionando buenos resultados en aplicaciones de reconocimiento de texturas y en identificación de objetos y formas. Consiste en un protocolo de ventana deslizante donde el valor del píxel central se modifica a partir del valor de intensidad de sus píxeles vecinos.

El método OTSU. es un procedimiento no paramétrico que permite obtener el umbral óptimo maximizando la varianza entre clases. se basa en el cálculo de la primera derivada para obtener el gradiente de la intensidad de una imagen en cada píxel.Mide cambios de intensidad Se utiliza para detectar bordes. se utiliza en aplicaciones que involucran un escalado de la imagen Sirve para la detección de esquinas, bordes o texturas, siendo estable frente a perturbaciones y transformaciones que pueda sufrir la imagen Es. utiliza la distribución de la dirección de los gradientes como características, ya que la magnitud del gradiente presenta una alta respuesta a los cambios de intensidad elevados Esto permite obtener información sobre la forma de los objetos. consisten en un operador que describe patrones de la imagen a nivel local proporcionando buenos resultados en aplicaciones de reconocimiento de texturas y en identificación de objetos y formas. Consiste en un protocolo de ventana deslizante donde el valor del píxel central se modifica a partir del valor de intensidad de sus píxeles vecinos.

El método CANNY. es un procedimiento no paramétrico que permite obtener el umbral óptimo maximizando la varianza entre clases. se basa en el cálculo de la primera derivada para obtener el gradiente de la intensidad de una imagen en cada píxel.Mide cambios de intensidad Se utiliza para detectar bordes. Sirve para la detección de esquinas, bordes o texturas. utiliza la distribución de la dirección de los gradientes como características, ya que la magnitud del gradiente presenta una alta respuesta a los cambios de intensidad elevados Esto permite obtener información sobre la forma de los objetos. consisten en un operador que describe patrones de la imagen a nivel local proporcionando buenos resultados en aplicaciones de reconocimiento de texturas y en identificación de objetos y formas. Consiste en un protocolo de ventana deslizante donde el valor del píxel central se modifica a partir del valor de intensidad de sus píxeles vecinos.

El área. Es un descriptor geométrico que mide el numero de pixeles que contiene la region de interés. es el rectancgulo más pequeño capaz de albergar la región de interés. relación de la distancia entre los focos de la elipse y su longitud del eje ppal. es el poligono convexo más pequeño capaz de albergar la región de interes. diametro de un circulo cuya area es la misma que laregión de interes. ratio de pixeles en la region con respecto al número total de pixeles contenidos en la bounding box. proporción de pixeles que contiene el área respeto a la convex hull image. mide la circularidad del objeto. descriptior de textura que mide la frecuencia en la que un pixel con nivel de intensidad i es dyacente con un pixel de nivel de inensidad j.

La convex hull image. Es un descriptor geométrico que mide el numero de pixeles que contiene la region de interés. es el rectancgulo más pequeño capaz de albergar la región de interés. relación de la distancia entre los focos de la elipse y su longitud del eje ppal. es el poligono convexo más pequeño capaz de albergar la región de interes. diametro de un circulo cuya area es la misma que laregión de interes. ratio de pixeles en la region con respecto al número total de pixeles contenidos en la bounding box. proporción de pixeles que contiene el área respeto a la convex hull image. mide la circularidad del objeto. descriptior de textura que mide la frecuencia en la que un pixel con nivel de intensidad i es dyacente con un pixel de nivel de inensidad j.

La Bounding box. Es un descriptor geométrico que mide el numero de pixeles que contiene la region de interés. es el rectancgulo más pequeño capaz de albergar la región de interés. relación de la distancia entre los focos de la elipse y su longitud del eje ppal. es el poligono convexo más pequeño capaz de albergar la región de interes. diametro de un circulo cuya area es la misma que laregión de interes. ratio de pixeles en la region con respecto al número total de pixeles contenidos en la bounding box. proporción de pixeles que contiene el área respeto a la convex hull image. mide la circularidad del objeto. descriptior de textura que mide la frecuencia en la que un pixel con nivel de intensidad i es dyacente con un pixel de nivel de inensidad j.

La excentricidad. Es un descriptor geométrico que mide el numero de pixeles que contiene la region de interés. es el rectancgulo más pequeño capaz de albergar la región de interés. relación de la distancia entre los focos de la elipse y su longitud del eje ppal. es el poligono convexo más pequeño capaz de albergar la región de interes. diametro de un circulo cuya area es la misma que laregión de interes. ratio de pixeles en la region con respecto al número total de pixeles contenidos en la bounding box. proporción de pixeles que contiene el área respeto a la convex hull image. mide la circularidad del objeto. descriptior de textura que mide la frecuencia en la que un pixel con nivel de intensidad i es dyacente con un pixel de nivel de inensidad j.

El diametro equivalente. Es un descriptor geométrico que mide el numero de pixeles que contiene la region de interés. es el rectancgulo más pequeño capaz de albergar la región de interés. relación de la distancia entre los focos de la elipse y su longitud del eje ppal. es el poligono convexo más pequeño capaz de albergar la región de interes. diametro de un circulo cuya area es la misma que laregión de interes. ratio de pixeles en la region con respecto al número total de pixeles contenidos en la bounding box. proporción de pixeles que contiene el área respeto a la convex hull image. mide la circularidad del objeto. descriptior de textura que mide la frecuencia en la que un pixel con nivel de intensidad i es dyacente con un pixel de nivel de inensidad j.

La extensión. Es un descriptor geométrico que mide el numero de pixeles que contiene la region de interés. es el rectancgulo más pequeño capaz de albergar la región de interés. relación de la distancia entre los focos de la elipse y su longitud del eje ppal. es el poligono convexo más pequeño capaz de albergar la región de interes. diametro de un circulo cuya area es la misma que laregión de interes. ratio de pixeles en la region con respecto al número total de pixeles contenidos en la bounding box. proporción de pixeles que contiene el área respeto a la convex hull image. mide la circularidad del objeto. descriptior de textura que mide la frecuencia en la que un pixel con nivel de intensidad i es dyacente con un pixel de nivel de inensidad j.

La solidez es. Es un descriptor geométrico que mide el numero de pixeles que contiene la region de interés. es el rectancgulo más pequeño capaz de albergar la región de interés. relación de la distancia entre los focos de la elipse y su longitud del eje ppal. es el poligono convexo más pequeño capaz de albergar la región de interes. diametro de un circulo cuya area es la misma que laregión de interes. ratio de pixeles en la region con respecto al número total de pixeles contenidos en la bounding box. proporción de pixeles que contiene el área respeto a la convex hull image. mide la circularidad del objeto. descriptior de textura que mide la frecuencia en la que un pixel con nivel de intensidad i es dyacente con un pixel de nivel de inensidad j.

La compacidad. Es un descriptor geométrico que mide el numero de pixeles que contiene la region de interés. es el rectancgulo más pequeño capaz de albergar la región de interés. relación de la distancia entre los focos de la elipse y su longitud del eje ppal. es el poligono convexo más pequeño capaz de albergar la región de interes. diametro de un circulo cuya area es la misma que laregión de interes. ratio de pixeles en la region con respecto al número total de pixeles contenidos en la bounding box. proporción de pixeles que contiene el área respeto a la convex hull image. mide la circularidad del objeto. descriptior de textura que mide la frecuencia en la que un pixel con nivel de intensidad i es dyacente con un pixel de nivel de inensidad j.

La matriz de ocurrencias. Es un descriptor geométrico que mide el numero de pixeles que contiene la region de interés. es el rectancgulo más pequeño capaz de albergar la región de interés. relación de la distancia entre los focos de la elipse y su longitud del eje ppal. es el poligono convexo más pequeño capaz de albergar la región de interes. diametro de un circulo cuya area es la misma que laregión de interes. ratio de pixeles en la region con respecto al número total de pixeles contenidos en la bounding box. proporción de pixeles que contiene el área respeto a la convex hull image. mide la circularidad del objeto. descriptior de textura que mide la frecuencia en la que un pixel con nivel de intensidad i es dyacente con un pixel de nivel de inensidad j.

El algoritmo SIFT. Detecta extremos en la escala espacio (aplicando convoluciones ala imagen original), se hace la diferencia de gaussioanas, despues se detecta los puntos de interes, se localizan y se les asigna una orientación. Finalmente el descriptor del punto de interes permite identificar un mismo putno en una imagen transformada. Calcula los gradientes de la imagen, despues calcula los gradientes en celdas de nxn pixeles, despues calcula el histograma de gradientes 9 bins, se normaliza y se calcula el histogama de gradientes orientados. se calcula la diferencia entre los pixeles vecinos y el central, se genera una matriz auxiliar umbralizando las diferencias on ceros en los valores negativos y unos en los positivos, se multiplican la matriz auxiliar por una de referencia y se suman los valores que resultan de la multiplicación.

El algoritmo HOG. Detecta extremos en la escala espacio (aplicando convoluciones ala imagen original), se hace la diferencia de gaussioanas, despues se detecta los puntos de interes, se localizan y se les asigna una orientación. Finalmente el descriptor del punto de interes permite identificar un mismo putno en una imagen transformada. Calcula los gradientes de la imagen, despues calcula los gradientes en celdas de nxn pixeles, despues calcula el histograma de gradientes 9 bins, se normaliza y se calcula el histogama de gradientes orientados. se calcula la diferencia entre los pixeles vecinos y el central, se genera una matriz auxiliar umbralizando las diferencias on ceros en los valores negativos y unos en los positivos, se multiplican la matriz auxiliar por una de referencia y se suman los valores que resultan de la multiplicación.

El algoritmo LBP. Detecta extremos en la escala espacio (aplicando convoluciones ala imagen original), se hace la diferencia de gaussioanas, despues se detecta los puntos de interes, se localizan y se les asigna una orientación. Finalmente el descriptor del punto de interes permite identificar un mismo putno en una imagen transformada. Calcula los gradientes de la imagen, despues calcula los gradientes en celdas de nxn pixeles, despues calcula el histograma de gradientes 9 bins, se normaliza y se calcula el histogama de gradientes orientados. se calcula la diferencia entre los pixeles vecinos y el central, se genera una matriz auxiliar umbralizando las diferencias on ceros en los valores negativos y unos en los positivos, se multiplican la matriz auxiliar por una de referencia y se suman los valores que resultan de la multiplicación.

Denunciar Test