option
Cuestiones
ayuda
daypo
buscar.php

Redes Neuronales Electrónicas - Prácticas 1-25

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Redes Neuronales Electrónicas - Prácticas 1-25

Descripción:
Test prácticas 1-25

Fecha de Creación: 2023/05/24

Categoría: Universidad

Número Preguntas: 25

Valoración:(1)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

Se utiliza Validación Cruzada (Cross Validation) preferentemente si: NS/NC. Se dispone de muchas muestras que permiten holgadamente la separación en diferentes conjuntos de datos. Se dispone de pocas muestras.

¿Qué se aprecia al representar dos variables en un gráfico X-Y?. Descartar posibles outliers. NS/NC. La linealidad entre ambas.

El proceso por el que se buscan nuevas variables como combinación de las disponibles se denomina: NS/NC. Feature Extraction. Feature Selection.

Si estamos entrenando un MLP con una capa oculta, el número de neuronas ocultas es un: Parámetro ajustable del modelo. Hiperparámetro del modelo. NS/NC.

La principal diferencia entre un modelo que necesita aprendizaje por lotes y otro que puede hacer aprendizaje en linea es que el primero necesita todos los ejemplos a la vez en cada ciclo de entrenamiento, mientras que el segundo puede utilizar un ejemplo o un grupo de ejemplos cada vez. Falso. NS/NC. Verdadero.

Cuando hablamos de Machine Learning (Aprendizaje Automático), hablamos de un campo de conocimiento que: NS/NC. Engloba al campo denominado Inteligencia Artificial. Se engloba dentro del campo denominado Inteligencia Artificial.

Si el conjunto de entrenamiento no contiene muchos ejemplos, es preferible: Aplicar un muestreo aleatorio para generar el conjunto de test. Aplicar un muestreo estratificado para generar el conjunto de test. NS/NC.

Cuando tenemos una variable de tipo categórico (generalmente diferenciada con etiquetas de texto), cuyas categorías no guardan ninguna relación de orden, para incluirla al modelo de machine learning es preferible: Convertir las etiquetas a una codificación one-hot-encoding. NS/NC. Imputar valores numéricos asociados para cada una de las etiquetas categóricas.

Si el error de entrenamiento es bajo, pero el error de generalización es alto: El modelo está sobreajustando los ejemplos de entrenamiento. NS/NC. Se necesita un modelo con mayor complejidad.

La diferencia principal entre el aprendizaje basado en modelos (model based) y el basado en ejemplos (instance based) es que en el primer caso los ejemplos deben separarse en conjunto de entrenamiento y conjunto de validación, pero en el segundo caso no es necesario hacerlo. Falso. Verdadero.

En una clasificación multiclase, la visualización del error más informativa es: La F1-measure. La matriz de confusión. Feature extraction.

Cuando utilizamos la proyección PCA de un espacio de variables original sin modificar a otro de menor dimensión estamos realizando una: Feature selection. Feature extraction. Validación Cruzada.

Cuando se entrena un modelo con Validación Cruzada (Cross Validation): Tendremos que dividir los datos en tres subconjuntos: entrenamiento, validación y evaluación. Tendremos que dividir los datos en varios subconjuntos de dos: entrenamiento y evaluación. Utilizamos el mismo conjunto de datos para entrenamiento y evaluación.

Cuando se utilice PCA para reducir la dimensionalidad de los datos de entrada al modelo clasificador: Generamos la matriz de proyección PCA sólo con los datos de entrenamiento. Generamos la matriz de proyección PCA con todos los datos. Generamos la matriz de proyección PCA con los datos de evaluación.

Para el SOM usado como método auto-organizado: Separamos el conjunto de datos en dos para entrenamiento y evaluación. Utilizamos el mismo conjunto de datos para entrenamiento y evaluación. Tendremos que dividir los datos en tres subconjuntos: entrenamiento, validación y evaluación.

Cuando las clases de una clasificación binaria presentan una cantidad de ejemplos muy desequilibrados, señala la afirmación cierta: Será preferible estimar un umbral de decisión usando la curva precision/recall. Será preferible estimar un umbral de decisión usando la curva ROC. Será preferible estimar un umbral de decisión usando la curva de probabilidad.

Si todos los coeficientes de proyección PCA entre un conjunto de componentes principales (suponiendo que con ellas se resuelve una clasificación) y una de las variables originales de entrada son casi nulos, se cumple que: Esa variable es muy necesaria para resolver el problema. Esa variable no aporta información sobre el problema. Esa variable no existe.

Un método para representar la evolución de un sistema modelado con SOM es: Visualizar la trayectoria de activación en el mapa conforme presentamos las entradas ordenadas en el tiempo. Visualizar la activación de clase en el tiempo sobre la D-matrix con la componente asociada a la variable de entrada. La matriz de confusión.

Si sólo disponemos de modelos clasificadores binarios, para implementar un clasificador multiclase de N clases: Es posible usar N clasificadores one-versus-all. Es posible usar N clasificadores one-versus-one. No es posible usar N clasificadores.

En la clasificación multietiqueta: Una entrada puede pertenecer a varias clases a la vez. Una salida puede representar varias clases a la vez. Una entrada solo puede pertenecer a una clase a la vez.

Señala la afirmación cierta respecto al entrenamiento con Descenso del Gradiente: La función de evaluación (performance) de la respuesta del modelo y la función de coste no es obligatorio que sean iguales. La función de evaluación (performance) de la respuesta del modelo y la función de coste deben ser iguales. Los métodos basados en descenso del gradiente del error esquivan bien los mínimos locales de la función de error.

Señala la afirmación cierta respecto a las opciones de entrenamiento con Descenso del Gradiente: Los métodos basados en descenso del gradiente pueden quedar atrapados en mínimos locales de la función de error. Los métodos basados en descenso del gradiente del error esquivan bien los mínimos locales de la función de error. La función de evaluación (performance) de la respuesta del modelo y la función de coste deben ser iguales.

Cuando se entrena un modelo con parada anticipada (Early Stopping): Tendremos que dividir los datos en tres subconjuntos: entrenamiento, validación y evaluación. Tendremos que dividir los datos en dos subconjuntos: entrenamiento y validación. No tendremos que dividir los datos en subconjuntos.

La función de activación Softmax: Ajusta las salidas continuas del modelo para generar una respuesta equivalente a una distribución de probabilidad (las salidas suman 1). Ajusta las salidas continuas del modelo para generar una respuesta equivalente a una función de densidad de probabilidad. Ajusta la salida continua del modelo para generar la función de densidad de probabilidad de la clasificación binaria.

La regresión logística (logit): Ajusta la salida continua del modelo para generar la función de densidad de probabilidad de la clasificación binaria. Ajusta la salida continua del modelo para generar las etiquetas binarias de la clasificación. Ajusta las salidas continuas del modelo para generar una respuesta equivalente a una distribución de probabilidad (las salidas suman 1).

Denunciar Test