option
Cuestiones
ayuda
daypo
buscar.php

Tema6parte1p

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Tema6parte1p

Descripción:
bhkadfvg asdfd

Fecha de Creación: 2026/04/27

Categoría: Otros

Número Preguntas: 10

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

Acerca de las nueronas: Son dispositivos de "todo o nada". Las salidas que provoca pueden afectar al resultado final. Ambas son ciertas.

El algoritmo Backpropagation para redes neuronales: Se aplica para un grupo muestra del conjunto de entrenamiento. Calcula la salida de la red en la última fase. Itera hasta que el error baje de un umbral.

Respecto a las funciones de activación derivables: Para aplicar el algoritmo de entrenamiento multicapa no es necesario que la función de activación sea derivable, aunque es coveniente que lo sea. Buscamos funciones derivables con forma similar al escalón del perceptrón de una sola capa. Ambas son correctas.

Respecto a la convergencia de backpropagation: Una red neuronal converge cuando el error de validación se mantiene bajo y los ejemplos de entrenamiento no provocan cambios significativos en los pesos de la red. Una red neuronal converge cuando el error de validación se mantiene alto y los ejemplos de entrenamiento no provocan cambios significativos en los pesos de la red. Una red neuronal converge cuando el error de validación se mantiene bajo y los ejemplos de entrenamiento provocan cambios significativos en los pesos de la red.

La Inicialización de los pesos de la red es la siguiente: • Arbitraria • Aleatoria ¿Cual es el problema de la inicialización en los descensos por gradiente?: Los mínimos locales. El entrenamiento de la red. No tiene ningún problema .

El overshooting ocurre: Cuando nos saltamos el máximo. Cuando la media calculada es mayor que el valor previamente calculado en la iteración anterior. Cuando nos saltamos el mínimo.

Respecto al problema de los mínimos locales en la inicialización en los descensos por gradiente, la solución aportada a dicho problema es: El problema de mínimos locales se encuentra solo en los ascensos por gradiente, por lo que no requiere solución para los descensos por gradiente. Inicializar los pesos de la red con un valor constante. Entrenar la red desde las distintas inicializaciones.

En redes neuronales, cuando no hay separación lineal, ¿cómo se resuelven los problemas de paridad?: Para resolver estos problemas es preciso eliminar una capa de neuronas. Para resolver estos problemas es preciso incorporar dos capas adicionales de neuronas. Para resolver estos problemas es preciso incorporar una capa adicional de neuronas.

En el Entrenamiento, el ajuste de hiperplanos ocurre: Ninguna de las anteriores. Dados X conjuntos de ejemplos correspondientes a X clases, buscaremos su separación por un hiperplano. Dados dos conjuntos de ejemplos correspondientes a dos clases, buscaremos su separación por un hiperplano.

Respecto a la Regla delta: Permite ajustar iterativamente el hiperplano. Se asume que el incremento de los pesos es proporcional a la disparidad entre la salida observada y la salida deseada.. Todas las respuestas son correctas..

Denunciar Test