Cuestiones
ayuda
option
Mi Daypo

TEST BORRADO, QUIZÁS LE INTERESERedes neuronales

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del test:
Redes neuronales

Descripción:
Test tema 6 Sistemas Inteligentes

Autor:
Honolulu_vibes
(Otros tests del mismo autor)

Fecha de Creación:
02/04/2019

Categoría:
Universidad

Número preguntas: 75
Comparte el test:
Facebook
Twitter
Whatsapp
Comparte el test:
Facebook
Twitter
Whatsapp
Últimos Comentarios
No hay ningún comentario sobre este test.
Temario:
Acerca de las nueronas Son dispositivos de "todo o nada". Las salidas que provoca pueden afectar al resultado final. Ambas son ciertas.
El algoritmo Backpropagation para redes neuronales Se aplica para un grupo muestra del conjunto de entrenamiento Calcula la salida de la red en la última fase Itera hasta que el error baje de un umbral.
Respecto a las funciones de activación derivables: Para aplicar el algoritmo de entrenamiento multicapa no es necesario que la función de activación sea derivable, aunque es coveniente que lo sea Buscamos funciones derivables con forma similar al escalón del perceptrón de una sola capa. Ambas son correctas.
Respecto a la convergencia de backpropagation: Una red neuronal converge cuando el error de validación se mantiene bajo y los ejemplos de entrenamiento no provocan cambios significativos en los pesos de la red. Una red neuronal converge cuando el error de validación se mantiene alto y los ejemplos de entrenamiento no provocan cambios significativos en los pesos de la red. Una red neuronal converge cuando el error de validación se mantiene bajo y los ejemplos de entrenamiento provocan cambios significativos en los pesos de la red.
La Inicialización de los pesos de la red es la siguiente: • • Arbitraria Aleatoria ¿Cual es el problema de la inicialización en los descensos por gradiente? Los mínimos locales. El entrenamiento de la red. No tiene ningún problema.
El overshooting ocurre Cuando nos saltamos el máximo. Cuando la media calculada es mayor que el valor previamente calculado en la iteración anterior. Cuando nos saltamos el mínimo.
Respecto al problema de los mínimos locales en la inicialización en los descensos por gradiente, la solución aportada a dicho problema es: El problema de mínimos locales se encuentra solo en los ascensos por gradiente, por lo que no requiere solución para los descensos por gradiente. Inicializar los pesos de la red con un valor constante. Entrenar la red desde las distintas inicializaciones.
En redes neuronales, cuando no hay separación lineal, ¿cómo se resuelven los problemas de paridad? Para resolver estos problemas es preciso eliminar una capa de neuronas. Para resolver estos problemas es preciso incorporar una capa adicional de neuronas. Para resolver estos problemas es preciso incorporar dos capas adicionales de neuronas.
En el Entrenamiento, el ajuste de hiperplanos ocurre: Dados dos conjuntos de ejemplos correspondientes a dos clases, buscaremos su separación por un hiperplano. Dados X conjuntos de ejemplos correspondientes a X clases, buscaremos su separación por un hiperplano. Ninguna de las anteriores.
Respecto a la Regla delta: Permite ajustar iterativamente el hiperplano. Se asume que el incremento de los pesos es proporcional a la disparidad entre la salida observada y la salida deseada. Todas las respuestas son correctas..
¿Qué es necesario para aplicar el algoritmo de entrenamiento multicapa? Que la función de activación no sea derivable. Que la función de activación sea derivable. Es indiferente si se puede derivar o no.
Sobre la interpretación geométrica, cuál de las siguientes afirmaciones es falsa: { Problemas con regiones de decisión mas complejas no requieren distintas estrategias de separación Dichas estrategias las proporcionan las capas ocultas Problemas con regiones de decisión mas complejas requieren distintas estrategias de separación.
En la convergencia de backpropagation, el ajuste de la constante η{ Valores muy pequeños: convergencia lenta. Valores muy pequeños: convergencia rápida. Valores muy pequeños: no converge.
Si en la neurona biológica las entradas serían las dendritas en la neurona computacional las entradas son: solo números naturales números reales ninguna de las anteriores.
Acerca de los perceptrones multi-capa, cual de las siguientes es INCORRECTA: La "interpretación geométrica" se desarrolló sobre un algoritmo que permite encontrar los pesos asociados a todas las neuronas. Un perceptrón con dos capas ocultas es capaz de aproximar cualquier función. La capa adicional se denomina capa oculta.
En la inicialización de la red ¿Qué problema se pretende evitar?: Mínimo local. Máximo global. No hay que evitar nada.
La inicialización de pesos en una red neuronal artificial debe de realizarse: De forma aleatoria o arbitraria. Igual que el número de neuronas Debe ser inicializada a 0.5, pues se ha comprobado de forma empírica que se obtienen los mejores resultados.
Que afirmación acerca de la redes neurales es falsa El modelo computacional no se asemeja en nada a una neurona biológica. Las entradas de una neurona computacional son números reales. Una neurona biológica consta básicamente de 3 partes: entradas, integración y salidas.
Un perceptrón puede aproximar cualquier función: Siempre que la función sea derivable y que posea una capa oculta Siempre = Sólo si posee dos capas ocultas.
¿Cuáles son las fases del algoritmo Backpropagation ? Hacia delante y actualización de los pesos de todas las capas. Hacia delante y actualización de los pesos de todas las capas. Hacia delante y actualización de los pesos de todas las capas.
Una neurona computacional consta de: Entrada, integración y salida Entrada, acoplamiento y salida. Dendritas, soma y axón.
Si estamos ante una red neuronal artificial con perceptrones multicapa, y en las neuronas no se produce procesamiento; podemos afirmar que nos encontramos en: { La capa de entrada. Las capas ocultas. La capa de salida.
¿Cuál de las siguientes afirmaciones es correcta? Una neurona nos puede decir si va a llover, nevar o sol (elección de tiempo). Una neurona nos puede decir si es que va a llover o no (elección de si o no). Ambas respuestas son correctas.
La representación de la función booleana AND mediante perceptrones es (Indica la respuesta correcta): Primera Segunda Tercera.
La formula anterior, ¿qué es lo que mide? Mide lo que contribuye cada neurona al error obtenido. Mide el nuevo estado de activación de la neurona Mide la mejor salida de la red.
Una red neuronal converge cuando: El error de validación se mantiene bajo y los ejemplos de entrenamiento no provocan cambios significativos en los pesos de la red. Dicha neurona es responsable de un error. Ninguna de las anteriores.
En la interpretación geométrica de la función de activación, los ejemplos que cumplan la siguiente fórmula, ¿Pertenecen al hiperplano? Sí No Son ejemplos ndefinidos.
El problema de la XOR es un problema: de paridad. relacionado con la constante de aprendizaje. de gradiente.
Las redes neuronales artificiales pueden sufrir de sobreentrenamiento y arrojar resultados erroneos: debido al exceso de flexibilidad o rigidez. las redes neuronales no pueden sobreentrenarse. debido al uso de un número insuficiente de neuronas en la capa oculta.
En una neurona computacional, la integración es: la suma ponderada (net) por los pesos sinápticos seguida de una función de activación f(net). la suma ponderada (net) por los pesos sinápticos seguida de una función de desactivación f(¬net). Ambas son correctas.
Entradas, integración y salidas son las partes de... neurona biológica neurona computacional ambos tipos de neuronas.
Teninendo presente que Δw i =η(d - y)x i siendo d la salida deseada e y la observada, podemos afirmar que: Con el valor de entrada 1 y valor de salida 0 la red falla. Con el valor de entrada 0 y valor de salida 1 la red acierta. Con el valor de entrada 1 y valor de salida 1 la red falla.
En cuanto al error δ de las Redes Neuronales Una neurona de una capa intermedia contribuye en los δ de las de la capa siguiente. Los δ de cad El calculo de los δ no es necesario en el algoritmo Backpropagation.
Para la backpropagation necesitamos: Una funcion derivable. Una funcion no derivable. Podemos usar cualquier funcion.
De las siguientes afirmaciones cúal es la correcta: La convergencia en las redes neuronales se refiere a que el valor del error de validación se mantiene constante. La integración en una neurona computacional se refiere a la suma ponderada por los pesos sinápticos. Ninguna respuesta es correcta.
En redes neuronales se aplican una serie de operaciones para obtener funciones de activación derivables cuando se requiere aplicar el algoritmo de entrenamiento. Pero, que problema es el que nos lleva a utilizar precisamente este entrenamiento multicapa?: El problema del overshooting El problema de los mínimos locales El problema de la No-separabilidad lineal.
¿Qué afirmación sobre el aprendizaje por la Regla Delta es correcta? Utiliza el método de aprendizaje No Supervisado Utiliza el método de aprendizaje Razonamiento inductivo Utiliza el método de aprendizaje Supervisado.
Si el resultado obtenido usando la Regla Delta es demasiado grande comparado con la salida deseada... Se aumenta el peso de las aristas. Se hace nada. Se reduce el peso de las aristas.
¿Qué netinput recibe esta neurona (verde)? 4 12 10.
Tenemos una red neuronal artificial compuesta por una única neurona con dos entradas. Los pesos de estas entradas son w1 = 3, w2 = -2 y la función de activación o umbral de la neurona es θ = 2. De los siguientes elementos [X = (x1, x2)]: A = (3, -2); B = (2, 3); C = (-1, 4); D = (3, 2). ¿Cuales activarian la salida de la neurona si la función de transferencia devuelve '1' solo para valores de entrada mayores que '0'? A, B y C B, C y D A, B y D.
En las redes neuronales, respecto a la regla Delta, señala el enunciado correcto:{ Se asume que el decremento de los pesos es proporcional a la disparidad entre la entrada observada y la salida observada. Se asume que el incremento de los pesos es proporcional a la disparidad entre la salida observada y la entrada deseada. Se asume que el incremento de los pesos es proporcional a la disparidad entre la salida observada y la salida deseada.
Qué afirmación es correcta sobre la regla delta (entrenamientos): El incremento de los pesos es inversamente proporcional a la disparidad entre la salida observada y la salida deseada. La proporcionalidad de la disparidad entre la salida observada y la salida deseada no viene modulada por la constante de aprendizaje. El incremento de los pesos es proporcional a la disparidad entre la salida observada y la salida deseada.
¿Cuál es el principal problema de la inicialización de la red en los descensos por gradiente?:{ Se obtienen máximos locales. Se obtienen mínimos locales pero lo que se realizan ascensos por gradiente y no descensos. Se obtienen mínimos locales.
Respecto a las fases del Backpropagation podemos decir que: Consta de varias fases, hacia delante, hacia atrás y la actualización de los pesos de todas las capas. Consta de una única fase en la que se actualizan los pesos de todas las capas. Ninguna de las anteriores es correcta.
La regla delta: Permite ajustar iterativamente el plano. Permite ajustar recursivamente el plano. Ninguna de las anteriores es correcta.
En el entrenamiento de una red neuronal tenemos que ω i = ω i + η (d - y) x i Si la constante de aprendizaje η = 1, x i = 2,5 y en la iteración anterior teníamos que ω i = 1, ¿cuáles son los valores correctos para esta iteración de ω i ? Un posible valor es ω i = -1.5 No es posible saberlo sin los valores de 'd' e 'y' ω i no puede tomar valores reales, será un valor acotado entre 0 y 1.
Una red neuronal converge cuando El error de validación se mantiene bajo y los ejemplos de entrenamiento no provocan cambios significativos en los pesos de la red El error de validación se mantiene bajo y los ejemplos de entrenamiento provocan cambios significativos en los pesos de la red El error de validación se mantiene alto y los ejemplos de entrenamiento provocan cambios significativos en los pesos de la red.
Di cual es falsa de estas afirmaciones Usaremos más de una neurona en un problema cuando un único hiperplano no puede separar los datos A la capa adicional dentro de los Perceptrones multi-capa se le denomina capa visible Una red neuronal converge cuando el error de validación se mantiene bajo y los ejemplos de entrenamiento no provocan cambios significativos en los pesos de la red.
¿Cómo se realiza la integración en una neurona computacional? suma ponderada (net) por los pesos sinápticos seguida de varias funciónes de activación f(net). multiplicación ponderada (net) por los pesos sinápticos seguida de una función de activación f(net) suma ponderada (net) por los pesos sinápticos seguida de una función de activación f(net).
Dado una función de activación ( y i = 2 · in i = 2 · Σ j w ji x j ; donde in i significa "input para neurona i") y la siguiente red. Cual de los siguientes valores es el resultado correcto de la salida de la neurona g ( --> y g ) para un vector de entrada (a, b, c) = ( − 1, 1, − 1)? 104 98 107.
Las redes neuronales se basan en el tipo de aprendizaje: Por refuerzo No Supervisado Supervisado.
Indica la opción correcta acerca del algoritmo Backpropagation para redes neuronales El algoritmo Backpropagation hace iteraciones hasta que el error supere un umbral El algoritmo Backpropagation hace iteraciones hasta que el error iguale un umbral. El algoritmo Backpropagation hace iteraciones hasta que el error baje de un umbral.
Cúal de las siguientes afirmaciones acerca de las reglas de aprendizaje neuronal NO es correcta? las reglas Delta y Backpropagation ambas son reglas para aprendizaje supervisado. Backpropagation se puede aplicar a redes con capas oculta pero la regla Delta no. Las fases de la regla Delta son: 1. Hacia delante, 2. Hacia atrás, 3. actualización de los pesos de todas las capas.
Una neurona computacional divide en 3 partes que son: Entradas, desintegración y Salida. Entradas, Integración y Salida. Entradas, procesamiento y Salida.
La interpretación geométrica de la función de ativación "ubral" es: Un hiperplano . No es posible hacer una interpretación geométrica. Ninguna de las anteriores.
¿Como podemos detectar el sobreentrenamiento? Cuando el error de entrenamiento sube despues de haber alcanzado niveles minimos. Cuando el error de validación sube despues de haber alcanzado niveles minimos. Ambas son correctas.
¿En qué consiste el sobreaprendizage?: En que el sistema sea capaz de responder adecuadamente tras la convergencia . En que el sistema sea incapaz de responder adecuadamente por no encontrar convergencia durante el aprendizage. Ninguna de las anteriores.
Los pesos de la red se pueden inicializar: Arbitraria y aleatoriamente. Arbitraria y paralelamente. Arbitraria y secuencialmente.
Una red neuronal converge cuando... el error de validación se mantiene alto. el error de validación alcanza valores muy pequeños. el erro de validación se mantiene bajo.
Según el modelo de una neurona computacional y una biológica, relaciona los siguientes términos: dendritas,soma,axon,suma ponderada,noreales y resultado: Dendritas, resultado; Axón, no reales; Soma, suma pondera. Siendo las primeras de cada pareja las partes de una neurona computacional y la segunda las de una neurona biologica. Dendritas, resultado; Axón, no reales; Soma, suma pondera. Siendo las primeras de cada pareja las partes de una neurona biologica y la segunda las de una neurona computacinal. Dendritas, no reales; Axón, suma ponderada; Soma, resultado. Siendo las primeras de cada pareja las partes de una neurona biologica y la segunda las de una neurona computacinal.
La convergencia de backpropagation para una red neuronal: Busca el peso mas bajo Provoca cambios significativos en los pesos de la red. Converge cuando el error de validación se mantiene bajo.
El proceso de aprendizaje de las neuronas se realiza cuando hay varios cambios significativos en las sinapsis de las neuronas. No se aprende. Ya empeza capacitado. ninguna de las anteriores.
El proceso de funcionamiento de una neurona computacional es... Recibe una cantidad de números, hace una suma ponderada por los pesos sinápticos, elabora una función de activación y obtiene un resultado a partir de esta. Recibe un único dato, crea diversas funciones de activación a partir de este dato y obtiene un resultado a partir de la suma de esas funciones. Recibe una cantidad de números, hace una suma ponderada por los pesos sinápticos, elabora diversas funciones de activación a partir de la suma y obtiene un resultado para cada una.
Acerca de la regla delta, no és corecta: Permite ajustar iterativamente el hiperplano. Se asume que el decremento de los pesos es proporcional a la disparidad entre la salida observada y la salida deseada. Dicha proporcionalidad viene modulada por la constante de aprendizaje.
Centrándonos en Backpropagation: derivación matemática El algoritmo es un descenso por gradiente El algoritmo es un ascenso por gradiente. Hay que modificar los wj en la dirección del gradiente.
En cuanto a los preceptores multicapa... No presenta problemas con regiones de decisión más complejas exigen distintas estrategias de separación. La capa de regiones convexas se denomina capa oculta. Se demuestra que un perceptrón con dos capas ocultas puede aproximar cualquier función.
Pregunta: ¿Qué hace falta para que una neurona dispare salida? Siempre que estén todas las entradas posibles ocupadas. Si las entradas superan un umbral. Siempre que haya, al menos, una entrada.
En la siguiente figura se muestra el plano formado por el problema del XOR. Donde la clase 1 son los puntos rojos y la clase 2 los puntos azules, y teniendo en cuenta que para los valores de entrada 00 y 11 se debe devolver la clase 0 y para los patrones 01 y 10 la clase 1. El problema se resuelve: Utilizando dos perceptrones. Utilizando un perceptrón. Sin necesidad de utilizar ningún perceptrón.
En el entrenamiento de los perceptrones de una neurona, 'sin capas ocultas', cuando utilizamos la Regla Delta, si después de transcurrir cierto número de iteraciones, todos los ejemplos están bien etiquetados, diremos que tenemos: No-separabilidad lineal. Conjuntos de ejemplo linealmente separables. Una capa oculta.
Cual de las siguientes afirmaciones no es correcta Cual de las siguientes afirmaciones no es correcta En una neurona biologica las entradas son las dendritas En una neurona biologica las entradas son las dendritas.
Acerca de las neuronas artificiales como la de la figura, indica que afirmación es correcta: Las entradas X1, X2, .. , Xn pueden ser cualquier tipo de número. W1, W2, .. , Wn son los pesos sinápticos y determinan la influencia de cada entrada en la activación de la neurona, siendo excitatoria si Wi es positivo o inhibitoria si Wi es negativo La suma de todas las entradas ponderadas es el valor de salida de la neurona.
La inicialización de los pesos de una red neuronal es Arbitraria y segura y no supone ningún problema. Arbitraria y aleatoria y el problema de la inicialización en los descensos por gradiente si tiene solución. Arbitraria y aleatoria y el problema de la inicialización en los descensos por gradiente no tiene solución.
¿Cual puede ser una posible solución a la inicialización de los pesos de la red de una forma aleatoria o arbitraria? Ninguna, no hace falta hacer nada más Entrenar la red desde distintas inicializaciones Encontrar el mínimo local.
Dada la siguiente imagen y teniendo en cuenta la siguiente formula, elige la opción correcta: El valor de δ k1 es 1, el valor de δ k2 es 1 y el valor de δ k3 es 0, eso implica que la neurona k1 y k2 son responsables, cada uno, de tener un error. El valor de δ k1 es 1, el valor de δ k2 es 1 y el valor de δ k3 es 0, eso implica que la neurona k3 es responsable de un error. Ninguna neurona da error.
Sobre los clasificadores supervisados, estan compuestos por Patrones, Clases, Conjunto de entrenamiento, Función aprendida, Clasificador. Patrones, Clases, Conjunto de entrenamiento, Función de evaluación, Clasificador. Ninguna de las anteriores.
Denunciar test Consentimiento Condiciones de uso