option
Cuestiones
ayuda
daypo
buscar.php

SI

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
SI

Descripción:
Examen Final SI

Fecha de Creación: 2023/06/30

Categoría: Universidad

Número Preguntas: 40

Valoración:(1)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

Al recibir las entradas una neurona artificial, estas se combinan en primer lugar mediante una: Función de activación. Regla Delta. Regla de Propagación. Función de Transferencia. Función de Validación.

El ADALINE... No tiene capas ocultas. Tiene una función de trasferencia de tipo sigmoidal. No puede ser entrenado con la Regla Delta. Puede realizar aproximaciones no lineales. Es capaz de aprender cualquier relación E/S.

La Regla Delta. Modifica los pesos en el sentido (signo) del cambio realizado en el ciclo anterior. Modifica los pesos en el sentido (signo) opuesto del cambio realizado en el ciclo anterior. Modifica los pesos en el sentido (signo) de la pendiente del error. Todas son falsas.

Al entrenar una RNA, el algoritmo de entrenamiento dice que la modificación de los pesos se debe multiplicar por una constante llamada... Momento. Gradiente. Delta. Tasa de aprendizaje. Bias.

Si durante el entrenamiento de una RNA, en un ciclo se obtiene un gradiente de 0, esto quiere decir: se esta muy lejos de un mínimo. se esta cerca de un mínimo, pero no en él. se está en un mínimo, y es el global. se está en un mínimo, pero no se sabe si es el global o uno local. El error es 0.

Las neuronas de la capa de entrada de un perceptrón multicapa... Aplican la función de transferencia a las entradas que reciben. Emiten su salida como la suma de las entradas multiplicadas por los pesos. Emiten su salida como el resultado de palicar la función de transferencia a la suma de las entradas multiplicadas por los pesos. Emiten su salida como el resultado de aplicar la función de transferencia a la suma de bias y las entradas multiplicadas por los pesos. Todas son falsas.

El número de neuronas ocultas de un perceptrón multicapa: Lo puede fijar el usuario como quiera. Depende del problema a resolver. Debe ser igual al número de neuronas de entrada y lo puede fijar el usuario como quiera. Debe ser igual al número de neuronas de entrada, pero depende del problema a resolver. Debe ser igual al número de neuronas de salida, y lo puede fijar el usuario como quiera.

Un perceptrón multicapa tiene la capacidad de separar los patrones de entrenamiento de un problema de clasificación con un 100% de acierto cuando estos patrones... No están entremezclados, tenga el número de neuronas ocultas que tenga. Solo cuando son linealmente separables. Están clasificados en más de 2 clases distintas. Solo cuando no tienen ruido. En cualquier caso, si la red tiene la complejidad suficiente.

Si a un perceptrón multicapa entrenado se les presenta un patrón en una zona donde no hubo patrones de entrenamiento. Dara un error en su funcionamiento. Dara una salida 0 siempre. Dara una salida -1 siempre. Dara una salida 1 siempre. Dara una salida arbitraria e imprevisible.

Si al entrenar una RNA se utiliza una tasa de aprendizaje muy alta. Se acercara al error con cambios muy pequeños. Se correrá el riesgo de oscilar en torno al mínimo. El entrenamiento se parará siempre en un mínimo local. El entrenamiento se parará siempre en un mínimo global. Se sobreentrenará la red.

El hecho de entrenar una RNA mediante un algoritmo de entrenamiento basado en el gradiente descendente tiene el problema de que... Nunca va a encontrar el mínimo global. Al acercarse a un mínimo, se va a oscilar de un lado a otro, sin lograr pararse en el. Se va a acercar a un mínimo con incrementos muy pequeños. Es posible que se quede parado en algún mínimo local. Va a necesitar un número muy alto de ciclos para alcanzar un error aceptable.

En una RNA, el conjunto de test. Se usa para evaluar la capacidad de generalización de la red. Debe ser linealmente separable. Produce la modificación de los pesos mediante el algoritmo correspondiente. No produce la modificación de los pesos, pero controla el proceso de entrenamiento, y lo para si es necesario. Todas son falsas.

Las técnicas de regularización permiten. Entrenar una RNA hasta alcanzar un error de 0. Saltar mínimos locales al entrenar una RNA. Eliminar el ruido de clasificación no linealmente separable. Resolver problemas de clasificación no linealmente separables. Evitar el sobreentrenamiento al entrenar una RNA.

Para usar una RNA para resolver un problema de clasificación con dos clases, sin posibilidad de que un patrón no pertenezca a ninguna de las 2 clases, el número de neuronas de salida que ha de usar es: 1. 2. 3. 4. 5.

La autoorganización en sistemas conexionistas. Permite que exista un jefe que determine el comportamiento de los patrones. Impide un comportamiento emergente del sistema. Facilita que la información se guarde en las neuronas de entrada. Requiere que se obtenga redundancia en los datos. Todas las anteriores son incorrectas.

En la corteza cerebral. La ubicación espacial de las neuronas constituye un mapa. Todas las neuronas idénticas realizan la misma función. La ubicación de las neuronas no es significativa. Todas las anteriores son correctas. Todas las anteriores son incorrectas.

Si los patrones de entrada de un problema tienen 2 características o atributos, una GCS que lo resuelva tendrá. 1 neurona de entrada. 4 neuronas de entrada. 6 neuronas de entrada. 8 neuronas de entrada. Todas las anteriores son incorrectas.

Diferencias entre SOM y GCS son: Las GCS no consideran neuronas vecinas a la ganadora. Un SOM considera un ratio de vecindad distinto de niveles. Las GCS consideran solamente vecinas directas de la ganadora. No hay diferencia en cuestión de vecindad, la diferencia esta en la variación dinámica del numero de neuronas de la capa competitiva/salida. Un SOM considera(...) y Las GCS(...) son ciertas.

Una GCS... Está siempre orientada a la cuantificación. Permite añadir neuronas en regiones con más patrones de entrenamiento. Tiene una capa de salida formada por estructuras k-dimensionales básicas a la vez. Se entrena, sus pesos se constituyen a partir de los patrones de entrada. Todas las anteriores son incorrectas.

En el aprendizaje no supervisado... Se consiguen grupos con elementos similares dentro del mismo grupo. La autoorganización de la red permite hallar las clases supervisadas. Se trabaja con patrones etiquetados con tipo o clase. Si un patrón de entrada no pertenece a ningún grupo reconocido previamente, se descarta siempre. La autoorganización(...) y Se trabaja con(...) son correctas.

En un SOM... Cada neurona de la capa competitiva representa siempre a un solo patrón de entrada. Cada neurona de la capa competitiva puede representar a un grupo de patrones de entrada. Cada neurona de la capa de entrada representa a un prototipo. Cada neurona de la capa de entrada se conecta con X neuronas y estas X conexiones constituyen un prototipo.

Los mapas autoorganizativos (SOM) tienen normalmente. Una capa de entrada, 3 o 4 capas ocultas y una capa de salida. Una capa que es de entrada y salida. Una capa de entrada y una capa de salida. Una capa de neuronas recurrentes y autoorganizables. Todas las anteriores son incorrectas.

Si los patrones de entrada tienen distintas dimensiones, la red mñas aconsejable para agruparlos es... Un SOM. Una GNG. Un ADALINE. Una GCS. Ninguna de las anteriores.

Las tasas de aprendizaje para redes GCS son... Las mismas que para las redes OSM. Dos tasas diferenciadas. Una tasa única de aprendizaje para todos los casos. Las mismas que(...) y Una tasa única(...) son correctas. Ninguna de las anteriores es correcta.

Las redes de neuronas con entrenamiento no supervisado. Tienen un fundamento biológico, se basan en la corteza cerebral. Se llaman así porque su supervisor no sabe supervisarlas. No son de utilidad actualmente. Se llaman así(...) y No son(...) son correctas. Ninguna de las anteriores es correcta.

El problema del viajante con una SOM... Se resuelve considerando una vecindad lineal. Se resuelve sin vecindad. Nunca se puede resolver. Sin vecindad y Nunca se puede(...) son correctas. Ninguna de las anteriores es correcta.

Los trabajos de uno de los siguientes investigadores no forman parte de la inspiración biológica que se usó como base para conformar el como funcionan los algoritmos genéticos ¿cual?. Gregor Mendel. Alfred Wallace. Jean-Batiste Lamark. Charles Darwin. John H. Holland.

Se recomienda y está más justificado el uso de Algoritmos Genéticos. En aquellos problemas cuya complejidad permita una solución directa. En aquellos problemas cuya complejidad no permita una solución directa. En los problemas resolubles polinomialmente. Cuando existe un único mínimo local y el espacio de búsqueda es muy pequeño. Siempre es recomendado su uso.

¿Cuál de los siguientes operadores genéticos es el responsable de explotar la información presente en la población?. Clonación. Cruce. Mutación. Reemplazo. Selección.

El objetivo del operador de mutacion es.. Reducir la diversidad de la población. Explorar el espacio de búsqueda. Explotar la información que está en la población. Seleccionar aquellos individuos que son los mejores, en función de su función de ajuste. En un esquema steady-state, decir que individuos deben de desecharse para hacer sitio a los nuevos.

¿Cuál de los siguientes afirmaciones es cierta en relación a los algoritmos genéticos?. Las soluciones deben de ser codificadas en forma de árbol. Las poblaciones grandes favorecen una evolución más rápida. El esquema de reemplazo generacional usa menos memoria. Las funciones de ajuste deben de poder evaluarse en cada individuo de la población. El criterio de parada debe de ser único.

"Elitismo" en Algoritmos Genéticos. No existe este concepto. Solo es aplicable a la Programación Genética. La estrategia de mantener los mejores individuos en la población. Se encarga de buscar los mejores individuos y con ellos generar una nueva población. La nueva población es generada a partir exclusivamente del mejor individuo (élite).

En Algoritmos Genéticos existen las técnicas de selección denominadas: Profundidad y anchura. Recombinación puntual y uniforme. Ruleta y Torneo. Cruce y mutación. Combinatoria múltiple y estocástica uniforme.

En un Algoritmo Genético en término "Generación". Representa cada ciclo de funcionamiento del Algoritmo. En el mecanismo de gestión de población "Steady-State" representa el cambio para todos los individuos por los hijos. Representa seleccionar al mejor individuo de cada población y copiarlo a la siguiente población. No existe este concepto en Algoritmos Genéticos. Ninguna de las anteriores.

La denominación "Steady-State" en términos de un Algoritmo Genético. El mecanismo mediante el cual se mantiene a los mejores individuos de una población. Un tipo de gestión de la población de individuos. En este tipo también hay que especificar el tipo de sustitución de individuos. Una forma de crear la población de descendientes antes de eliminar la población de los padres y pasar la siguiente generación. Una forma de combinar los Algoritmos Genéticos con técnicas de optimización local. No existe esta palabra en estos sistemas.

En Programación Genética: No se puede aplicar la operación genética de cruce sobre los individuos de la población. La codificación del problema nunca se puede realizar en términos similares a la programación, no se puede representar un individuo como un conjunto de instrucciones generadas en un lenguaje de programación. No se puede aplicar la estrategia elitista igual que en los Algoritmos Genéticos. El algoritmo de evolución de la población de individuos es igual al de los Algoritmos Genéticos. No permite la generación automática de programas como mecanismo de solución de un determinado problema.

El "hill climbing" con respecto a las técnicas de computación Evolutiva. Mejora los individuos para acelerar que se encuentra un óptimo local. Es una técnica para mejorar la generación de la población inicial. Se aplica a un solo individuo de cada generación. No se puede aplicar si se está usando elitismo. Es una técnica de cruce que funciona mejor que el de dos puntos.

¿Cual de las siguientes afirmaciones es cierta acerca de la funcion fitness?. La programación Genética no usa este elemento que está solo presente en los Algoritmos Genéticos. Se evalúa solo sobre el mejor individuo de la población. Sirve para determinar cuales son los mejores individuos de la población. Se ejecuta sobre la población como un todo para hacer competir a las soluciones unas contra otras. Es la función que marca cuando se cambia de una generación a la siguiente.

En los algoritmos de sustitución para nuevos individuos. La sustitución de peores es la más rápida, y por tanto, la mejor. La sustitución de padres es la mejor porque al escoger entre padres e hijos no se pierde variabilidad. Lo mejor es no sustituir y que la población crezca indefinidamente para que haya más variabilidad. La sustitución de parecidos hace que la evolución avance muy despacio porque todos se van a parecer. La mejor opción es usar las 3 técnicas, peores, padres y parecidos a la vez.

En un Algoritmo Genético. Si la tasa de mutación es cero, el algoritmo funciona porque el cruce hace que haya evolución. Si la tasa de cruce es cero, la mutación hace que para todos los individuos acumulen demasiados cambios. Si la tasa de cruce es cero, la mutación genera variabilidad y el algoritmo de selección hace que haya evolución. Si la tasa de cruce y evolución son cero, el algoritmo de selección prevalece y hace que haya evolución. Es imposible que el cruce y la mutación sean cero.

Denunciar Test