Al recibir las entradas una neurona artificial, estas se combinan en primer lugar mediante una: Función de activación Regla Delta Regla de Propagación Función de Transferencia Función de Validación. El ADALINE... No tiene capas ocultas Tiene una función de trasferencia de tipo sigmoidal No puede ser entrenado con la Regla Delta Puede realizar aproximaciones no lineales Es capaz de aprender cualquier relación E/S. La Regla Delta Modifica los pesos en el sentido (signo) del cambio realizado en el ciclo anterior Modifica los pesos en el sentido (signo) opuesto del cambio realizado en el ciclo anterior Modifica los pesos en el sentido (signo) de la pendiente del error Todas son falsas. Al entrenar una RNA, el algoritmo de entrenamiento dice que la modificación de los pesos se debe multiplicar por una constante llamada... Momento Gradiente Delta Tasa de aprendizaje Bias. Si durante el entrenamiento de una RNA, en un ciclo se obtiene un gradiente de 0, esto quiere decir: se esta muy lejos de un mínimo se esta cerca de un mínimo, pero no en él se está en un mínimo, y es el global se está en un mínimo, pero no se sabe si es el global o uno local El error es 0. Las neuronas de la capa de entrada de un perceptrón multicapa... Aplican la función de transferencia a las entradas que reciben Emiten su salida como la suma de las entradas multiplicadas por los pesos Emiten su salida como el resultado de palicar la función de transferencia a la suma de las entradas multiplicadas por los pesos Emiten su salida como el resultado de aplicar la función de transferencia a la suma de bias y las entradas multiplicadas por los pesos Todas son falsas. El número de neuronas ocultas de un perceptrón multicapa: Lo puede fijar el usuario como quiera Depende del problema a resolver Debe ser igual al número de neuronas de entrada y lo puede fijar el usuario como quiera Debe ser igual al número de neuronas de entrada, pero depende del problema a resolver Debe ser igual al número de neuronas de salida, y lo puede fijar el usuario como quiera. Un perceptrón multicapa tiene la capacidad de separar los patrones de entrenamiento de un problema de clasificación con un 100% de acierto cuando estos patrones... No están entremezclados, tenga el número de neuronas ocultas que tenga Solo cuando son linealmente separables Están clasificados en más de 2 clases distintas Solo cuando no tienen ruido En cualquier caso, si la red tiene la complejidad suficiente. Si a un perceptrón multicapa entrenado se les presenta un patrón en una zona donde no hubo patrones de entrenamiento Dara un error en su funcionamiento Dara una salida 0 siempre Dara una salida -1 siempre Dara una salida 1 siempre Dara una salida arbitraria e imprevisible. Si al entrenar una RNA se utiliza una tasa de aprendizaje muy alta Se acercara al error con cambios muy pequeños Se correrá el riesgo de oscilar en torno al mínimo El entrenamiento se parará siempre en un mínimo local El entrenamiento se parará siempre en un mínimo global Se sobreentrenará la red. El hecho de entrenar una RNA mediante un algoritmo de entrenamiento basado en el gradiente descendente tiene el problema de que... Nunca va a encontrar el mínimo global Al acercarse a un mínimo, se va a oscilar de un lado a otro, sin lograr pararse en el Se va a acercar a un mínimo con incrementos muy pequeños Es posible que se quede parado en algún mínimo local Va a necesitar un número muy alto de ciclos para alcanzar un error aceptable. En una RNA, el conjunto de test Se usa para evaluar la capacidad de generalización de la red Debe ser linealmente separable Produce la modificación de los pesos mediante el algoritmo correspondiente No produce la modificación de los pesos, pero controla el proceso de entrenamiento, y lo para si es necesario Todas son falsas. Las técnicas de regularización permiten Entrenar una RNA hasta alcanzar un error de 0 Saltar mínimos locales al entrenar una RNA Eliminar el ruido de clasificación no linealmente separable Resolver problemas de clasificación no linealmente separables Evitar el sobreentrenamiento al entrenar una RNA. Para usar una RNA para resolver un problema de clasificación con dos clases, sin posibilidad de que un patrón no pertenezca a ninguna de las 2 clases, el número de neuronas de salida que ha de usar es: 1 2 3 4 5. La autoorganización en sistemas conexionistas Permite que exista un jefe que determine el comportamiento de los patrones Impide un comportamiento emergente del sistema Facilita que la información se guarde en las neuronas de entrada Requiere que se obtenga redundancia en los datos Todas las anteriores son incorrectas. En la corteza cerebral La ubicación espacial de las neuronas constituye un mapa Todas las neuronas idénticas realizan la misma función La ubicación de las neuronas no es significativa Todas las anteriores son correctas Todas las anteriores son incorrectas. Si los patrones de entrada de un problema tienen 2 características o atributos, una GCS que lo resuelva tendrá 1 neurona de entrada 4 neuronas de entrada 6 neuronas de entrada 8 neuronas de entrada Todas las anteriores son incorrectas. Diferencias entre SOM y GCS son: Las GCS no consideran neuronas vecinas a la ganadora Un SOM considera un ratio de vecindad distinto de niveles Las GCS consideran solamente vecinas directas de la ganadora No hay diferencia en cuestión de vecindad, la diferencia esta en la variación dinámica del numero de neuronas de la capa competitiva/salida Un SOM considera(...) y Las GCS(...) son ciertas. Una GCS... Está siempre orientada a la cuantificación Permite añadir neuronas en regiones con más patrones de entrenamiento Tiene una capa de salida formada por estructuras k-dimensionales básicas a la vez Se entrena, sus pesos se constituyen a partir de los patrones de entrada Todas las anteriores son incorrectas. En el aprendizaje no supervisado... Se consiguen grupos con elementos similares dentro del mismo grupo La autoorganización de la red permite hallar las clases supervisadas Se trabaja con patrones etiquetados con tipo o clase Si un patrón de entrada no pertenece a ningún grupo reconocido previamente, se descarta siempre La autoorganización(...) y Se trabaja con(...) son correctas. En un SOM... Cada neurona de la capa competitiva representa siempre a un solo patrón de entrada Cada neurona de la capa competitiva puede representar a un grupo de patrones de entrada Cada neurona de la capa de entrada representa a un prototipo Cada neurona de la capa de entrada se conecta con X neuronas y estas X conexiones constituyen un prototipo. Los mapas autoorganizativos (SOM) tienen normalmente Una capa de entrada, 3 o 4 capas ocultas y una capa de salida Una capa que es de entrada y salida Una capa de entrada y una capa de salida Una capa de neuronas recurrentes y autoorganizables Todas las anteriores son incorrectas. Si los patrones de entrada tienen distintas dimensiones, la red mñas aconsejable para agruparlos es... Un SOM Una GNG Un ADALINE Una GCS Ninguna de las anteriores. Las tasas de aprendizaje para redes GCS son... Las mismas que para las redes OSM Dos tasas diferenciadas Una tasa única de aprendizaje para todos los casos Las mismas que(...) y Una tasa única(...) son correctas Ninguna de las anteriores es correcta. Las redes de neuronas con entrenamiento no supervisado Tienen un fundamento biológico, se basan en la corteza cerebral Se llaman así porque su supervisor no sabe supervisarlas No son de utilidad actualmente Se llaman así(...) y No son(...) son correctas Ninguna de las anteriores es correcta. El problema del viajante con una SOM... Se resuelve considerando una vecindad lineal Se resuelve sin vecindad Nunca se puede resolver Sin vecindad y Nunca se puede(...) son correctas Ninguna de las anteriores es correcta. Los trabajos de uno de los siguientes investigadores no forman parte de la inspiración biológica que se usó como base para conformar el como funcionan los algoritmos genéticos ¿cual? Gregor Mendel Alfred Wallace Jean-Batiste Lamark Charles Darwin John H. Holland. Se recomienda y está más justificado el uso de Algoritmos Genéticos En aquellos problemas cuya complejidad permita una solución directa En aquellos problemas cuya complejidad no permita una solución directa En los problemas resolubles polinomialmente Cuando existe un único mínimo local y el espacio de búsqueda es muy pequeño Siempre es recomendado su uso. ¿Cuál de los siguientes operadores genéticos es el responsable de explotar la información presente en la población? Clonación Cruce Mutación Reemplazo Selección. El objetivo del operador de mutacion es.. Reducir la diversidad de la población Explorar el espacio de búsqueda Explotar la información que está en la población Seleccionar aquellos individuos que son los mejores, en función de su función de ajuste En un esquema steady-state, decir que individuos deben de desecharse para hacer sitio a los nuevos. ¿Cuál de los siguientes afirmaciones es cierta en relación a los algoritmos genéticos? Las soluciones deben de ser codificadas en forma de árbol Las poblaciones grandes favorecen una evolución más rápida El esquema de reemplazo generacional usa menos memoria Las funciones de ajuste deben de poder evaluarse en cada individuo de la población El criterio de parada debe de ser único. "Elitismo" en Algoritmos Genéticos No existe este concepto Solo es aplicable a la Programación Genética La estrategia de mantener los mejores individuos en la población Se encarga de buscar los mejores individuos y con ellos generar una nueva población La nueva población es generada a partir exclusivamente del mejor individuo (élite). En Algoritmos Genéticos existen las técnicas de selección denominadas: Profundidad y anchura Recombinación puntual y uniforme Ruleta y Torneo Cruce y mutación Combinatoria múltiple y estocástica uniforme. En un Algoritmo Genético en término "Generación" Representa cada ciclo de funcionamiento del Algoritmo En el mecanismo de gestión de población "Steady-State" representa el cambio para todos los individuos por los hijos Representa seleccionar al mejor individuo de cada población y copiarlo a la siguiente población No existe este concepto en Algoritmos Genéticos Ninguna de las anteriores. La denominación "Steady-State" en términos de un Algoritmo Genético El mecanismo mediante el cual se mantiene a los mejores individuos de una población Un tipo de gestión de la población de individuos. En este tipo también hay que especificar el tipo de sustitución de individuos. Una forma de crear la población de descendientes antes de eliminar la población de los padres y pasar la siguiente generación Una forma de combinar los Algoritmos Genéticos con técnicas de optimización local No existe esta palabra en estos sistemas. En Programación Genética: No se puede aplicar la operación genética de cruce sobre los individuos de la población La codificación del problema nunca se puede realizar en términos similares a la programación, no se puede representar un individuo como un conjunto de instrucciones generadas en un lenguaje de programación No se puede aplicar la estrategia elitista igual que en los Algoritmos Genéticos El algoritmo de evolución de la población de individuos es igual al de los Algoritmos Genéticos No permite la generación automática de programas como mecanismo de solución de un determinado problema. El "hill climbing" con respecto a las técnicas de computación Evolutiva Mejora los individuos para acelerar que se encuentra un óptimo local Es una técnica para mejorar la generación de la población inicial Se aplica a un solo individuo de cada generación No se puede aplicar si se está usando elitismo Es una técnica de cruce que funciona mejor que el de dos puntos. ¿Cual de las siguientes afirmaciones es cierta acerca de la funcion fitness? La programación Genética no usa este elemento que está solo presente en los Algoritmos Genéticos Se evalúa solo sobre el mejor individuo de la población Sirve para determinar cuales son los mejores individuos de la población Se ejecuta sobre la población como un todo para hacer competir a las soluciones unas contra otras Es la función que marca cuando se cambia de una generación a la siguiente. En los algoritmos de sustitución para nuevos individuos La sustitución de peores es la más rápida, y por tanto, la mejor La sustitución de padres es la mejor porque al escoger entre padres e hijos no se pierde variabilidad Lo mejor es no sustituir y que la población crezca indefinidamente para que haya más variabilidad La sustitución de parecidos hace que la evolución avance muy despacio porque todos se van a parecer La mejor opción es usar las 3 técnicas, peores, padres y parecidos a la vez. En un Algoritmo Genético Si la tasa de mutación es cero, el algoritmo funciona porque el cruce hace que haya evolución Si la tasa de cruce es cero, la mutación hace que para todos los individuos acumulen demasiados cambios Si la tasa de cruce es cero, la mutación genera variabilidad y el algoritmo de selección hace que haya evolución Si la tasa de cruce y evolución son cero, el algoritmo de selección prevalece y hace que haya evolución Es imposible que el cruce y la mutación sean cero.
|