SI_bloque2
|
|
Título del Test:
![]() SI_bloque2 Descripción: Sistemas inteligentes |



| Comentarios |
|---|
NO HAY REGISTROS |
|
Si tenemos un algoritmo A* para resolver el problema de camino mínimo en el cual h devolviese siempre 0, estaríamos ante un tipo de búsqueda. En profundidad. Irrevocable. En anchura. Respecto a la convergencia de backpropagation: Una red neuronal converge cuando el error de validación se mantiene bajo y los ejemplos de entrenamiento no provocan cambios significativos en los pesos de la red. Una red neuronal converge cuando el error de validación se mantiene alto y los ejemplos de entrenamiento no provocan cambios significativos en los pesos de la red. Una red neuronal converge cuando el error de validación se mantiene bajo y los ejemplos de entrenamiento provocan cambios significativos en los pesos de la red. Respecto al operador de selección por torneo en Algoritmos Genéticos podemos afirmar... que garantiza la selección de los miembros más aptos de cada generación. que provoca que los individuos más aptos tengan más probabilidad de ser seleccionados. que selecciona a los individuos más aptos en distintos subgrupos de la población. ¿Cuál de las siguientes afirmaciones es cierta?(considerando una entropía de distribución de Y condicionada a X). Las otras son falsas. Una entropía condicionada mayor que E(Y) indica que el conocimiento de X mejora la información que se dispone sobre Y. Una entropía condicionada menor que E(Y) indica que el conocimiento de X no mejora la información que se dispone sobre Y. ¿Cuándo se produce la vuelta atrás en el algoritmo de backtracking o backjumping?. Cuando no se puede encontrar una asignación legal de variables que cumpla con las restricciones impuestas. Cuando llega a la profundidad máxima y encuentra la solución. Tras asignar valor a una variable. Centrándonos en Backpropagation: derivación matemática. Hay que modificar los wj en la dirección del gradiente. El algoritmo es un ascenso por gradiente. El algoritmo es un descenso por gradiente. El futuro próximo de la IA está orientado a. Crear robots capaces de abordar tareas complicadas o peligrosas para el ser humano. Crear máquinas pensantes capaces de destruir la humanidad. Dotar a las máquinas de sentimientos. Según el método Naiive Bayes para la clasificación de textos visto en clase en el que tenemos que clasificar un texto en una categoría (Interesante - No interesante) dado cualquier conjunto de palabras de un texto (atributos), se puede simplificar el problema suponiendo que: Existe dependencia condicional entre los atributos (palabras) y la categoría de los textos (Interesante - No interesante). Conocemos la probabilidad a priori y es igual para todos los casos con lo que estaríamos antes un problema de Máxima Verosimilitud. La probabilidad de clasificar un texto es independiente de la posición que ocupan las palabras que aparecen en el texto. El entrenamiento del modelo de mezcla de gaussianas ser realiza: Con el algoritmo EM. Con un perceptrón multicapa. Con el método de las K-medias. En un perceptrón multicapa la función de activación de las neuronas se cambia de la función escalón del perceptrón simple a otro tipo de funciones como la sigmoidea, hiperbólica, ReLu, etc. ¿Qué conseguimos al hacer este cambio?. Mejoramos la respuesta de la red durante el entrenamiento, especialmente cuando tenemos múltiples capas ocultas como en el caso de las redes convolucionales. Al utilizar funciones derivables evitamos saltos bruscos en la frontera representada por el perceptrón multicapa con lo que mejoramos la probabilidad de acabar encontrando un mínimo global. Posibilitamos el entrenamiento del perceptrón multicapa mediante la técnica de backpropagation. En Redes Neuronales. El tiempo de entrenamiento es rápido, y el tiempo de respuesta una vez entrenada también debe serlo. El tiempo de entrenamiento es lento, y el tiempo de respuesta una vez entrenada puede ser lento. El tiempo de entrenamiento es lento, pero el tiempo de respuesta una vez entrenada debe ser rápido. ¿Qué nombre recibe la técnica que permite obtener nuevos individuos a partir de un punto de intercambio aleatorio en el genoma de dos individuos?. Mutación. Cruzamiento uniforme. Cruzamiento de un punto. Sobre las limitaciones de Backtracking en CSP, cuando hay una restricción binaria entre dos variables hablamos de.. Inconsistencia de arista. Inconsistencia de nodo. Ninguna de las otras. Se dice que una red neuronal converge cuando: El error de entrenamiento disminuye y el error de validación no tiene cambios significativos. El error de entrenamiento disminuye y el error de validación aumenta. El error de validación se mantiene bajo y el de entrenamiento no tiene cambios significativos. Acerca de los perceptrones multi-capa, ¿cuál de las siguientes es INCORRECTA?. Un perceptrón con dos capas ocultas es capaz de aproximar cualquier función. La "interpretación geométrica" se desarrolló sobre un algoritmo que permite encontrar los pesos asociados a todas las neuronas. La capa adicional se denomina capa oculta. La inicialización de pesos en una red neuronal artificial debe de realizarse: Dividiendo el número de entradas de la neurona entre el número de neuronas de la red. Debe ser inicializada a 0.5, pues se ha comprobado de forma empírica que se obtienen los mejores resultados. De forma aleatoria o arbitraria. Cuando los conjuntos de entrenamiento no son lo suficientemente grandes usamos la técnica de... Validación cruzada. Conjunto de validación. Ninguna de las otras es correcta. En los algoritmos genéticos, podemos afirmar: La población se mantiene constante en cada generación. La población aumenta para aumentar la posibilidad de llegar a la solución óptima. La población disminuye quedando solo los más aptos en cada generación. ¿Cuál de las siguientes áreas se beneficia de los avances en computación evolutiva?. Data Mining. Reconocimiento de patrones. Diseño aeronáutico. Tras la utilización del algoritmo AC3 hemos logrado eliminar todos los valores que causan inconsistencia del dominio de cada variable. Con este exitoso resultado podemos afirmar que: Usaremos backtracking únicamente cuando la eliminación de inconsistencias de lugar a más de una solución. Como hemos logrado eliminar toda inconsistencia no nos hará falta hacer backtracking nunca. Tendremos que concluir utilizando backtracking siempre. En la búsqueda heurística un algoritmos es admisible. Si obtiene siempre una solución sub-óptima a cambio de expandir menos nodos del árbol de búsqueda. Si encuentra la solución en un tiempo admisible (finito). Si encuentra la solución optima. ¿Qué nombre recibe la técnica que permite obtener nuevos individuos a partir de un punto de intercambio aleatorio en el genoma de dos individuos?. Cruzamiento de un punto. Mutación. Cruzamiento uniforme. En el entrenamiento de un perceptrón multicapa, para ajustar la constante de aprendizaje: Se ajusta mediante la regla alpha siempre y cuando la función de activación de las neuronas del perceptrón sea derivable. Se inicializa aleatoriamente para evitar los mínimos locales, crestas y mesetas de la búsqueda mediante descenso por gradiente. Realizamos un proceso de prueba-error hasta encontrar el mejor resultado. El método de la mezcla de gaussianas realiza una partición del espacio que se puede considerar: De frontera dura, un ejemplo se asigna a una única clase. De frontera líneal, los ejemplos se asignan de acuerdo al hiperplano definido por el método. De frontera blanda, se obtiene la pertenencia de un ejemplo a cada clase. La fórmula anterior, ¿qué es lo que mide?. Mide lo que contribuye cada neurona de la última capa al error obtenido. Mide el nuevo estado de activación de la neurona. Mide la mejor salida de la red. Acerca de los perceptrones multi-capa, ¿cuál de las siguientes es INCORRECTA?: La "interpretación geométrica" se desarrolló sobre un algoritmo que permite encontrar los pesos asociados a todas las neuronas. La capa adicional se denomina capa oculta. Un perceptrón con dos capas ocultas es capaz de aproximar cualquier función. El programa del agente... contiene el historial completo de lo que el agente ha percibido. consiste en una tabla en la que se proyecta una percepción dada en una acción. es la implementación de la función del agente en una plataforma concreta. ¿Qué tipo de operador de selección utilizaremos en Algoritmos Genéticos si queremos que los individuos seleccionados en una generación permanezcan presentes en la siguiente generación?. Selección por estado estacionario. Selección generacional. Selección Jerárquica. Indica que afirmación es falsa en lo que respecta a los algoritmos evolutivos. El procedimiento de selección evalua la aptitud de los individuos para resolver el problema. El procedimiento de transformación elimina los individuos menos aptos de cara a encontrar la solución óptima. La población de individuos es una representación de las posibles soluciones al problema. Según el algoritmo de backpropagation, para calcular el valor de delta de una neurona de la capa de salida J necesitamos. El resultado de aplicar el paso forward en la red. f'(netj), Wjk y delta(k) para todo k en la capa J+1. f'(netj), Wjk y delta(k) para todo k en la capa J-1. En el método de las k-medias, la medida de distancia que se utiliza es. Cualquier medida de distancia. Distancia euclídea. Distancia de Mahalanovis. En las redes neuronales, respecto a la regla Delta, señala el enunciado correcto. Se asume que el decremento de los pesos es proporcional a la disparidad entre la entrada observada y la salida observada. Se asume que el incremento de los pesos es proporcional a la disparidad entre la salida observada y la entrada observada. Se asume que el incremento de los pesos es proporcional a la disparidad entre la salida observada y la salida observada. Para la backpropagation necesitamos. Una función no derivable. Una función derivable. Podemos usar cualquier función. No. Son ejemplos indefinidos. Sí. |





