sistemas inteligentes ordinario
|
|
Título del Test:
![]() sistemas inteligentes ordinario Descripción: preguntas del examen |



| Comentarios |
|---|
NO HAY REGISTROS |
|
¿Cuál es el objetivo principal de la habitación china de John Searle?. Demostrar que el Test de Turing es imposible de superar. Probar que la manipulación de símbolos equivale al pensamiento real. Cuestionar si la simulación de una conversación implica necesariamente comprensión. Validar la teoría de la "IA fuerte" mediante un experimento práctico. Desarrollar un nuevo lenguaje de programación basado en caracteres. ¿Qué característica principal define a los agentes reactivos?. Almacenan datos pasados para realizar cálculos. Solo reaccionan a su entrada actual sin considerar el pasado. Basan todas sus acciones en la minimización de costes a largo plazo. Son capaces de modificar su comportamiento mediante realimentación. Siempre funcionan en entornos no deterministas y continuos. En un Sistema Basado en Conocimiento, ¿cómo se denomina al sistema que usa el conocimiento para alcanzar conclusiones o responder consultas?. Mecanismo de inferencia. Base de datos. Adquisición activa. Agente de aprendizaje. Base de conocimiento declarativa. ¿Qué representa el espacio de estados?. El conjunto de todas las soluciones posibles a un problema. La secuencia de operadores que lleva del estado inicial al estado objetivo. El conjunto de nodos que han sido expandidos, pero no visitados. La representación gráfica de los costes de cada acción. El conjunto de todas las descripciones de los estados válidos del problema. ¿Qué es el grafo de búsqueda?. Un conjunto de nodos donde cada nodo representa un estado y los arcos representan las acciones. Una estructura de datos que solo contiene los estados objetivo. El algoritmo que decide qué nodo expandir a continuación. La lista de nodos que se encuentran en la frontera de búsqueda. El árbol que se genera únicamente cuando la búsqueda no tiene ciclos. ¿Qué indica la completitud de un algoritmo de búsqueda?. Si el algoritmo encuentra siempre la mejor solución. El tiempo que tarda en encontrar una solución. Si el algoritmo garantiza encontrar una solución siempre que esta exista. La cantidad de memoria máxima utilizada durante la búsqueda. El número de nodos expandidos antes de llegar al objetivo. ¿Cuál es la principal desventaja de la búsqueda en anchura?. No es óptima si los costes de los arcos son iguales. Su complejidad de tiempo es lineal respecto a la profundidad. Su complejidad de memoria es exponencial, lo que puede agotar los recursos rápidamente. No es completa en espacios de estados finitos. Siempre encuentra la solución más profunda primero. ¿Cuándo deja de ser completa la búsqueda en profundidad?. Si el factor de ramificación es muy pequeño. Si el espacio de búsqueda tiene caminos de longitud infinita o bucles. Si el coste de todos los pasos es idéntico. Si se utiliza en un árbol en lugar de un grafo. Si el estado objetivo está a poca profundidad. ¿Cuál es la principal ventaja de la búsqueda en profundidad frente a la búsqueda en anchura?. Siempre encuentra la solución óptima. Tiene una complejidad de tiempo mucho menor. Garantiza la completitud en espacios de búsqueda con ciclos. Tiene necesidades de memoria mucho menores. Expande menos nodos en el peor de los casos. ¿En qué consiste la búsqueda de profundidad limitada?. En buscar solo en los nodos que tienen un coste menor a un límite. En expandir solo un número limitado de sucesores por cada nodo. En una búsqueda que se detiene tras un tiempo determinado. En buscar únicamente en el nivel donde se cree que está la solución. En una búsqueda en profundidad donde se establece un límite máximo de nivel. ¿Por qué la búsqueda de profundidad iterativa se considera una buena combinación de anchura y profundidad?. Porque, con acciones del mismo coste, tiene la memoria lineal de la profundidad y la completitud/optimalidad de la anchura. Porque usa una pila y una cola simultáneamente. Porque expande los nodos de forma aleatoria para evitar bucles. Porque solo expande cada nodo una única vez en toda la ejecución. Porque utiliza funciones heurísticas para limitar la profundidad. ¿Qué sucede con la complejidad de tiempo en la búsqueda de profundidad iterativa al repetir los niveles superiores?. Se vuelve inmanejable y mucho peor que la búsqueda en anchura. Se reduce a la mitad respecto a la búsqueda en profundidad básica. El algoritmo se vuelve exponencialmente más rápido. El sobrecoste es pequeño ya que la mayoría de los nodos están en el nivel más profundo. No hay sobrecoste porque los nodos se guardan en memoria. ¿Cuál es la función principal de la heurística en los algoritmos de búsqueda?. Garantizar que el algoritmo siempre termine en tiempo lineal. Almacenar todos los estados visitados para evitar ciclos. Reemplazar por completo el uso de algoritmos de búsqueda exhaustiva. Definir las reglas de transición entre estados. Proporcionar una estimación del coste desde un estado actual hasta el objetivo para guiar la búsqueda. Si tenemos dos heurísticas admisibles, h1 y h2, y se cumple que h2(n) ≥ h1(n) para todo nodo n, ¿cuál de las siguientes afirmaciones es correcta?. h1 es una mejor heurística porque es más sencilla. h2 domina a h1 y será más eficiente en la búsqueda. h1 encontrará una solución más óptima que h2. h2 dejará de ser admisible si supera a h1. Ambas expandirán exactamente el mismo número de nodos. si la función heurística utilizada es admisible?*. ¿Que garantiza el algoritmo A* si la función heurística utilizada es admisible?. Que siempre encontrara la opción óptima. Que el uso de memoria será mínimo. Que no se visitara ningún nodo mas de una vez. Que la búsqueda será puramente en profundidad. Que el tiempo de ejecución será independiente del número de nodos. ¿Cuál es el principal inconveniente del algoritmo A*?. No es completo, puede no encontrar la solución. Es muy difícil de implementar. Su complejidad en memoria, ya que guarda todos los nodos generados. Siempre tarda más que la búsqueda en anchura. Solo funciona en espacios de búsqueda sin ciclos. ¿Cuál es la función de la poda alfa-beta?. Reducir el número de nodos a explorar sin cambiar el resultado final. Encontrar una solución más óptima que minimax. Limitar la profundidad de la búsqueda para ahorrar tiempo. Permitir que el jugador MIN gane más fácilmente. Introducir un elemento de azar en la toma de decisiones. En la poda alfa-beta, ¿qué representa el valor beta?. El valor de la mejor opción (el valor más alto) encontrada hasta el momento para MAX. El valor de la mejor opción (el valor más bajo) encontrada hasta el momento para MIN. La profundidad máxima del árbol de juego. El coste del camino desde el estado inicial. El número de hijos que tiene cada nodo. Los algoritmos de mejora iterativa se caracterizan por: Mantener siempre en memoria todo el árbol de búsqueda. Ser siempre óptimos y completos. Funcionar solo en problemas de juegos de mesa. Basarse exclusivamente en la técnica de dividir y vencerás. Moverse desde el estado actual a un estado vecino mejor sin guardar el camino. ¿Cuál es el principal problema del algoritmo de ascensión de colinas?. Que consume demasiada memoria. Que solo funciona con funciones heurísticas no admisibles. Que es demasiado lento para problemas reales. Que puede quedarse atrapado en máximos locales, mesetas o crestas. Que requiere conocer el estado objetivo de antemano. ¿En qué se diferencia el algoritmo de recocido simulado del de ascensión de colinas? • a. • b. • c. • d. (Correcta) • e. En que siempre elige el mejor vecino disponible. En que utiliza una población de soluciones en lugar de una sola. En que es un algoritmo determinista. En que permite movimientos peores con una probabilidad controlada para escapar de máximos locales. En que no utiliza ninguna función de evaluación. En los algoritmos genéticos, ¿qué es la población?. Un conjunto de soluciones candidatas que evolucionan con el tiempo. El conjunto de todas las reglas del sistema. El número de nodos expandidos en una iteración. El historial de soluciones encontradas. La memoria total disponible. ¿Cuál es el operador genético que combina individuos de la población actual para generar nuevas soluciones candidatas?. Mutación. Selección por ruleta. Cruce. Elitismo. Reemplazamiento. ¿Para qué sirve el operador de mutación en un algoritmo genético?. Para asegurar que los mejores individuos sobrevivan siempre. Para combinar las mejores características de los padres. Para introducir diversidad genética y evitar la convergencia prematura en óptimos locales. Para acelerar la búsqueda hacia el máximo local más cercano. Para eliminar los individuos con baja puntuación de fitness. ¿En qué consiste un programa en Prolog?. Objetos y funciones. Hechos y reglas. Variables y constantes numéricas. Cláusulas de primer orden con cuantificadores explícitos. Algoritmos de flujo secuencial. ¿Cuál es el tipo de datos básico de Prolog?. El átomo. La variable. El número entero. El número real. El término. ¿A través de qué proceso una variable en Prolog puede convertirse en una instancia vinculándose a un término específico?. Factorización. Formalización. Resolución. Unificación. Interpretación. El núcleo de un sistema experto está compuesto por: La base de conocimiento y el motor de inferencia. La base de conocimiento y la interfaz de usuario. Los hechos y las reglas de producción. El usuario y la base de hechos. El motor de inferencia y la interfaz de usuario. ¿Cuál de las siguientes afirmaciones es cierta sobre los sistemas expertos?. La base de conocimiento es permanente y estática, mientras que los hechos son dinámicos. Los hechos son estáticos y las reglas son dinámicas. La base de conocimiento es dinámica y cambia en cada aplicación. La base de conocimiento y los hechos son de naturaleza estática una vez programado el sistema. La base de conocimiento y los hechos cambian obligatoriamente en cada ejecución del programa. El encadenamiento de reglas hacia adelante se caracteriza por: • a. • b. • c. • d. • e. Partir de un objetivo y buscar reglas que lo demuestren. Utilizar únicamente el modus tollens. Requerir siempre la intervención del usuario para validar cada paso. Ser el estilo de razonamiento nativo y por defecto de Prolog. Ser un proceso que se repite hasta que no pueden obtenerse más conclusiones a partir de los hechos. En el encadenamiento orientado a un objetivo, ¿qué ocurre si no se obtiene una conclusión con la información existente?. Se detiene y muestra un mensaje de error. Se borra la base de hechos y reinicia el proceso. Se solicita al usuario información sobre las variables relevantes. Se ejecuta automáticamente el encadenamiento hacia adelante. Se asume que el objetivo es falso por defecto. Si se construye un sistema experto directamente en Prolog, ¿cuál es el estilo de razonamiento que emplea?. Resolución de conflictos por prioridad de reglas. Emparejamiento, resolución de conflictos y ejecución de reglas. Encadenamiento hacia atrás. Razonamiento no monótono. Encadenamiento hacia adelante. ¿Cuál es la principal diferencia entre memorización y aprendizaje en IA?. La memorización requiere más capacidad de almacenamiento. La memorización es la base fundamental para el desarrollo de la lógica de primer orden. El aprendizaje solo consiste en almacenar texto en archivos para su consulta posterior. La memorización es más costosa computacionalmente que el aprendizaje. El aprendizaje se centra en la generalización, permitiendo aplicar lo aprendido a situaciones nuevas. ¿Qué estrategia de control utiliza principalmente la herramienta CLIPS?. Encadenamiento hacia atrás. Razonamiento probabilístico bayesiano. Búsqueda en profundidad exclusivamente. Estrategia de control irrevocable con encadenamiento hacia delante. Lógica de predicados. ¿Qué es la agenda en el contexto de CLIPS?. La lista de reglas cuyos patrones se cumplen, pero aún no se han ejecutado. Una lista de todos los hechos borrados. El registro de las intervenciones del usuario. Una lista con los hechos. El lugar donde se almacenan las definiciones de las reglas. ¿Para qué sirve el comando reset en CLIPS?. Para finalizar el programa. Para limpiar la memoria de trabajo, la agenda y cargar los hechos. Para deshacer la última regla ejecutada únicamente. Para editar las reglas y modificarlas. Para cambiar la prioridad de las reglas. ¿Cuál es la función del constructor deftemplate?. Definir hechos no ordenados. Definir la prioridad de una regla. Definir hechos ordenados. Definir funciones matemáticas personalizadas. Limitar el número de hechos que están en memoria. En un agente de aprendizaje, ¿qué función cumple el conjunto de datos de prueba?. Se utiliza para entrenar inicialmente al agente antes de su validación. Sirve para definir la estructura de los nodos en un árbol de decisión. Evalúa la capacidad de generalización del agente con datos no usados en su construcción. Permite calcular la media y la desviación típica de las variables de entrada. Es el conjunto que contiene el conocimiento que el algoritmo debe extraer obligatoriamente. ¿Cuál es la función de la unidad de sesgo (bias) en un perceptrón?. Aumentar la velocidad de convergencia mediante el cálculo de la media. Reducir el ruido de los datos de entrenamiento. Clasificar automáticamente los puntos en la clase negativa. Permitir que el hiperplano de separación no tenga que pasar obligatoriamente por el origen. Normalizar el vector de pesos para que su norma sea igual a 1. El método del vecino más cercano fundamenta la similitud en: El orden alfabético de las etiquetas de clase. La distancia en el espacio de características. La cantidad de reglas lógicas que se cumplen simultáneamente. El tiempo que tarda el algoritmo en almacenar los datos. La probabilidad a priori de pertenecer a una especie determinada. ¿Qué problema puede ocurrir en el método del vecino más cercano cuando hay casos atípicos (ruido)?. Sobreajuste. Convergencia lenta. Desplazamiento del hiperplano hacia el origen. Desaparición del diagrama de Voronoi. Incremento de la dimensionalidad del espacio. En el método de los k-vecinos más cercanos, ¿por qué se suelen utilizar pesos que decrecen con el cuadrado de la distancia?. Para que el algoritmo sea lineal respecto al número de clases. Porque la distancia euclídea siempre requiere elevar al cuadrado las diferencias. Para reducir el tiempo de cómputo total a una constante. Para evitar que los vecinos más alejados dominen el cálculo de la función. Para simplificar la representación en el diagrama de Voronoi. ¿Cuál es una ventaja principal de los árboles de decisión frente a otros métodos como el perceptrón?. El conocimiento extraído puede ser entendido, interpretado y controlado por humanos. Aprenden mucho más rápido que cualquier otro método. Requieren obligatoriamente que los datos sean linealmente separables. No utilizan características o atributos para realizar la clasificación. Eliminan la necesidad de tener datos de entrenamiento. ¿Qué característica de los árboles de decisión ayuda a evitar la redundancia en el proceso de clasificación?. Los pesos asociados a cada enlace. Que cada atributo solo puede aparecer una vez por camino en el árbol. El uso de diagramas de Voronoi convexos. La inicialización heurística del vector de pesos. La transformación de variables discretas en continuas. En el contexto de los árboles de decisión, ¿qué mide la entropía de un conjunto de datos?. La velocidad a la que el algoritmo puede procesar las variables de entrada. El grado de incertidumbre respecto a la variable clase. El número total de nodos hoja que tendrá el árbol final. La distancia euclídea entre los ejemplos de entrenamiento. El contenido de información del conjunto de datos. ¿Cómo se define la ganancia de información de un atributo al construir un árbol de decisión?. Es la suma de las entropías de todos los nodos del árbol. Es el número de nuevos ejemplos de prueba que el sistema puede clasificar. Es el valor absoluto del coeficiente de correlación de Pearson. Es la probabilidad de que el atributo sea seleccionado como nodo raíz. Es la reducción de la entropía total del conjunto tras realizar una partición basada en dicho atributo. ¿Cuál es una de las principales ventajas del clasificador Naive Bayes en el contexto del aprendizaje automático?. Que es capaz de modelar relaciones no lineales extremadamente complejas entre los atributos. Que siempre supera en precisión a los árboles de decisión. Que no necesita una variable clase para realizar el aprendizaje. Que requiere pocos parámetros para ser entrenado y es muy eficiente computacionalmente. Que permite visualizar el conocimiento en forma de reglas de manera nativa. El aprendizaje de una red bayesiana a partir de datos suele dividirse en dos tareas. ¿Cuáles son?. Normalización de datos y cálculo de distancias euclídeas. Aprendizaje de la estructura y de las distribuciones de probabilidad. Selección del vector de pesos inicial y ajuste del factor de aprendizaje. Poda del árbol y cálculo de la ganancia de información. Clasificación de los vecinos y votación mayoritaria. |





