3º-Bloque-Sistemas inteligentes
![]() |
![]() |
![]() |
Título del Test:![]() 3º-Bloque-Sistemas inteligentes Descripción: Test para sistemas inteligentes |




Comentarios |
---|
NO HAY REGISTROS |
¿En una red neuronal con perceptrón simple, la función de activación umbral es adecuada para modelar relaciones no lineales entre las entradas y salidas?. Verdadero. Falso. En Q-learning, ¿es posible que el agente aprenda una política óptima sin tener conocimiento previo del modelo del entorno?. Verdadero. Falso. ¿Es necesario que los atributos de entrada de una red neuronal se normalicen a la misma escala?. Verdadero. Falso. ¿Puede un perceptrón multicapa con una única capa oculta modelar funciones XOR?. Verdadero. Falso. En el aprendizaje automático, ¿los métodos basados en árboles de decisión generalmente requieren menos preprocesamiento de datos que las redes neuronales?. Verdadero. Falso. En una red neuronal, si el algoritmo de aprendizaje usa la función de activación umbral, entonces el cálculo de la derivada de esta función durante el entrenamiento siempre es igual a 1. Verdadero. Falso. Una capa de salida con función SOFTMAX es adecuada cuando se está resolviendo un problema de regresión en redes neuronales. Verdadero. Falso. El aprendizaje por refuerzo solo puede aplicarse en entornos donde el modelo de transición entre estados es completamente conocido. Verdadero. Falso. Un exceso de ejemplos de entrenamiento en un modelo de aprendizaje automático puede conducir al fenómeno conocido como "overfitting". Verdadero. Falso. En el Q-Learning, una acción que lleva siempre al mismo estado siguiente, recibiendo la misma recompensa, se denomina acción determinista. Verdadero. Falso. Una red neuronal con una sola neurona en la capa de salida y una función de activación sigmoide puede utilizarse para la clasificación binaria. Verdadero. Falso. En el aprendizaje por refuerzo, el agente siempre sabe la recompensa exacta que obtendrá antes de tomar una acción en el entorno. Verdadero. Falso. Una neurona de salida con función de activación tangente hiperbólica emite valores que están entre -1 y 1. Verdadero. Falso. El algoritmo Q-Learning requiere un entorno de aprendizaje estacionario para garantizar la convergencia de los valores Q. Verdadero. Falso. En un perceptrón multicapa, una función de activación ReLU (Rectified Linear Unit) es preferible a una función de activación sigmoide cuando se trata de evitar el problema de las gradientes que desvanecen. Verdadero. Falso. En una red neuronal, el término de error en las neuronas de capas ocultas es calculado directamente a partir de la diferencia entre la salida esperada y la salida obtenida de la red. Verdadero. Falso. El aprendizaje por refuerzo puede emplearse en tareas donde un agente debe aprender políticas de decisión a partir de consecuencias a largo plazo de sus acciones, en lugar de recompensas inmediatas. Verdadero. Falso. Una función de activación lineal en las neuronas de salida es adecuada para problemas de clasificación de varias clases. Verdadero. Falso. En el aprendizaje automático, una inicialización optimista de los valores Q en Q-learning favorece la exploración por parte del agente. Verdadero. Falso. Para evitar el sobreajuste en una red neuronal, es una práctica común utilizar una cantidad de datos de entrenamiento significativamente menor que el número de parámetros en la red. Verdadero. Falso. Un perceptrón simple puede utilizar la función de activación ReLU para modelar relaciones no lineales entre las entradas y salidas. Verdadero. Falso. La función de activación tangente hiperbólica puede emitir valores que están fuera del rango [-1, 1]. Verdadero. Falso. Q-learning es un método de aprendizaje por refuerzo que puede ser utilizado tanto en entornos deterministas como en entornos estocásticos. Verdadero. Falso. En un problema de clasificación, la capa de salida de una red neuronal debe tener tantas neuronas como número de clases a predecir. Verdadero. Falso. El algoritmo de retropropagación ajusta los pesos de una red neuronal únicamente en la dirección de las neuronas de entrada a las de salida. Verdadero. Falso. La normalización de los atributos de entrada es una práctica común en el entrenamiento de redes neuronales para asegurar que todas las características contribuyan equitativamente al aprendizaje. Verdadero. Falso. Una única capa de neuronas con funciones de activación lineal es suficiente para que una red neuronal modele cualquier función, independientemente de su complejidad. Verdadero. Falso. En el aprendizaje por refuerzo, el proceso de tomar acciones que resulten en la mayor recompensa posible a corto plazo garantiza que el agente también maximizará las recompensas a largo plazo. Verdadero. Falso. La función de activación ReLU (Rectified Linear Unit) se define como el máximo entre 0 y el input de la neurona, lo que permite una activación no lineal y evita el problema de las gradientes desvanecientes. Verdadero. Falso. El sobreajuste en una red neuronal puede prevenirse eficazmente al reducir la cantidad de datos de entrenamiento disponibles para el modelo. Verdadero. Falso. El método Q-Learning puede aprender directamente de experiencias crudas sin la necesidad de un modelo de entorno predeterminado. Verdadero. Falso. El uso de una función de activación lineal en todas las capas de una red neuronal multicapa es equivalente a tener solo una capa. Verdadero. Falso. La capacidad de una red neuronal para generalizar bien a menudo mejora con la adición de más y más capas ocultas. Verdadero. Falso. En una tarea de clasificación binaria, una red neuronal con una función de activación sigmoide en la capa de salida y un umbral de decisión de 0.5 clasificará todas las entradas con una salida mayor que 0.5 como la clase positiva. Verdadero. Falso. La inicialización de los pesos de una red neuronal no afecta el proceso de aprendizaje ni el rendimiento del modelo resultante. Verdadero. Falso. El algoritmo de backpropagation se utiliza solo al final del proceso de entrenamiento de una red neuronal para refinar los pesos de las conexiones. Verdadero. Falso. En aprendizaje automático, un modelo con un alto sesgo probablemente tendrá un error bajo en el conjunto de entrenamiento. Verdadero. Falso. La regularización L2 puede ayudar a prevenir el sobreajuste en el entrenamiento de modelos de aprendizaje automático al penalizar pesos grandes en la función de coste. Verdadero. Falso. En un árbol de decisión, un nodo con una entropía de 0 es un nodo puro y no requiere más división. Verdadero. Falso. El aprendizaje no supervisado es un tipo de aprendizaje automático donde se proporcionan tanto las entradas como las salidas deseadas durante el entrenamiento. Verdadero. Falso. La técnica de 'Dropout' en redes neuronales implica la eliminación aleatoria de neuronas durante la fase de entrenamiento para prevenir el sobreajuste. Verdadero. Falso. El método de 'Bagging' combina las predicciones de múltiples modelos de aprendizaje débiles para formar un modelo más fuerte y robusto. Verdadero. Falso. Una función de pérdida cuadrática es más adecuada para problemas de clasificación que para problemas de regresión. Verdadero. Falso. El 'aprendizaje profundo' se refiere a cualquier tipo de aprendizaje automático donde se utilizan redes neuronales con una sola capa oculta. Verdadero. Falso. En la técnica de 'validación cruzada', el conjunto de datos se divide en 'k' partes iguales, y el modelo se entrena 'k' veces, cada vez utilizando una parte diferente como conjunto de prueba y el resto como conjunto de entrenamiento. Verdadero. Falso. La precisión de un modelo de clasificación se calcula como el número total de predicciones correctas dividido por el número total de predicciones. Verdadero. Falso. El 'gradiente descendente estocástico' actualiza los parámetros del modelo después de cada muestra de entrenamiento. Verdadero. Falso. Un 'bosque aleatorio' es una colección de árboles de decisión donde cada árbol se entrena con una muestra aleatoria del conjunto de datos de entrenamiento. Verdadero. Falso. El sobreajuste ocurre cuando un modelo es tan complejo que aprende el ruido en los datos de entrenamiento, perjudicando su capacidad de generalizar a nuevos datos. Verdadero. Falso. Una 'máquina de vectores de soporte' (SVM) solo puede utilizarse para problemas de clasificación binaria. Verdadero. Falso. El algoritmo K-means es un ejemplo de aprendizaje supervisado. Verdadero. Falso. Una red neuronal convolucional (CNN) es especialmente útil para el procesamiento y análisis de datos de series temporales. Verdadero. Falso. El algoritmo de ascenso por gradiente se utiliza para maximizar una función objetivo. Verdadero. Falso. En un modelo de regresión lineal, los coeficientes se pueden calcular usando la técnica de los mínimos cuadrados ordinarios. Verdadero. Falso. La entropía cruzada es una medida del error entre la distribución de probabilidad predicha por un modelo y la distribución de probabilidad real de las etiquetas. Verdadero. Falso. Un árbol de decisión puede considerarse como un modelo lineal. Verdadero. Falso. El "ensacado" o "bagging" es una técnica que combina las predicciones de varios modelos para mejorar la robustez y disminuir la varianza del modelo. Verdadero. Falso. Una ventaja de la validación cruzada de K iteraciones es que reduce el riesgo de sobreajuste al utilizar todo el conjunto de datos para entrenamiento y prueba. Verdadero. Falso. La técnica de "Boosting" entrena secuencialmente múltiples modelos, donde cada modelo posterior trata de corregir los errores del modelo anterior. Verdadero. Falso. La función de activación Softmax se utiliza en la capa de salida de una red neuronal para problemas de regresión. Verdadero. Falso. La técnica de aumento de datos es útil solo para modelos de visión por computadora, no para modelos de procesamiento de lenguaje natural. Verdadero. Falso. La métrica de exactitud (accuracy) es siempre una buena medida de rendimiento para modelos de clasificación en conjuntos de datos desbalanceados. Verdadero. Falso. Las redes neuronales recurrentes (RNN) son particularmente adecuadas para el análisis de datos secuenciales, como las series temporales o el texto. Verdadero. Falso. El algoritmo de PageRank, utilizado por el motor de búsqueda de Google, se basa en principios de aprendizaje supervisado. Verdadero. Falso. En el aprendizaje por refuerzo, el término "recompensa" se refiere al feedback negativo recibido del entorno tras realizar una acción. Verdadero. Falso. El algoritmo "k-nearest neighbors" (k-NN) requiere una fase de entrenamiento intensiva computacionalmente. Verdadero. Falso. El "momentum" en el entrenamiento de redes neuronales ayuda a acelerar el entrenamiento y puede prevenir que el algoritmo quede atrapado en mínimos locales. Verdadero. Falso. El uso de capas convolucionales en una red neuronal permite reducir el número de parámetros comparado con una red completamente conectada. Verdadero. Falso. La técnica de "transfer learning" implica transferir conocimiento de una tarea a otra que es completamente diferente y sin relación. Verdadero. Falso. El principio de "parsimonia" o "navaja de Occam" sugiere que, ante varias hipótesis, la más sencilla suele ser la correcta. Verdadero. Falso. El aprendizaje profundo no puede aplicarse a datos estructurados, como tablas de bases de datos. Verdadero. Falso. El algoritmo "Random Forest" es inherentemente secuencial y no se puede paralelizar. Verdadero. Falso. La "maldición de la dimensionalidad" se refiere al fenómeno por el cual los modelos de aprendizaje automático mejoran su rendimiento a medida que aumenta el número de características. Verdadero. Falso. Los modelos generativos, como las GANs (Redes Generativas Antagónicas), pueden ser utilizados para generar nuevas muestras de datos sintéticos que se asemejan a los datos de entrenamiento. Verdadero. Falso. La "descomposición en valores singulares" (SVD) es una técnica de reducción de dimensionalidad que solo se puede aplicar a matrices cuadradas. Verdadero. Falso. El "aprendizaje semi-supervisado" combina un pequeño conjunto de datos etiquetados con un gran conjunto de datos no etiquetados durante el entrenamiento. Verdadero. Falso. Las técnicas de "ensemble learning" siempre superan en rendimiento a cualquier modelo individual en el conjunto. Verdadero. Falso. El "overfitting" o sobreajuste es más probable que ocurra con modelos simples que tienen pocos parámetros. Verdadero. Falso. Una alta "varianza" en un modelo de aprendizaje automático indica que es probable que el modelo se desempeñe de manera similar en los datos de entrenamiento y en los datos no vistos. Verdadero. Falso. La técnica "one-hot encoding" se utiliza para convertir variables categóricas en formatos que los modelos de aprendizaje automático pueden entender mejor. Verdadero. Falso. |