faa tema 0
![]() |
![]() |
![]() |
Título del Test:![]() faa tema 0 Descripción: Resumen tema 0 |




Comentarios |
---|
NO HAY REGISTROS |
¿Cuál es el parámetro de una neurona artificial que determina cuánto influye una entrada particular en la salida?. Coeficiente de aprendizaje. Sesgo. Peso. Función de activación. ¿Qué caracteriza a la regla de aprendizaje de Adaline en comparación con la del Perceptrón?. Adaline es menos propensa a sobreajustar. Adaline se basa en una función de activación lineal, mientras que el Perceptrón no. Adaline no necesita una tasa de aprendizaje. Adaline solo puede tener una capa oculta, mientras que el Perceptrón puede tener varias. La regla de aprendizaje del Perceptrón... ...ajusta los pesos de las conexiones para minimizar el error total. ...solo puede utilizarse con funciones de activación lineales. ...solo puede utilizarse con funciones de activación no lineales. ...se basa en la comparación de los valores de entrada y salida. ¿Qué método suele utilizarse para prevenir el sobreentrenamiento en una red neuronal artificial?. Incrementar el número de capas ocultas. Reducir el número de neuronas en la capa de entrada. Reducir la tasa de aprendizaje. Utilizar un conjunto de validación. ¿Cuál de las siguientes NO es una aplicación típica de las redes neuronales artificiales?. Clasificación de imágenes. Predicción de series temporales. Clustering de datos. Optimización de algoritmos de búsqueda. ¿Cuál de las siguientes afirmaciones es FALSA sobre las redes neuronales artificiales?. Son capaces de generalizar bien a partir de ejemplos de entrenamiento. Son inherentemente robustas a los errores en los datos de entrada. Son capaces de aprender y modelar relaciones no lineales. Pueden ser ineficientes en términos de tiempo de computación y recursos. En una neurona artificial, ¿qué efecto tiene un peso de conexión negativo?. Inhibe la activación de la neurona. Incrementa la activación de la neurona. No tiene ningún efecto en la activación de la neurona. Provoca que la neurona se desactive por completo. ¿Qué es el gradiente en el contexto del aprendizaje de una red neuronal artificial?. Es la dirección en la que se debe ajustar el peso para minimizar el error. Es la tasa de aprendizaje de la red. Es la función de activación de la red. Es el sesgo en la red. ¿Cómo influye la tasa de aprendizaje en el entrenamiento de una red neuronal?. Determina la velocidad a la que la red aprende. Controla el número de capas ocultas en la red. Influye en la elección de la función de activación. Regula el número de neuronas en la capa de salida. ¿Cuál es la principal diferencia entre la regla de aprendizaje del Adaline y el Perceptrón?. Adaline utiliza una función de coste cuadrática mientras que el Perceptrón utiliza una función de coste binaria. Adaline no tiene una regla de aprendizaje, sólo el Perceptrón tiene una. Adaline utiliza una regla de aprendizaje basada en el gradiente descendente, mientras que el Perceptrón no. No hay diferencias entre las reglas de aprendizaje de Adaline y el Perceptrón. ¿Qué función de transferencia se utiliza comúnmente en la última capa de una red neuronal destinada a la clasificación multiclase?. ReLU. Sigmoidal. Tanh. Softmax. En el contexto de las redes neuronales, ¿qué se entiende por convergencia?. La red ha aprendido los patrones en los datos de entrenamiento. La red ha alcanzado el mínimo global de la función de coste. La red ha alcanzado el mínimo local de la función de coste. La red ha terminado el entrenamiento sin errores. ¿Cuál de las siguientes es una técnica comúnmente utilizada para evitar el sobreentrenamiento en una red neuronal?. Aumentar la tasa de aprendizaje. Aumentar el número de capas ocultas. Early Stopping. Reducir la cantidad de datos de entrenamiento. ¿Cómo se utiliza la autoregulacion en el entrenamiento de redes neuronales?. Para calcular los gradientes de los pesos y sesgos. Para incrementar la velocidad de aprendizaje. Para evitar el sobreajuste. Para determinar el número de capas ocultas. ¿Qué es el momentum en el contexto del aprendizaje de una red neuronal?. Es una técnica para acelerar el aprendizaje. Es una técnica para evitar el sobreajuste. Es una técnica para incrementar la regular. ¿En qué consiste el algoritmo de descenso de gradiente estocástico (SGD) utilizado en el entrenamiento de redes neuronales?. Actualiza los pesos de la red en función del error de cada ejemplo de entrenamiento individualmente. Actualiza los pesos de la red en función del error promedio de todos los ejemplos de entrenamiento. Actualiza los pesos de la red en función del error del último ejemplo de entrenamiento. No actualiza los pesos de la red, sino que determina la tasa de aprendizaje. ¿Cómo se calcula el error en la regla de aprendizaje de Adaline?. Como la diferencia entre la salida esperada y la salida actual de la neurona. Como el cuadrado de la diferencia entre la salida esperada y la salida actual de la neurona. Como la suma de los cuadrados de las diferencias entre las salidas esperadas y las salidas actuales de todas las neuronas en la red. Como el promedio de las diferencias entre las salidas esperadas y las salidas actuales de todas las neuronas en la red. La neurona artificial: Es una simplificación del funcionamiento de una neurona biológica. Es exactamente igual que una neurona biológica. No tiene nada que ver con una neurona biológica. Solo se usa en la biología computacional. Adaline es una red neuronal que: Utiliza una función de activación lineal. No requiere entrenamiento. Solo puede manejar una entrada a la vez. Fue diseñada por el Dr. Adaline. En la estructura del perceptrón: Los pesos son ajustados en cada etapa de entrenamiento. Los pesos se mantienen constantes durante el entrenamiento. No hay pesos asociados con las entradas. Cada entrada tiene un peso negativo. El aprendizaje en un perceptrón ocurre cuando: Las entradas y salidas son independientes. Los pesos son ajustados para minimizar el error. La función de activación es lineal. La red es inicializada. Un perceptrón multicapa se refiere a: Una red con múltiples entradas y una sola salida. Una red con múltiples salidas y una sola entrada. Una red con una capa oculta. Una red con múltiples capas de neuronas. El sobreentrenamiento en redes neuronales se refiere a: Entrenar la red durante demasiado tiempo. Entrenar la red con muy pocos datos. Cuando la red se ajusta demasiado a los datos de entrenamiento y pierde capacidad de generalización. Cuando la red no se ajusta a los datos de entrenamiento. ¿Qué tipo de función de transferencia se usa generalmente en las capas ocultas de un perceptrón multicapa?. Lineal. Sigmoidal. Tangente hiperbólica. Ambas b y c son correctas. ¿Qué técnica se utiliza comúnmente para el control de convergencia en el entrenamiento de redes neuronales?. Descenso de gradiente estocástico. Algoritmo de Levenberg-Marquardt. Backpropagation. Todas las anteriores son correctas. La regresión en las redes neuronales se utiliza para: Clasificar datos en categorías. Predecir un valor continuo basado en los datos de entrada. Agrupar datos similares. Aproximar una función desconocida. En el contexto de las redes neuronales, el "clustering" se refiere a: La agrupación de datos en categorías basadas en similitudes. La división de una red en subredes más pequeñas. La combinación de varias redes neuronales en una sola red. El proceso de entrenamiento de una red neuronal. ¿Cuál de las siguientes opciones es una posible ventaja de las redes neuronales artificiales (RNA)?. Alta interpretabilidad de los resultados. Capacidad para manejar grandes conjuntos de datos. Requieren poca capacidad computacional. No requieren de entrenamiento previo. ¿Cuál de las siguientes opciones es una posible desventaja de las redes neuronales artificiales (RNA)?. Alta eficiencia en el procesamiento de información. Pueden sufrir de sobreajuste (overfitting) en conjuntos de datos pequeños. Fácil implementación y programación. No se ven afectadas por ruido o datos incompletos. |