Sistemas Aprendizaje Automatico
|
|
Título del Test:
![]() Sistemas Aprendizaje Automatico Descripción: Parte 1 - Capitulos X |



| Comentarios |
|---|
NO HAY REGISTROS |
|
¿Cuál es el propósito principal de la Inteligencia Artificial (IA)?. Equipar a las máquinas con habilidades cognitivas similares a las humanas. Desarrollar robots que reemplacen completamente a los humanos. Crear sistemas que solo puedan realizar tareas repetitivas. ¿Qué dos categorías principales de IA se mencionan según su grado de independencia y entendimiento?. IA Centralizada y IA Distribuida. IA Débil y IA General (AGI). IA Supervisada y IA No Supervisada. ¿Qué caracteriza a la Inteligencia Artificial Débil (Narrow AI)?. Posee conciencia y emociones. Se enfoca en realizar tareas específicas dentro de un ámbito limitado. Puede razonar y aprender sobre cualquier tema de forma autónoma. Según el documento, ¿la Inteligencia Artificial Débil implica falta de utilidad o potencia?. Sí, es inherentemente menos útil y potente. No, 'débil' se refiere a su especialización y limitaciones contextuales, no a su potencia. Solo es potente en tareas muy sencillas. ¿Cuál de los siguientes es un ejemplo de sistema de IA Débil?. Un sistema capaz de entender y mantener conversaciones complejas como un humano. Un sistema de recomendación de películas como Netflix. Un robot humanoide capaz de razonar sobre cualquier situación. ¿Cuál es una ventaja de la Inteligencia Artificial Débil en la realización de tareas repetitivas?. Su capacidad para entender el contexto emocional. La alta eficiencia y reducción de errores humanos. Su habilidad para aprender de forma autónoma sin datos. ¿Qué limita la aplicabilidad de la IA Débil en ciertos entornos reales?. Su excesiva comprensión del contexto general. Su dependencia de grandes volúmenes de datos y falta de comprensión del sentido común. Su capacidad ilimitada para transferir conocimientos entre dominios. Un sesgo o error en los datos de entrenamiento de un sistema de IA Débil puede tener como consecuencia: Que el sistema funcione mejor en contextos no previstos. Que el modelo reproduzca y amplifique dichos sesgos. Que el sistema aprenda a pensar de forma independiente. ¿Qué significa la incapacidad de 'transferir conocimientos' en la IA Débil?. Que el sistema no puede aprender de nuevos datos. Que un sistema entrenado para una tarea no puede aplicar su conocimiento a otra tarea distinta sin ser reentrenado. Que el sistema solo puede aprender una tarea a la vez. ¿Qué requiere la IA Débil para mantener su rendimiento en entornos dinámicos?. Poca o ninguna supervisión humana. Una supervisión y actualización constantes. Un único entrenamiento inicial exhaustivo. ¿En qué sector se utiliza la IA Débil para mejorar la precisión y velocidad de los diagnósticos médicos?. Finanzas. Industria. Sanidad. Los vehículos autónomos y sistemas de navegación inteligente utilizan IA para: Analizar datos bursátiles. Mejorar la seguridad y eficiencia del transporte. Detectar fraudes en transacciones. ¿Qué es la Inteligencia Artificial General (AGI) o Inteligencia Artificial Fuerte?. Un sistema capaz de realizar una única tarea específica de manera muy eficiente. Un concepto teórico de sistemas capaces de razonar, aprender y entender el mundo con la misma o más amplitud que un humano. Un tipo de IA que solo utiliza algoritmos predefinidos sin capacidad de aprendizaje. ¿Cuál es una característica teórica clave de la Inteligencia Artificial General?. Incapacidad para adaptarse a nuevos contextos. Necesidad de entrenamiento específico para cada problema. Capacidad de resolver una amplia variedad de problemas sin entrenamiento específico para cada uno. ¿Qué tipo de sistemas se acercan a la frontera de la IA General en la actualidad?. Sistemas de reconocimiento facial simples. Algoritmos de predicción de spam. Asistentes cognitivos avanzados y modelos de lenguaje de gran escala (LLM). ¿Qué implica la búsqueda de la AGI además de los avances tecnológicos?. Ignorar las implicaciones éticas y sociales. Una reflexión sobre las implicaciones sociales, laborales y filosóficas. Centrarse únicamente en la potencia de cálculo. ¿Qué es la Superinteligencia Artificial (ASI)?. Un sistema de IA que iguala las capacidades humanas. Una forma de inteligencia artificial ampliamente superior a las capacidades cognitivas humanas en todas las áreas. Un término obsoleto para la IA Débil. ¿Cuál es un desafío ético potencial de la Superinteligencia Artificial (ASI)?. Su incapacidad para realizar avances científicos. Que la ASI no esté alineada con los valores humanos y tome decisiones impredecibles. Su limitada capacidad de procesamiento. En la actualidad, ¿es la IA Fuerte (AGI) una realidad plenamente establecida?. Sí, ya existen múltiples ejemplos de AGI funcionales. No, es más un objetivo teórico y experimental. Solo es una teoría sin base científica. ¿Qué tecnología es fundamental para el avance de la IA, tanto Débil como General?. La computación cuántica exclusivamente. El aprendizaje automático (Machine Learning) y el procesamiento de grandes volúmenes de datos (Big Data). La robótica avanzada sin software. ¿Qué diferencia principal existe entre la IA Débil y la IA General según el texto?. La IA Débil es más potente. La IA General puede resolver problemas sin entrenamiento específico, mientras que la Débil se enfoca en tareas concretas. La IA Débil tiene conciencia y la IA General no. El documento menciona 'algoritmos de predicción de riesgo de reincidencia delictiva “COMPAS”' como ejemplo de: Un éxito de la IA General. Un caso donde los sesgos en los datos de entrenamiento afectan la equidad y confiabilidad de los resultados de la IA Débil. Una aplicación ética de la IA Débil. ¿Qué se necesita para que la Inteligencia Artificial General vaya más allá de la potencia bruta?. Reducir la cantidad de datos de entrenamiento. Romper la barrera de poder dotar a sistemas de auténtica comprensión contextual. Limitar su capacidad de aprendizaje. ¿Cuál es el objetivo principal de los algoritmos de aprendizaje no supervisado?. Predecir una salida conocida basándose en datos etiquetados. Descubrir patrones, relaciones o estructuras ocultas en los datos sin etiquetas. Aprender de ejemplos con respuestas correctas proporcionadas. ¿Qué técnica se utiliza para agrupar observaciones similares en aprendizaje no supervisado?. Regresión lineal. Clustering. Clasificación binaria. ¿Qué busca el algoritmo K-Means en el clustering?. Detectar regiones densas y ruido. Encontrar particiones esféricas optimizando la suma de distancias cuadráticas a los centroides. Identificar relaciones entre variables. ¿Qué técnica se utiliza para simplificar datos con muchas variables correlacionadas o redundantes?. Análisis de asociaciones. Clustering jerárquico. Reducción de características (o dimensionalidad). ¿Cuál es el objetivo principal del Análisis de Componentes Principales (PCA)?. Encontrar relaciones lineales entre variables. Crear nuevas variables no correlacionadas que capturen la mayor parte de la varianza total de los datos. Agrupar datos en clusters. Una limitación del PCA es que: No reduce la dimensionalidad de los datos. Carece de un significado interpretativo directo para los componentes resultantes. Solo funciona con datos altamente no lineales. ¿Qué buscan los algoritmos de reglas de asociación?. Predecir valores continuos. Agrupar clientes similares. Detectar patrones de coocurrencia de ítems o atributos en los datos. ¿Qué mide la métrica 'confianza' (confidence) en las reglas de asociación?. La frecuencia con la que un conjunto de ítems aparece en las transacciones. La probabilidad de que un ítem B aparezca dado que ya ha aparecido el ítem A. La fuerza de la relación entre A y B, independientemente de su frecuencia. ¿Cuál es una fortaleza principal de las reglas de asociación?. Su capacidad para generar conocimiento interpretable a partir de datos complejos. Su habilidad para predecir valores numéricos con alta precisión. Su eficiencia en la reducción de la dimensionalidad. El algoritmo FP-Growth es una alternativa más eficiente a Apriori porque: Genera candidatos explícitamente antes de construir el árbol. Construye una estructura de datos compacta (árbol FP) que almacena ítems y frecuencias de forma jerárquica. Solo funciona con datos numéricos. ¿Qué es el 'aprendizaje supervisado'?. Un tipo de aprendizaje donde el modelo se entrena con datos no etiquetados. Un tipo de aprendizaje donde el modelo se entrena con datos etiquetados (entrada y salida deseada conocidas). Un tipo de aprendizaje basado en ensayo y error sin feedback. En el aprendizaje supervisado, ¿qué representa la 'variable objetivo' o 'target'?. Las características o variables predictoras del modelo. La salida deseada que el algoritmo debe aprender a predecir. Los datos de prueba utilizados para evaluar el modelo. ¿Cuál de los siguientes es un ejemplo de problema de 'clasificación' en aprendizaje supervisado?. Predecir el precio de una vivienda. Estimar la demanda de energía. Detectar si un correo electrónico es spam o no. ¿Cuál de los siguientes es un ejemplo de problema de 'regresión' en aprendizaje supervisado?. Clasificar imágenes médicas. Identificar patrones en datos de clientes. Predecir el precio de una casa. ¿Qué es el 'aprendizaje no supervisado'?. Entrenar un modelo con datos etiquetados para predecir una salida específica. Entrenar un modelo con datos no etiquetados para descubrir patrones o estructuras. Utilizar ejemplos con recompensas y castigos para ajustar el comportamiento. En el aprendizaje no supervisado, ¿qué técnica se utiliza para agrupar clientes según sus hábitos de compra?. Regresión lineal. Clustering. Clasificación binaria. ¿Qué es el 'aprendizaje por refuerzo' (Reinforcement Learning)?. Aprender de datos etiquetados. Descubrir patrones en datos no etiquetados. Aprender a través de la interacción con un entorno, recibiendo recompensas o castigos. ¿Cuál es el objetivo principal en el aprendizaje por refuerzo?. Minimizar el número de errores. Maximizar la recompensa acumulada a lo largo del tiempo. Clasificar los datos de entrada en categorías predefinidas. El dilema 'sesgo-varianza' se refiere al conflicto entre: La complejidad del modelo y su interpretabilidad. Reducir el error por simplificación excesiva (sesgo) y el error por excesiva sensibilidad a los datos de entrenamiento (varianza). El aprendizaje supervisado y el no supervisado. El 'underfitting' (subajuste) ocurre cuando: El modelo es demasiado complejo y memoriza el ruido de los datos de entrenamiento. El modelo es demasiado simple y no logra capturar los patrones esenciales de los datos. El modelo se desempeña bien tanto en datos de entrenamiento como de prueba. El 'overfitting' (sobreajuste) ocurre cuando: El modelo es demasiado simple y no logra capturar los patrones esenciales de los datos. El modelo se desempeña mal en los datos de entrenamiento pero bien en los de prueba. El modelo es demasiado complejo y memoriza el ruido de los datos de entrenamiento, funcionando mal en datos no vistos. ¿Qué propósito tiene dividir los datos en conjuntos de entrenamiento, validación y prueba?. Aumentar la complejidad del modelo. Evaluar correctamente la capacidad de generalización del modelo y detectar problemas como overfitting o underfitting. Utilizar todos los datos para el entrenamiento. ¿Qué métrica de evaluación es útil cuando las clases en un problema de clasificación están balanceadas?. Recall. F1-Score. Accuracy. ¿Qué mide la métrica 'Precision' en clasificación?. La capacidad del modelo para identificar correctamente todos los casos positivos. El porcentaje de predicciones correctas sobre el total de predicciones. La proporción de aciertos entre las predicciones que el modelo clasificó como positivas. En problemas de regresión, ¿qué mide el R² (coeficiente de determinación)?. La media de los errores al cuadrado. La proporción de la varianza en la variable dependiente que es predecible a partir de las variables independientes. El error absoluto medio. ¿Qué tipo de algoritmos de Machine Learning se agrupan en familias como 'lineales', 'basados en árboles de decisión' o 'basados en distancias'?. Algoritmos de aprendizaje no supervisado. Algoritmos de aprendizaje supervisado. Algoritmos de aprendizaje por refuerzo. ¿Cuál es una ventaja clave de los árboles de decisión?. Su dificultad para manejar relaciones no lineales. Su baja interpretabilidad. Su capacidad para manejar relaciones no lineales, flexibilidad y interpretabilidad. El 'bagging' (Bootstrap Aggregating) busca mejorar los modelos mediante: Entrenar un único modelo complejo. Entrenar múltiples modelos independientes sobre subconjuntos de datos y combinar sus resultados. Aumentar el sesgo del modelo base. ¿Qué técnica se utiliza en el 'bagging' para generar los subconjuntos de datos?. Selección aleatoria simple. Muestreo con reemplazo (bootstrap sampling). División estratificada. Random Forest es un algoritmo representativo del enfoque bagging porque: Entrena un solo árbol de decisión muy profundo. Genera un conjunto de árboles con estructuras diversas y combina sus predicciones. No utiliza subconjuntos de datos para el entrenamiento. ¿Cuál es la principal diferencia entre 'bagging' y 'boosting'?. Bagging entrena modelos en paralelo; Boosting entrena modelos secuencialmente. Boosting reduce la varianza; Bagging reduce el sesgo. Bagging utiliza datos etiquetados; Boosting usa datos no etiquetados. El 'boosting' busca reducir principalmente el: Sesgo del modelo. Varianza del modelo. Número de características. ¿Qué son las Máquinas de Vectores de Soporte (SVM)?. Algoritmos de clustering. Modelos cuyo principio rector es la maximización del margen entre clases. Técnicas de reducción de dimensionalidad. El parámetro 'C' en SVM controla el equilibrio entre: Velocidad de entrenamiento y precisión. Sesgo y varianza (ancho del margen y tolerancia a errores). Número de características y número de muestras. |





