option
Cuestiones
ayuda
daypo
buscar.php

Examen Optativa IA - DAM

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Examen Optativa IA - DAM

Descripción:
Test para el módulo Optativa sobre IA basado en el temario de Ilerna

Fecha de Creación: 2026/05/16

Categoría: Otros

Número Preguntas: 120

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

Una herramienta que traduce instantáneamente un texto del alemán al español para un turista está utilizando la IA para: Ejecutar la teoría de los autómatas. Generar Big Data. Romper barreras lingüísticas mediante traducción automática. Reemplazar el razonamiento lógico.

¿Qué significa que el machine learning permite a los sistemas aprender 'sin ser programados explícitamente'?. Que la máquina no necesita código informático para encenderse. Que los algoritmos se borran a sí mismos una vez que aprenden la tarea. Que los humanos ya no participan en ninguna etapa del diseño. Que el sistema mejora su comportamiento a partir de patrones en los datos y la experiencia.

¿En qué año se celebró la conferencia de Dartmouth, considerada el inicio formal de la inteligencia artificial?. 1945. 1964. 1972. 1956.

Cuando Siri o Alexa responden a una pregunta hablada del usuario, están integrando principalmente: Cibernética mecánica antigua. Lógica de autómatas de 1950. Solo traducción automática. Entendimiento del habla y procesamiento de la información.

Ante una reducción de presupuesto en investigación tecnológica por falta de resultados inmediatos, ¿qué etapa histórica de la IA se estaría repitiendo?. La Era del Big Data. La Era del optimismo. El Resurgimiento. El Invierno de la IA.

¿Por qué el periodo entre los años 90 y principios de los 2000 se considera un 'Resurgimiento' de la IA?. Debido al aumento de potencia computacional y algoritmos más sofisticados. Porque las máquinas empezaron a imitar reglas rígidas de lógica humana. Porque se abandonaron los modelos matemáticos y estadísticos. Porque se inventó el término Inteligencia Artificial.

¿Qué idea central compartían los visionarios de la conferencia de Dartmouth sobre las máquinas?. Que las máquinas solo podían realizar tareas físicas mecánicas. Que la inteligencia humana es imposible de replicar digitalmente. Que cualquier característica del aprendizaje puede describirse con precisión para ser simulada por una máquina. Que el hardware de 1956 ya era suficiente para crear una conciencia artificial.

Si un desarrollador utiliza una red neuronal para que un sistema aprenda a diferenciar entre correos spam y legítimos, está utilizando la capacidad de: Cibernética clásica de los años 60. Programación explícita mediante reglas fijas. Identificar patrones ocultos en grandes conjuntos de datos. Hardware sin algoritmos.

¿Qué términos se utilizaban para referirse a la IA durante la 'Era del optimismo' en los años 50 y 60?. Cibernética y teoría de los autómatas. Procesamiento cuántico de señales. Machine learning y Big Data. Redes neuronales y deep learning.

¿Qué relación existe entre la potencia computacional y el fracaso de las expectativas en los años 70?. No hubo relación, el fracaso fue exclusivamente por falta de interés filosófico. El Big Data saturó los procesadores de los años 70. La potencia era excesiva para los algoritmos tan simples de la época. Las limitaciones tecnológicas impidieron que las máquinas cumplieran las promesas teóricas del optimismo inicial.

¿Quién de los siguientes académicos fue uno de los pioneros que acuñó el término 'Inteligencia Artificial'?. Steve Jobs. Alan Turing. Isaac Asimov. John McCarthy.

Al comparar la Era del Optimismo con la Era Contemporánea, ¿cuál es el cambio fundamental en la 'inteligencia' de las máquinas?. Se abandonó el interés en el entendimiento del habla para centrarse en los autómatas. La IA contemporánea es menos capaz de realizar tareas humanas que la de los años 50. Se pasó de la creencia en la simulación lógica por reglas a la autonomía mediante el aprendizaje por datos. No ha habido cambios; los objetivos y métodos siguen siendo idénticos a los de 1956.

Un software que identifica rostros en fotografías de una base de datos policial está ejecutando una función de: Traducción automática. Procesamiento de imágenes. Teoría de la información de Shannon. Entendimiento del habla.

En un entorno donde los procesadores se vuelven diez veces más rápidos y permiten entrenar modelos más grandes, ¿qué etapa de la evolución de la IA se está potenciando?. La etapa de mitos y leyendas. La fundación teórica de 1956. La Era Contemporánea y el aprendizaje profundo. El Invierno de la IA.

¿Cómo impacta la estructura de las 'redes neuronales complejas' en la transición de la IA de laboratorio a tecnología omnipresente?. Permiten emular el procesamiento biológico para resolver problemas prácticos a una escala masiva. Hacen que el hardware sea innecesario para el funcionamiento del software. Vuelven a los sistemas más dependientes de la intervención humana constante. Reducen la necesidad de usar datos (Big Data).

¿Cómo ha cambiado el enfoque de la IA desde su resurgimiento frente a sus inicios?. Ahora ignora las funciones de procesamiento de imágenes. Ha pasado de reglas lógicas rígidas a modelos basados en datos y estadísticas. Se ha vuelto más teórica y menos aplicada. Se ha centrado exclusivamente en la cibernética de los años 50.

¿Cuál es la diferencia fundamental entre la automatización tradicional y la Inteligencia Artificial?. La IA busca emular procesos de pensamiento y capacidades cognitivas humanas. La automatización tradicional no utiliza electricidad. La IA solo sirve para realizar cálculos matemáticos rápidos. La IA no requiere de sistemas informáticos para funcionar.

¿Qué fenómeno caracterizó al 'Invierno de la IA' durante las décadas de los 70 y 80?. El descubrimiento de las redes neuronales biológicas. Aparición de los primeros asistentes de voz. Creación del término Machine Learning. Reducción drástica en la financiación y el interés.

Si una empresa de streaming quiere recomendar películas basadas en tus gustos anteriores, ¿qué concepto de IA está aplicando principalmente?. Teoría de los autómatas. Machine Learning. Cibernética. Traducción automática rígida.

¿Cuál es el papel del Big Data en la era contemporánea de la IA?. Proporcionar volúmenes masivos de información para entrenar redes neuronales complejas. Sustituir la necesidad de procesadores potentes. Limitar el alcance de la IA a las redes sociales únicamente. Simplificar las tareas eliminando el exceso de información.

Un equipo de científicos usa análisis bayesiano para confirmar que los resultados de un experimento no son aleatorios. ¿Qué enfoque de IA están aplicando?. Discriminative AI. Generative AI. Statistical AI. Predictive AI.

En un sistema de vigilancia de playas para salvar vidas, ¿qué función cumpliría la 'discriminative AI'?. Analizar la temperatura del agua históricamente. Generar un informe de audio para los socorristas. Diferenciar entre un bañista en peligro y una boya o el oleaje. Predecir cuánta gente vendrá a la playa el próximo mes.

¿Cuál es la principal diferencia entre la Narrow AI y la General AI?. La Narrow AI es teórica y la General AI es la que usamos actualmente. La Narrow AI se limita a tareas específicas, mientras que la General AI tiene adaptabilidad autónoma para cualquier tarea intelectual. La General AI no requiere datos para aprender, a diferencia de la Narrow AI. La Narrow AI utiliza redes neuronales y la General AI utiliza solo estadística.

Un desarrollador quiere crear un sistema que detecte automáticamente si una radiografía muestra signos de neumonía. ¿Qué tipo de IA debería priorizar?. Predictive AI. Discriminative AI. Generative AI. General AI.

Al integrar un asistente virtual moderno, se combinan varios tipos de IA. ¿Qué función cumple la IA discriminativa en este proceso integrado?. Validar si la respuesta dada es matemáticamente correcta. Reconocer y entender la voz del usuario separándola del ruido ambiental. Crear la respuesta hablada de forma natural. Anticipar qué preguntará el usuario basándose en el historial.

¿Cuál es la función principal de la 'discriminative AI' según el texto?. Estimar probabilidades sobre eventos futuros. Extraer información valiosa de datos no estructurados. Crear contenido nuevo como imágenes o audio. Clasificar y distinguir elementos entre categorías predefinidas.

Un ayuntamiento desea analizar los patrones de tráfico de los últimos dos años para encontrar ineficiencias no detectadas en la red de transporte. ¿Qué tipo de IA es ideal para esta tarea?. Discriminative AI. Generative AI. Analytical AI. General AI.

¿Por qué se considera que la IA analítica se enfoca en "mirar hacia atrás"?. Porque su objetivo es replicar la inteligencia humana del pasado. Porque procesa datos históricos para extraer conclusiones y tendencias ocultas. Porque se basa únicamente en modelos de hardware antiguos. Porque intenta predecir lo que sucederá en el futuro próximo.

Para un proyecto que requiere crear automáticamente descripciones de productos para un catálogo a partir de una lista de características, ¿qué categoría de IA se ajusta mejor?. Statistical AI. Generative AI. Analytical AI. Discriminative AI.

¿En qué región de España se menciona que la IA asiste actualmente en la redacción de sentencias judiciales?. Cataluña. Andalucía. País Vasco. Madrid.

¿Qué porcentaje de estudios de arquitectura se estima que integrarán la IA en sus flujos de trabajo antes del año 2027?. 50%. 90%. 70%. 85%.

Si una empresa de e-commerce desea estimar cuántas ventas tendrá el próximo Black Friday basándose en los últimos cinco años, ¿qué enfoque técnico es el más adecuado?. Generative AI. Narrow AI. Predictive AI. Statistical AI.

Si analizamos los objetivos de la General AI frente a la Narrow AI, ¿qué factor técnico determina que la General AI sea todavía un concepto teórico?. Que la IA general no puede procesar grandes volúmenes de datos. La necesidad de una capacidad de aprendizaje transversal y autónomo sin reentrenamiento específico. La falta de potencia de cálculo en los servidores actuales. La incapacidad de la IA para realizar tareas de clasificación sencillas.

¿Qué papel juega la 'statistical AI' en relación con los otros modelos de inteligencia artificial?. Es la encargada de generar el contenido visual. Sustituye a la IA predictiva cuando no hay datos históricos. Se encarga exclusivamente de la comunicación con el usuario. Proporciona el rigor matemático para validar la precisión y evitar sesgos.

¿Qué término se utiliza para definir la presencia de una marca dentro de las recomendaciones de la IA en el comercio?. ROI (Return on Investment). SEO (Search Engine Optimization). KPI (Key Performance Indicator). SOM (Share of Model).

¿Qué caracteriza el funcionamiento de la IA generativa?. La creación de contenido nuevo mediante la identificación de reglas estructurales en datos existentes. El cálculo de la ruta más rápida en un mapa GPS. La validación estadística de hipótesis científicas. La clasificación de correos electrónicos en carpetas de spam.

Al diseñar un asistente inteligente para una casa, ¿qué tipo de IA se encarga de que el dispositivo aprenda a sugerir que se baje la calefacción antes de que el usuario lo pida, basándose en sus hábitos?. Discriminative AI. Predictive AI. Statistical AI. Analytical AI.

¿Cuál es el objetivo de aplicar gerontotecnologías en el sector de servicios socioculturales?. Mejorar la calidad de vida de las personas mayores mediante el apoyo tecnológico. Automatizar la educación primaria en zonas rurales. Sustituir a los trabajadores sociales por robots autónomos. Reducir los costes de los eventos culturales masivos.

¿Cuál es la relación lógica entre el 'Share of Model' (SOM) y el SEO tradicional en el mercado laboral actual?. El SOM ha hecho que el SEO sea completamente obsoleto e innecesario. El SOM se ocupa de la parte técnica del servidor, mientras que el SEO se ocupa de la IA. Ambos son términos idénticos que se usan para la IA general únicamente. El SOM es una evolución del SEO que mide la visibilidad en las recomendaciones algorítmicas de la IA en lugar de solo en buscadores.

En el contexto de la salud, ¿cómo contribuye la IA a la Atención Primaria según el contenido proporcionado?. Realizando cirugías complejas de forma autónoma. Optimizando la gestión de pacientes y los tiempos de respuesta médica. Fabricando medicamentos personalizados en la propia consulta. Sustituyendo completamente la necesidad de médicos humanos.

¿Cómo se relacionan el 'sesgo en los datos' y la 'falacia de la objetividad' en el desarrollo de aplicaciones?. El sesgo en los datos desmiente la creencia de que la IA es intrínsecamente objetiva. Son conceptos opuestos que no tienen relación técnica. La objetividad se garantiza eliminando al supervisor humano. El sesgo solo ocurre si el modelo es General AI.

¿A qué se refiere el texto con el término 'obsolescencia acelerada' en la IA?. A que las versiones de los modelos pierden relevancia en pocos meses. A que el hardware se rompe rápidamente por el calor. Al desinterés de los usuarios por las nuevas tecnologías. A la pérdida de datos históricos por falta de almacenamiento.

¿Qué tipo de IA se utiliza actualmente para realizar tareas específicas y carece de comprensión general del mundo?. IA de propósito universal. Super AI (Superinteligencia). Narrow AI (IA estrecha). General AI (IA general).

Un supermercado decide instalar cajas inteligentes con IA. Siguiendo el ejemplo del texto, ¿cuál es el papel del trabajador humano?. Programar el código fuente de la caja cada mañana. Sustituir a la IA cuando esta se queda sin batería. Supervisar incidencias y verificar aspectos que la IA no puede validar solo. Escribir los prompts de los clientes manualmente.

¿Cuál es la causa principal de la falta de objetividad en los sistemas de IA?. La falta de conexión a Internet durante el proceso. El agotamiento de los recursos computacionales. La intención maliciosa de los programadores. Los sesgos presentes en los datos de entrenamiento.

Evalúa por qué la IA no sustituye totalmente al humano en tareas de recomendación de contenido (como Netflix/Spotify) cuando hay cuentas compartidas. Porque la IA pierde utilidad al mezclar historiales y requiere criterio humano para filtrarlos. Porque las empresas prefieren contratar supervisores para reducir costes. Porque la IA no tiene potencia suficiente para procesar dos usuarios. Porque los algoritmos de recomendación no utilizan modelos probabilísticos.

Si pides a una IA un resumen de un libro y luego pides el mismo resumen 5 minutos después obteniendo detalles distintos, ¿qué característica técnica estás presenciando?. Un error crítico en la base de datos. La falta de memoria caché en el navegador. Una actualización automática del sistema de archivos. La naturaleza probabilística del modelo.

Para obtener un código de programación muy específico de un modelo generativo, ¿qué nuevo rol profesional aplicaría mejor sus técnicas?. Diseñador de prompts. Gestor de políticas energéticas. Analista de datos junior. Ingeniero de hardware gráfico.

¿Cómo se define el concepto de 'alucinación' en los modelos de inteligencia artificial?. Un retraso en la respuesta debido al alto consumo energético. La capacidad de la IA para soñar con nuevos algoritmos. Resultados fabricados por el modelo que no tienen base en la realidad. Un error de conexión a la base de datos central.

¿Cuál es la visión correcta que debe tener un desarrollador sobre la IA en el entorno laboral?. Como una entidad autónoma que sustituye la creatividad humana. Como una tecnología infalible que no requiere revisión. Como una herramienta complementaria que mejora la eficiencia. Como un competidor directo al que hay que vencer.

Analizando la diferencia entre IA Estrecha (Narrow) e IA General, ¿cuál es la razón técnica por la que la IA General no es una realidad actual?. La falta de suficientes unidades de procesamiento GPU. El alto coste de la electricidad en los centros de datos. La dificultad de replicar la versatilidad y comprensión del contexto humano. La ausencia de lenguajes de programación adecuados para ello.

¿Qué hardware específico se menciona como necesario para proporcionar la capacidad de procesamiento que requieren los modelos de IA?. Lectores de tarjetas magnéticas. GPU (unidades de procesamiento gráfico). Discos de estado sólido (SSD). Memoria RAM DDR3.

Según el texto, ¿cuál es uno de los nuevos roles profesionales impulsados por la IA?. Diseñadores de prompts. Ensambladores de hardware. Operadores de telégrafo. Reparadores de circuitos integrados.

Estás desarrollando una App multiplataforma que usa IA para generar imágenes, pero el sistema se bloquea en móviles antiguos. Según el texto, ¿cuál es la causa más probable?. El uso de expresiones culturales complejas. La falta de un supervisor humano en tiempo real. Limitaciones de recursos computacionales del dispositivo. Que el modelo ha entrado en fase de obsolescencia.

¿Qué implica que un modelo de IA sea de naturaleza 'probabilística'?. Que es capaz de predecir el futuro con total seguridad. Que puede ofrecer resultados diferentes ante entradas idénticas. Que solo funciona con datos numéricos y estadísticos. Que siempre garantiza la misma respuesta exacta.

¿Por qué el ejemplo del traductor automático convirtiendo 'se me fue la olla' como 'I lost the pot' es relevante?. Indica que los modelos de traducción necesitan más memoria RAM. Demuestra que la IA es superior en la traducción literal. Demuestra que la IA no comprende el contexto ni los matices culturales. Prueba que el inglés es un idioma incompatible con la tecnología.

Como usuario, ¿qué acción deberías tomar antes de subir fotos personales a una nueva aplicación de edición basada en IA?. Asegurarte de que el modelo sea 'General AI'. Comprobar si el dispositivo tiene suficiente batería. Revisar las políticas de privacidad y los permisos de acceso. Aumentar la resolución de las imágenes.

¿Qué diferencia fundamental existe entre un buscador tradicional y un chatbot de IA generativa?. El buscador no consume energía y la IA sí. El buscador ordena contenido existente, mientras que la IA crea respuestas nuevas. La IA siempre es más veraz que los resultados de un buscador. Los buscadores no utilizan algoritmos matemáticos.

Al diseñar una aplicación que resuma documentos legales, ¿por qué es vital incluir un 'supervisor de IA' humano?. Para validar la fiabilidad de los resultados y evitar alucinaciones. Para reducir el consumo energético del procesamiento. Para que la IA aprenda a hablar más idiomas. Para eliminar la necesidad de usar GPUs.

Si un desarrollador de DAM nota que su aplicación de IA da respuestas ofensivas, ¿qué factor mencionado en el texto debería investigar primero?. Los sesgos en el conjunto de datos de entrenamiento. El consumo energético del servidor. La velocidad de la conexión a Internet del usuario. La potencia de la GPU utilizada.

Analizando la estructura de una fotografía digital según el texto, ¿qué elementos la convierten en un puente entre lo no estructurado y lo estructurado?. Su capacidad de ser almacenada en un disco duro de alta velocidad. El hecho de que solo puede ser vista por seres humanos. Que se puede convertir fácilmente en una tabla de Excel de filas y columnas. El contenido visual libre junto con los metadatos de ubicación y autor.

Un analista recibe un archivo con miles de comentarios de clientes de una red social. ¿Qué tipo de información está manejando principalmente?. Hojas de cálculo SQL. Datos no estructurados. Bases de datos relacionales. Datos estructurados.

Si una IA analiza 5000 fotos de perros para identificar qué rasgos comunes tienen las orejas y el hocico, ¿qué proceso está realizando?. Aprendizaje mediante la identificación de patrones. Almacenamiento de bases de datos relacionales. Generación de datos semiestructurados. Cómputo de datos estructurados.

Un modelo de IA se utiliza para detectar emociones en audios de llamadas de servicio al cliente. ¿Qué tipo de datos requiere principalmente para ser entrenado?. Tablas de SQL. Datos no estructurados. Hojas de cálculo de Excel. Listas de precios fijas.

¿Cuál es la relación lógica entre el aumento de datos no estructurados y la necesidad de mayor capacidad de cómputo?. Los datos no estructurados eliminan la necesidad de procesamiento avanzado. No hay relación, ya que los datos no estructurados son más ligeros. La capacidad de cómputo solo es necesaria para organizar tablas de Excel. A mayor falta de organización uniforme, más recursos se requieren para extraer patrones y significado.

¿Por qué los datos estructurados facilitan un procesamiento extremadamente rápido y eficiente?. Porque son el tipo de datos más modernos que existen. Porque no requieren el uso de algoritmos de búsqueda. Porque contienen información emocional que las máquinas entienden mejor. Debido a su organización rígida en categorías claramente definidas como filas y columnas.

Un sensor de temperatura envía una lectura cada hora con el formato. ¿Cómo se clasifica esta información?. Datos analógicos. Datos estructurados. Datos semiestructurados. Datos no estructurados.

Una empresa recopila la ubicación GPS de sus empleados mediante sus móviles sin avisarles. ¿Qué principio ético mencionado en el texto está vulnerando?. Interoperabilidad. Consentimiento y Privacidad. Riqueza informativa. Uso de datos estructurados.

¿Qué papel cumplen las etiquetas en los datos semiestructurados?. Obligan a que los datos se guarden siempre en una tabla rígida de Excel. Actúan como marcadores que jerarquizan la información y separan los elementos. Sirven para encriptar la información y que nadie la vea. Son únicamente adornos visuales para el programador.

¿Qué técnica específica se menciona para que la IA pueda interpretar y extraer valor de los textos libres?. Sistemas de gestión SQL. Procesamiento del Lenguaje Natural (PLN). Cifrado de datos de extremo a extremo. Minería de datos estructurados.

¿Cuál es el formato típico donde se encuentran los datos estructurados?. Archivos de audio y vídeo. Redes sociales y grabaciones de voz. Bases de datos relacionales o hojas de cálculo. Correos electrónicos y blogs.

Compare los datos estructurados y los no estructurados. ¿Cuál es la principal ventaja competitiva de los no estructurados para la IA moderna?. Requieren mucho menos espacio de almacenamiento y capacidad de cómputo. Son mucho más fáciles de procesar con herramientas estándar como SQL. Permiten capturar la complejidad, matices y contextos de la realidad humana. Garantizan siempre la ausencia de sesgos o prejuicios.

¿Cuál es la principal diferencia entre un programa estático y un sistema de Inteligencia Artificial según el texto?. La velocidad de procesamiento de cálculos matemáticos. El uso de lenguajes de programación de bajo nivel. La necesidad de una conexión constante a Internet. La capacidad de aprender de los datos para tomar decisiones autónomas.

En un sistema de soporte técnico, el número de ticket es fijo pero la descripción del problema es un párrafo libre. ¿Qué estructura representa mejor este caso?. Estructurada pura. Bajo nivel. Semiestructurada. No estructurada pura.

Si un banco guarda el registro de una transferencia incluyendo 'Fecha', 'Monto' y 'Cuenta Destino' en campos fijos, ¿qué tipo de datos está utilizando?. Datos estructurados. Metadatos complejos. Datos no estructurados. Datos semiestructurados.

¿Cuál es el riesgo de entrenar una IA con conjuntos de datos que no son representativos de la diversidad real?. Aumentará el costo de almacenamiento de forma exponencial. El sistema dejará de funcionar por falta de memoria. Los datos estructurados se convertirán automáticamente en no estructurados. La IA puede aprender y reproducir prejuicios y sesgos discriminatorios.

Según el texto, ¿qué porcentaje aproximado de los datos generados diariamente son no estructurados?. Exactamente el 50 %. Más del 80 %. Menos del 20 %. Alrededor del 10 %.

¿Cuáles son los dos ejemplos destacados de formatos de datos semiestructurados mencionados en el contenido?. SQL y Excel. TXT y DOCX. JSON y XML. MP4 y AVI.

En la analogía de la fábrica, ¿por qué se considera a los datos como la "materia prima"?. Porque son el producto final que se vende al usuario. Porque son el recurso esencial sin el cual la IA no puede operar ni generar resultados. Porque representan la infraestructura física de los servidores. Porque son las reglas lógicas que definen cómo se mueve la maquinaria.

¿A qué se refiere el término "interoperabilidad" en el contexto de datos semiestructurados?. A la capacidad de diferentes sistemas informáticos para comunicarse entre sí de manera eficiente. A la habilidad de la IA para borrar datos antiguos automáticamente. Al cumplimiento estricto de las leyes de privacidad locales. A la capacidad de convertir imágenes en tablas de Excel sin pérdida de calidad.

¿Qué implica la característica de 'escalabilidad' en un algoritmo de IA?. La capacidad de ejecutarse en diferentes sistemas operativos. La precisión de las predicciones en tareas de regresión. El uso de recompensas para aprender tareas secuenciales. Mantener el rendimiento óptimo cuando el volumen de datos crece exponencialmente.

¿En qué se diferencia el concepto de 'modelo' del de 'algoritmo' en IA?. No hay diferencia real, ambos términos se refieren a la estructura del código lineal. El algoritmo es el proceso de instrucciones para aprender, mientras que el modelo es la representación matemática del conocimiento adquirido. El modelo es el código de programación y el algoritmo es la base de datos. El modelo es determinista y el algoritmo es probabilístico.

¿Por qué el proceso de Difusión se considera un avance sobre los métodos tradicionales de generación de imágenes?. Porque funciona mediante una lógica determinista y lineal. Porque no requiere datos de entrenamiento. Porque elimina la necesidad de usar redes neuronales en la creación visual. Porque genera imágenes de alta calidad invirtiendo de forma controlada el proceso de degradación por ruido.

¿Por qué se dice que los algoritmos de IA son intrínsecamente probabilísticos?. Porque se basan exclusivamente en la lógica lineal de la programación tradicional. Porque requieren una memoria infinita para procesar datos. Porque siempre producen el mismo resultado ante los mismos datos de entrada. Porque generan predicciones asociadas a un nivel de confianza en lugar de respuestas fijas.

¿Cuál es el propósito principal del Clustering?. Traducir textos de un idioma a otro en tiempo real. Eliminar el ruido de una imagen mediante procesos inversos. Predecir un valor numérico exacto como el precio de una casa. Organizar datos en grupos basados en similitudes intrínsecas sin etiquetas previas.

Al comparar la Regresión y la Clasificación, ¿cuál es la diferencia clave en sus salidas (outputs)?. La regresión es exacta y la clasificación es siempre errónea. La regresión usa redes neuronales y la clasificación usa clustering. La regresión devuelve valores numéricos continuos y la clasificación devuelve etiquetas de categorías discretas. La clasificación es para modelos no supervisados y la regresión para modelos de refuerzo.

¿Qué tipo de arquitectura de IA está optimizada específicamente para trabajar con imágenes y vídeo mediante filtros?. Modelos de Regresión. Redes Neuronales Convolucionales (CNN). Clustering. Transformadores.

Un sistema de seguridad utiliza rasgos faciales para permitir el acceso a un edificio. ¿Qué arquitectura técnica está probablemente en la base de este sistema?. Redes Neuronales Convolucionales (CNN). Algoritmos deterministas. Transformadores. Modelos de Regresión.

Si un desarrollador necesita crear una aplicación que identifique si un correo es 'Spam' o 'Deseado', está realizando una tarea de: Regresión. Difusión. Mecanismo de atención. Clasificación.

Si una empresa desea predecir el precio exacto de una acción en la bolsa para mañana, ¿qué tipo de algoritmo debería emplear?. Difusión. Clasificación. Regresión. Clustering.

¿Qué describe mejor la función del 'discriminador' en una Red Generativa Antagónica (GAN)?. Intentar detectar si los datos creados por el generador son reales o inventados. Reducir la dimensión de los datos para agruparlos por similitud. Asignar etiquetas de categoría a las imágenes de entrada. Crear datos sintéticos a partir de ruido aleatorio.

¿Cuál es el componente crítico de un Transformador que permite identificar la relevancia de partes de una frase?. Mecanismo de atención. Ruido aleatorio. Filtro convolucional. Red discriminadora.

Para entrenar a un robot que debe aprender a caminar evitando obstáculos mediante el ensayo y error, ¿qué modelo de aprendizaje se debe aplicar?. Modelos de Refuerzo. Modelos Supervisados. Modelos No Supervisados. Modelos de Clasificación.

Deseas crear una herramienta que genere imágenes artísticas detalladas a partir de una descripción de texto. ¿Qué tecnología deberías elegir?. Clustering. Difusión. Clasificación binaria. Regresión numérica.

En el contexto de la eficiencia de un algoritmo, ¿qué se busca optimizar?. La interfaz de usuario del software final. El consumo de recursos computacionales como memoria y tiempo. La complejidad de las etiquetas utilizadas en el modelo. La cantidad de datos de entrenamiento disponibles.

¿Cuál es la diferencia fundamental entre un modelo supervisado y uno no supervisado?. El supervisado solo sirve para imágenes y el no supervisado para texto. El no supervisado requiere más potencia de cálculo que el supervisado siempre. El supervisado usa datos etiquetados, mientras que el no supervisado busca relaciones en datos sin etiquetas. El supervisado no comete errores y el no supervisado sí.

¿Cómo se denomina a la representación matemática resultante del proceso de aprendizaje de un algoritmo?. Algoritmo determinista. Modelo de IA. Prompt. Dataset.

Un banco quiere agrupar a sus clientes por hábitos de gasto similares sin tener categorías predefinidas. ¿Qué técnica es la más adecuada?. Aprendizaje Supervisado. Redes Convolucionales. Clustering. Regresión Lineal.

¿Qué término define a un conjunto ordenado de pasos o instrucciones para resolver un problema específico?. Modelo. Incertidumbre. Red Neuronal. Algoritmo.

Si estás desarrollando un traductor automático de alta fidelidad que analice el contexto de párrafos completos, ¿qué arquitectura es la más recomendada?. Regresión logística. Transformadores. Clustering jerárquico. Redes Convolucionales.

Una empresa tiene un modelo de lenguaje general y quiere que ahora sea capaz de escribir contratos legales con precisión. ¿Qué técnica debe aplicar?. Recopilación de datos en bruto. Subajuste intencionado. Aprendizaje no supervisado de cero. Fine-tuning.

¿Cuál es la unidad de procesamiento de alta potencia mencionada como esencial para el entrenamiento de modelos avanzados?. HDD. GPU. USB. RAM.

¿Cómo se relacionan la fase de limpieza de datos y la calidad del aprendizaje final del modelo?. La limpieza es opcional; solo sirve para reducir el espacio que ocupan los datos en el disco duro. La limpieza elimina errores y ruido que, de lo contrario, el modelo aprendería como si fueran patrones correctos, afectando su precisión. No tienen relación, ya que el modelo corrige los errores automáticamente durante el ajuste de parámetros. La limpieza de datos solo es necesaria en el aprendizaje no supervisado.

Imagina que un modelo no logra identificar ni siquiera los patrones más básicos de los datos de entrenamiento. ¿Qué problema de ajuste presenta?. Generalización excesiva. Sobreajuste (overfitting). Fine-tuning agresivo. Subajuste (underfitting).

¿Cuál es el objetivo principal de los modelos de clasificación?. Predecir un valor numérico continuo basado en históricos. Asignar una categoría específica a un dato de entrada. Crear contenido nuevo que no existía previamente. Reducir el consumo energético del hardware.

¿Cuál es la principal consecuencia de tener datos de entrenamiento con sesgos sociales?. El modelo se volverá más eficiente energéticamente. El entrenamiento será mucho más rápido y requerirá menos hardware. El modelo ofrecerá resultados injustos o poco fiables basándose en esos prejuicios. El modelo automáticamente corregirá los errores humanos de los datos.

Si un desarrollador está creando un sistema para predecir el precio exacto de una vivienda el próximo mes, ¿qué tipo de modelo funcional está empleando?. Modelo generativo. Modelo de etiquetado manual. Modelo de clasificación. Modelo de regresión.

¿Qué diferencia al aprendizaje por refuerzo del aprendizaje supervisado?. Su único objetivo es predecir valores numéricos continuos. Se basa en un sistema de recompensas y penalizaciones por acciones en un entorno. Utiliza datos que ya están perfectamente etiquetados por humanos. No requiere ningún tipo de procesamiento computacional.

¿Qué implica que un modelo tenga una buena capacidad de 'generalización'?. Que puede aplicar lo aprendido a casos nuevos que no vio durante el entrenamiento. Que no necesita realizar ciclos de prueba y error. Que ha memorizado perfectamente cada píxel de las imágenes de entrenamiento. Que puede procesar datos incompletos sin necesidad de limpieza previa.

¿Qué sucede durante la etapa de ajuste de parámetros en el ciclo de entrenamiento?. Se eliminan las etiquetas de los datos para que el modelo aprenda solo. Se recolectan miles de fotografías nuevas para aumentar la base de datos. Se detiene el proceso de aprendizaje para evitar el gasto de energía. El sistema modifica sus variables internas para intentar reducir el error detectado.

Compara el sobreajuste (overfitting) y el subajuste (underfitting). ¿Qué diferencia fundamental existe entre sus causas?. No hay diferencia real, ambos términos se refieren a la falta de etiquetas en los datos. El sobreajuste es deseable en modelos de regresión y el subajuste en modelos de clasificación. El sobreajuste ocurre por falta de datos y el subajuste por usar demasiadas GPU. El sobreajuste memoriza el ruido por exceso de detalle, mientras que el subajuste falla por excesiva simplicidad o falta de entrenamiento.

Un hospital quiere un sistema que analice radiografías y determine si hay 'fractura' o 'no fractura'. ¿Qué categoría funcional de modelo deben desarrollar?. Modelo de aprendizaje por refuerzo. Modelo generativo. Modelo de regresión. Modelo de clasificación.

Al evaluar un modelo, ¿por qué el uso de 'datos nuevos' es un mejor indicador de rendimiento que el uso de los mismos datos de entrenamiento?. Porque el uso de datos nuevos garantiza que no exista sesgo en el futuro. Porque revela si el modelo ha capturado la lógica subyacente o si simplemente ha memorizado los ejemplos previos. Porque los datos nuevos siempre tienen menos ruido que los originales. Porque permite que el modelo deje de consumir recursos computacionales.

Durante el entrenamiento, el modelo realiza una predicción y el sistema calcula que la diferencia con la etiqueta real es alta. ¿Cuál es el siguiente paso lógico en el ciclo?. Cambiar el modelo a aprendizaje no supervisado. Finalizar el entrenamiento inmediatamente. Ajuste de parámetros. Borrar todos los datos de entrenamiento.

Estás entrenando una IA para detectar correos de spam. El modelo acierta el 100% de los correos que usaste para entrenar, pero falla en todos los correos nuevos que recibe. ¿Qué fenómeno está ocurriendo?. Aprendizaje no supervisado. Subajuste (underfitting). Generalización perfecta. Sobreajuste (overfitting).

¿Por qué es crucial la variedad de los datos durante la fase de recopilación?. Para que el sistema aprenda a generalizar y no se limite a memorizar un único escenario. Para reducir el tiempo de entrenamiento a unos pocos minutos. Para evitar el uso de procesadores de alta potencia como las GPU. Para asegurar que el modelo sea de tipo generativo.

¿En qué consiste la técnica de 'fine-tuning'?. En borrar todos los parámetros aleatorios de un modelo inicial. En utilizar únicamente aprendizaje no supervisado en modelos complejos. En aumentar el ruido de los datos para que el modelo sea más robusto. En adaptar un modelo ya entrenado para que sea excelente en una tarea específica.

¿Cómo se define el término 'Precisión' dentro del contexto de evaluación de modelos?. El porcentaje total de aciertos que el modelo logra sobre el conjunto de datos. La capacidad de crear contenido original como música o texto. El tiempo que tarda el modelo en procesar una imagen. La cantidad de datos de ruido eliminados durante la limpieza.

Si un modelo de IA se utiliza para crear una pieza musical original basada en estilos clásicos, ¿qué tipo de modelo es según su funcionalidad?. Modelo generativo. Modelo de limpieza de datos. Modelo de clasificación. Modelo de regresión.

¿Qué tipo de aprendizaje utiliza datos etiquetados donde el modelo recibe la entrada y la respuesta correcta?. Aprendizaje por refuerzo. Aprendizaje no supervisado. Aprendizaje generativo. Aprendizaje supervisado.

Denunciar Test