PIA07 - Programación de Inteligencia Artificial
![]() |
![]() |
![]() |
Título del Test:![]() PIA07 - Programación de Inteligencia Artificial Descripción: IABD - Programación de Inteligencia Artificial Tema 7 |




Comentarios |
---|
NO HAY REGISTROS |
¿Cuál es el comando utilizado para ejecutar un modelo Llama en Ollama?. ollama execute llama3.2. ollama start llama3.2. ollama launch llama3.2. ollama run llama3.2. ¿Cuál es una ventaja principal de aplicar Quantization a un modelo de lenguaje?. Aumenta el tamaño del modelo para mejorar su rendimiento. Permite entrenar el modelo más rápidamente con menos datos. Evita la necesidad de ajustar los hiperparámetros del modelo. Reduce el uso de memoria y acelera la inferencia sin afectar significativamente la precisión. ¿Qué significa el término "ventana de contexto" en los LLM?. El tiempo que tarda en responder el modelo. La cantidad de memoria RAM que necesita un modelo. La cantidad máxima de datos que un modelo puede procesar en una sola consulta. La cantidad de usuarios simultáneos que puede manejar. ¿Qué tipo de interfaz utiliza Ollama para interactuar con los modelos de IA?. Una aplicación móvil. Una interfaz de línea de comandos (CLI). Una interfaz web. Una interfaz gráfica de usuario (GUI). ¿Qué implica el proceso de "fine-tuning" en un modelo de lenguaje?. Aumentar la cantidad de tokens que el modelo puede procesar. Ajustar el hardware para mejorar el rendimiento. Modificar los parámetros de entrenamiento para especializar el modelo en una tarea específica. Hacer que el modelo sea más rápido reduciendo su tamaño. ¿Qué hace el parámetro share=True en el método launch() de Gradio?. Descarga la interfaz como una aplicación de escritorio. Permite ejecutar la interfaz localmente. Crea un enlace público temporal para acceder a la interfaz desde cualquier lugar. Publica la interfaz en una red interna. La integración de Hugging Face con Google Colab permite ejecutar modelos LLM sin necesidad de tener un hardware potente en el equipo local. Verdadero. Falso. ¿Qué valor de la clave "role" se utiliza para especificar el comportamiento general del modelo en un prompt?. "content". "system". "user". "assistant". ¿Cuál de las siguientes afirmaciones sobre el entorno de ejecución T4 en Google Colab es correcta?. El entorno T4 solo permite el uso de CPU y no puede acceder a GPU ni TPU. El entorno T4 está optimizado para acelerar tareas de deep learning utilizando la tecnología CUDA de NVIDIA. El entorno T4 es una opción exclusivamente disponible en versiones de pago de Google Colab. El entorno T4 no es adecuado para tareas de entrenamiento de modelos de deep learning. Los modelos LLM pueden recordar información de conversaciones pasadas debido a que almacenan todo el historial de interacción en la base de datos. Verdadero. Falso. ¿Cuál de los siguientes modelos no es de código abierto?. Llama. Qwen. Claude. DeepSeek. ¿Qué es Retrieval-Augmented Generation (RAG)?. Un tipo de algoritmo de compresión de datos en modelos de lenguaje. Una técnica que combina la recuperación de información con la generación de texto. Un modelo que genera respuestas basadas solo en su entrenamiento previo. Un método para reducir la cantidad de parámetros en los LLMs. ¿Cómo se define un token en los modelos de lenguaje?. Una etiqueta que clasifica el tipo de texto analizado por el modelo. Un código único utilizado para autenticar usuarios en sistemas de IA. Un parámetro que determina la cantidad de datos que el modelo puede almacenar. Un fragmento de texto que puede ser una palabra, parte de una palabra o un símbolo. Uno de los principales riesgos de la IA generativa es la generación de desinformación y propaganda, lo que puede afectar negativamente a la sociedad. Verdadero. Falso. ¿Qué valor de la clave "role" se utiliza para indicar una respuesta dada por el modelo?. "response". "result". "assistant". "answer". ¿Qué tipo de fuentes de datos puede utilizar RAG para mejorar sus respuestas?. Libros y documentos, pero no información en línea. Documentos, bases de datos, APIs y fuentes en tiempo real. Solo datos generados por otros modelos de IA. Solo bases de datos internas. ¿Qué significa el término '3b' en el nombre de un modelo, como "Llama-3.2-3b"?. La versión de ese modelo. La cantidad de parámetros en miles de millones. La cantidad de tokens que puede procesar. El número de capas en la red neuronal. ¿Cuál de los siguientes NO es un benchmark común para evaluar LLMs?. ARC. SPLM. MMLU. DROP. ¿Cuál es el propósito principal de la ingeniería de prompts?. Cambiar la estructura del modelo subyacente. Optimizar la calidad y precisión de las respuestas generadas. Reducir la memoria requerida por el modelo. Mejorar la velocidad de procesamiento del modelo. En los modelos de tipo LLM, la generación de la respuesta ocurre de manera iterativa, utilizando el token previamente generado como contexto para la predicción del siguiente. Verdadero. Falso. |