option
Cuestiones
ayuda
daypo
buscar.php

Imagen

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Imagen

Descripción:
SM Fic 2026

Fecha de Creación: 2026/04/22

Categoría: Otros

Número Preguntas: 75

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

¿Cuál de las siguientes afirmaciones describe mejor la diferencia entre 1080i y 1080p, suponiendo que ambas usan 1920×1080 píxeles?. 1080i usa reescalado de imagen desde una resolución inferior (como puede ser 720p) para alcanzar los 1080p, por eso requiere menos ancho de banda. 1080p usa exploración progresiva, mientras que 1080i emplea entrelazado, aunque ambas comparten la misma resolución espacial nominal. 1080i solo puede emplearse en pantallas CRT, mientras que 1080p solo puede emplearse en LED. 1080p tiene más profundidad de color que 1080i.

En una pantalla de igual tamaño físico, si se pasa de una resolución 1920×1080 a 3840×2160, ¿cuál de las siguientes consecuencias es la más correcta según las diapositivas?. El gamut del dispositivo aumenta automáticamente. La densidad de píxel aumenta y el tamaño físico de cada píxel disminuye. La profundidad de color se duplica necesariamente. La imagen pasa a usar una paleta en lugar de espacio de color completo.

¿Qué enunciado diferencia con mayor precisión un modelo de color de un espacio de color?. Un modelo de color especifica las componentes con las que se describe un color, mientras que un espacio de color concreta qué colores pueden representarse dentro de esa formulación. Un modelo de color define colores absolutos e independientes del dispositivo, mientras que un espacio de color depende siempre del hardware. Un modelo de color determina el gamut de forma unívoca, mientras que un espacio de color solo fija la profundidad de bits. Un modelo de color y un espacio de color son equivalentes, salvo que el espacio de color se usa únicamente en impresión.

¿Cuál de las siguientes afirmaciones sobre paletas de color es más correcta?. Una paleta aumenta el número real de colores que un sistema puede representar simultáneamente. Una paleta es inútil en imágenes con pocos colores. Una paleta consiste en usar un subconjunto del espacio de color, algo útil cuando hay limitaciones de memoria o cuando la imagen contiene pocos colores. JPEG obliga siempre a usar paleta de color.

Si una imagen se representa como bitmap y otra como vectorial, cuál de las siguientes afirmaciones es más correcta?. La vectorial escala mejor, pero puede ser poco adecuada para fotos y reconstrucciones complejas. La vectorial es ideal para fotografías porque describe mejor los detalles locales. La bitmap siempre ocupa menos que la vectorial. La bitmap no puede editarse geométricamente en absoluto.

Si el tamaño del frame buffer depende del número de píxeles y de la profundidad de color, ¿qué cambio lo incrementa con seguridad?. Sustituir bitmap por vectorial sin cambiar nada más. Reducir la resolución y la profundidad. Aumentar la resolución manteniendo la profundidad. Usar una imagen con colores suaves.

¿Cuál de las siguientes afirmaciones sobre la compresión lossy es la más correcta?. Solo se basa en reducir la resolución espacial. No tiene relación con la percepción humana. Siempre elimina la luminancia antes que la crominancia. En imágenes, puede apoyarse en transformadas y en submuestreo de crominancia.

Una situación en la que RLE tendría más sentido es: Una fotografía con transiciones suaves y mucho ruido fino. Un gráfico sencillo con grandes zonas del mismo color repetido. Una imagen RAW de cámara. Un vídeo con alto movimiento.

En una reconstrucción extremadamente agresiva, se conserva solo el coeficiente DC de cada bloque y se eliminan todos los AC. ¿Cómo se verá más probablemente la imagen?. Muy nítida, pero con menos color. Formada por bloques casi uniformes que conservan la luminosidad media local. Igual que la original, porque el DC concentra toda la información importante. Con ruido aleatorio de alta frecuencia.

En el preprocesado de JPEG se resta 127 a cada valor de píxel antes de aplicar la DCT. ¿Qué sentido tiene hacer eso?. Evitar que aparezcan coeficientes AC. Centrar los valores alrededor de 0 para facilitar la transformación. Reducir el tamaño de la imagen antes del submuestreo. Hacer que todos los píxeles queden entre 0 y 127.

Si en un codificador JPEG se aumentan los valores de la matriz de cuantificación, ¿cuál de estos efectos es el más probable?. Habrá menos pérdida y peor compresión. Habrá más coeficientes no nulos y más detalle. Habrá más coeficientes que pasen a cero, mejor compresión y peor calidad. La DCT dejará de ser invertible.

Un alumno dice: “La DCT ya comprime la imagen, porque pasa del dominio espacial al de frecuencia”. ¿Cuál es la mejor respuesta?. Es correcto: cualquier transformada reduce información. Es correcto, pero solo si la imagen está en escala de grises. No es correcto: la DCT solo cambia de representación; la pérdida aparece en la cuantificación. No es correcto, porque la DCT se aplica después de Huffman.

Si quieres guardar una foto de una puesta de sol con muchos degradados suaves y quieres una compresión eficiente, qué formato escogerías?. PNG. JPEG. GIF. SVG.

En codificaciones como Y’UV o YCbCr, qué componente representa la luma (información de brillo) y suele preservarse con más fidelidad porque el ojo humano es más sensible a sus variaciones?. Y'. U. V. Cr.

¿Cuál de estas afirmaciones describe mejor el algoritmo de Huffman?. Sustituye tiradas de valores idénticos por un valor y su número de ocurrencias. Reduce el número medio de bits necesarios para representar una secuencia de símbolos según su probabilidad de aparición. Asigna a cada símbolo un código binario de longitud fija, independientemente de su frecuencia de aparición. Reemplaza secuencias o patrones repetidos por referencias a un diccionario previamente construido.

Imagina que quieres archivar un fotograma de la jugada de la expulsión de Camavinga en el Bayern Múnich–Real Madrid en formato YCC, con resolución 720×576 y 24 bits, y lo conviertes de 4:4:4 a 4:2:0 como en el ejemplo del tema. ¿Cuál sería el tamaño final correcto?. 9,95328 Mbits. 7,46496 Mbits. 4,97664 Mbits. 2,48832 Mbits.

¿En qué se diferencia el proceso de descodificación entrópica de la descodificación de la componente DC durante la reconstrucción de una imagen JPEG?. La descodificación entrópica recupera los colores (Cb y Cr), mientras que la de la componente DC recupera solo el brillo (Y). La descodificación entrópica es un proceso con pérdida (lossy), mientras que la descodificación DC es un proceso sin pérdida (lossless). La descodificación entrópica revierte el proceso de Huffman/RLE para obtener los coeficientes cuantificados, mientras que la descodificación DC suma la diferencia predicha al valor del bloque anterior para obtener el valor real. Todas las opciones anteriores son correctas.

Sobre el proceso de Submuestreo de Crominancia en el estándar JPEG, ¿cuál de las siguientes afirmaciones es correcta?. El esquema 4:4:4 indica que se ha eliminado el 50% de la información de color para ahorrar espacio. El submuestreo se aplica sobre el componente de luminancia (Y) para reducir el brillo de la imagen. El esquema 4:2:0 reduce la resolución de los componentes Cb y Cr tanto en la dimensión horizontal como en la vertical. Todas las opciones anteriores son correctas.

¿En qué consiste la técnica DPCM aplicada específicamente a la componente DC de cada bloque en JPEG?. En codificar únicamente la diferencia entre el coeficiente DC del bloque actual y el del bloque anterior. En eliminar los componentes de color Cb y Cr para que solo quede la información de luminancia. En aplicar una matriz de cuantificación mucho más agresiva que la utilizada para los coeficientes AC. En reordenar los coeficientes del bloque siguiendo una trayectoria en zigzag para agrupar los ceros.

Un aficionado del Real Vardrid está analizando imágenes de la expulsión de Error García para debatir con un culé. Tras capturar una fotografía del supuesto contacto de la acción, decide guardarla usando el estándar JPEG con un esquema de submuestreo 4:2:2. ¿Cómo afectará esta decisión específicamente a la información de los bloques de la imagen antes de aplicar la DCT?. Se descartará la mitad de la información de luminancia (Y) para que el archivo ocupe menos espacio en el servidor de la facultad. Se reducirá a la mitad la resolución horizontal de los componentes de color (Cb y Cr), manteniendo la resolución vertical intacta. La imagen se dividirá en bloques de 16 x 16 en lugar de los bloques estándar de 8 x 8 para acelerar el procesamiento en las máquinas del laboratorio. Se eliminarán por completo los componentes de crominancia, dejando la foto de la jugada en una escala de grises perfecta.

¿Cuál es la causa principal de que una misma tripleta RGB se visualice de manera diferente según el dispositivo?. Porque el sistema visual humano no interpreta correctamente el modelo RGB. Porque RGB no representa correctamente las propiedades físicas de la luz. Porque la densidad de píxeles del monitor del dispositivo modifica la frecuencia de la luz. Porque cada dispositivo implementa su propio espacio de color ligado al hardware.

¿Por qué el estándar JPEG emplea la Transformada de Coseno Discreta en lugar de la Transformada de Fourier?. Porque permite manejar valores complejos con mayor exactitud. Porque tiene una menor complejidad computacional que la Transformada de Fourier. Porque opera con valores reales y logra una buena compactación de energía. Porque permite reconstruir la imagen sin pérdida de calidad.

¿Cuál es el principal beneficio de la transformada de Karhunen-Loève en compresión de señales?. Optimiza la representación minimizando el error cuadrático medio. Su implementación es más directa que otras transformadas. No requiere el uso de matrices estadísticas. Aplica en el dominio espacial.

Dentro de un bloque 8x8 transformado mediante DCT, ¿qué información contiene el coeficiente DC?. La componente de mayor frecuencia del bloque. La perturbación generada por la cuantificación. El nivel promedio de intensidad del bloque. La diferencia entre píxeles consecutivos.

¿Cuál de las siguientes afirmaciones sobre la fase de cuantificación en JPEG es correcta?. La cuantificación solo afecta a los coeficientes de alta frecuencia, permitiendo reducir el tamaño sin perder calidad visual. La cuantificación reduce la precisión de los coeficientes y permite reducir significativamente el tamaño del archivo, aunque afecta a la calidad de la imagen. La cuantificación se realiza antes de la Transformada Discreta del Coseno (DCT) y mejora la precisión de la compresión. La cuantificación no tiene un impacto importante en la calidad, ya que se realiza de manera completamente reversible.

¿Qué ventaja tiene el modo progresivo de JPEG frente al modo baseline (secuencial)?. El modo progresivo permite comprimir más eficazmente las imágenes con menos pérdidas de calidad. En el modo progresivo, la imagen completa se carga de manera continua, lo que reduce el tiempo de descarga. El modo progresivo permite que una imagen se muestre gradualmente, primero con una baja resolución y luego refinando los detalles conforme más datos son recibidos. El modo progresivo permite transmitir la imagen en varias pasadas, mejorando la visualización inicial pero sin comprometer la calidad fina.

¿Cómo afecta la cuantificación en JPEG a la calidad de la imagen?. La cuantificación mejora la calidad de la imagen al ajustar los detalles finos para reducir la pérdida de datos. La cuantificación no afecta significativamente la calidad, solo reduce el tamaño del archivo al comprimir las imágenes de forma más eficiente. La cuantificación introduce una pérdida irreversible de información, especialmente en detalles finos y altas frecuencias. La cuantificación afecta la calidad de la imagen, pero solo en imágenes con detalles complejos como texturas o bordes nítidos.

¿Cuál de las siguientes alternativas a JPEG utiliza una codificación basada en wavelets y ofrece una mejor compresión sin pérdida de calidad en muchos casos?. JPEG2000. WebP. PNG. GIF.

¿Cuál es el propósito de la Transformada Discreta del Coseno (DCT) en JPEG?. Eliminar las frecuencias altas de la imagen, dejando solo las más relevantes para mejorar la compresión y reducir el tamaño del archivo. Convertir la imagen del dominio espacial al dominio de la frecuencia, permitiendo representar la imagen en términos de frecuencias bajas (información importante) y frecuencias altas (detalles y ruido). Realizar la segmentación de la imagen en bloques de 8x8 píxeles para que se puedan aplicar técnicas de compresión más eficaces. Ajustar la imagen para mejorar su calidad, destacando las zonas de alta frecuencia que contienen los detalles más importantes de la imagen.

Un fotógrafo tiene una imagen digital de 1000 x 1000 píxeles. Si decide imprimirla en un papel de 10 x 10 pulgadas, la resolución de impresión será de 100 ppp (puntos por pulgada). ¿Qué ocurrirá con la calidad visual si decide imprimir esa misma imagen (sin cambiar el número de píxeles) en un cartel de 100 x 100 pulgadas?. La imagen mantendrá su nitidez original al conservar el mismo número de muestras totales. La densidad bajará a 10 ppp, haciendo que el tamaño físico del píxel sea perceptible y la imagen se vea "pixelada". La impresora realizará automáticamente una interpolación que añadirá información real de detalle para cubrir el área. El FrameBuffer de la impresora duplicará la profundidad de bit para compensar la pérdida de densidad.

En el proceso de cuantificación, si pasamos de una profundidad de color de 8 bits a una de 2 bits, ¿cuál es el efecto técnico más probable que sufra la imagen?. El tamaño del archivo se reducirá, pero la resolución espacial de la imagen se mantendrá intacta. Aparecerá el efecto "banding" o posterización al reducirse el número de niveles de intensidad de 256 a solo 4. El error de cuantificación disminuirá al tener que asignar cada muestra a un número menor de niveles posibles. La luminancia (Y) se verá afectada por un ruido de alta frecuencia, pero la crominancia (Cb/Cr) permanecerá inalterada.

El modelo de color YCbCr es fundamental para la compresión de imagen. Si un sistema de transmisión sufre un fallo y pierde por completo la información de las capas Cb y Cr, pero mantiene la capa Y intacta, el usuario verá: Una pantalla negra, ya que sin color no hay imagen. Una imagen con los colores invertidos. Una imagen perfecta en blanco y negro (escala de grises). Una imagen borrosa donde solo se distinguen las manchas de color.

Estás viendo una película de Hollywood y el protagonista grita: "¡Aumenta el zoom en el reflejo de ese ojo!" y de repente una mancha de 4 píxeles se convierte en una cara perfecta en 4K. Según la teoría, ¿por qué esto es un insulto a la ciencia?. Porque el ordenador no tiene suficiente RAM para procesar tanto drama. Porque el modelo YCbCr prohíbe ampliar reflejos los fines de semana. Porque el reflejo de un ojo siempre es vectorial y no se puede ampliar. Porque en un mapa de bits, al ampliar, el ordenador tiene que "inventarse" (interpolar) información que no existe en el muestreo original.

Si el ojo humano fuera una cámara digital perfecta y tuviéramos la misma sensibilidad al color que al brillo, ¿qué le pasaría al pobre Alumno B (el del JPEG)?. El submuestreo de crominancia (Chroma Subsampling) dejaría de ser una técnica viable, ya que los errores de color serían tan evidentes como los de brillo. El modelo de color YCbCr dejaría de tener utilidad técnica, obligando a trabajar exclusivamente en espacios RGB absolutos. La Transformada Discreta del Coseno (DCT) sería incapaz de eliminar las frecuencias espaciales altas en el bloque de 8x8. La cuantificación basada en la frecuencia espacial perdería su eficacia al ser nuestra sensibilidad uniforme en todo el espectro.

Estás viendo una imagen muy borrosa y decides “aumentar los PPI desde Photoshop” sin cambiar el número de píxeles. ¿qué está pasando realmente?. Solo cambia la forma en que se imprime o muestra físicamente la imagen. Se están creando nuevos píxeles automáticamente. Se mejora la calidad porque aumenta la densidad real. Se convierten los píxeles en vectores.

Estás comparando dos imágenes: una tiene más resolución, pero la otra más tamaño físico. ¿Cuál se verá más nítida?. La de mayor tamaño. La de mayor resolución. Depende del PPI. La más nítida será siempre la que tenga más píxeles totales, sin importar su tamaño físico.

Tienes una imagen en un espacio de color muy amplio y la visualizas en un dispositivo con una gama de color más reducida. ¿Qué fenómeno ocurre y cuál es su consecuencia principal?. Se reduce la resolución espacial. Se produce aliasing. Se recortan colores fuera de gama. Se aumenta el contraste automáticamente.

¿Por qué en formatos como 4:2:0 se reduce la resolución de crominancia y no la de luminancia?. Porque el ojo percibe mejor el brillo que el color. Porque la crominancia ocupa más memoria. Porque los sensores captan solo luminancia. Porque el color no influye en la imagen.

Tienes dos pantallas situadas a una misma distancia de uso estándar (por ejemplo, un smartphone a 30 cm). La pantalla A tiene una mayor resolución total, mientras que la pantalla B tiene una mayor densidad de píxeles (PPI). ¿Cuál de las siguientes afirmaciones es la más correcta?. La pantalla A se percibirá siempre con mejor calidad de imagen. La pantalla B ofrecerá una mayor nitidez en los detalles finos. Ambas pantallas mostrarán la misma definición ante el ojo humano. La nitidez de ambas pantallas dependerá del modelo de color usado.

¿Qué relación existe entre un espacio de color como sRGB y el diagrama de cromaticidad de la Comisión Internacional de Iluminación?. sRGB define todos los colores visibles representados en el diagrama. sRGB corresponde a una región (gamut) dentro del diagrama de cromaticidad. El diagrama de cromaticidad es una representación tridimensional de sRGB. sRGB y el diagrama de cromaticidad son conceptos independientes.

¿Por qué dos dispositivos distintos pueden mostrar colores diferentes usando los mismos valores RGB?. Porque RGB depende del sistema operativo. Porque los valores RGB no incluyen información de brillo. Porque cada dispositivo tiene un gamut y características físicas distintas. Porque RGB solo funciona correctamente en CRT.

En relación con sRGB y Adobe RGB, ¿cuál es la diferencia más relevante?. Adobe RGB utiliza más bits por componente que sRGB. sRGB es independiente del hardware y Adobe RGB no. Adobe RGB cubre un gamut más amplio que sRGB. sRGB no está basado en el modelo RGB.

El modelo de color CMYK se usa principalmente en impresión. ¿Por qué las impresoras incluyen un cartucho negro independiente (K)?. Porque el negro es el color más frecuente en textos. Porque mezclar C+M+Y para hacer negro consumiría hasta 3 veces más tinta. Porque el modelo CMY no puede representar el negro. Porque el negro es un color primario en los modelos sustractivos.

El ojo humano tiene bastones y conos en la retina. ¿Qué técnica de compresión de imagen explota directamente esta asimetría sensorial?. Run-Length Encoding (RLE). Codificación Huffman. Submuestreo de crominancia. DCT (Transformada Discreta del Coseno).

Moha debe elegir el modelo de color más adecuado para dos tareas: mostrar una interfaz en un monitor para enseña un E/R a Alejandro y preparar un folleto para la imprenta, con motivo de que Óscar le parece el mejor profesor de la FIC. ¿Qué opción le recomendarías (la correcta)?. CMYK para monitor y RGB para imprenta. RGB para monitor y CMYK para imprenta. HSL para monitor y YPbPr para imprenta. CMYK en ambos casos, porque es el modelo más preciso.

¿Por qué los gráficos vectoriales NO son adecuados para fotografías o pinturas complejas?. Porque no soportan el modelo de color RGB. Porque no se pueden escalar sin perder calidad. Porque podrían requerir decenas de miles de comandos matemáticos para representarlas. Porque ocupan más espacio que los bitmaps en imágenes complejas.

¿Qué ocurre si una imagen JPEG se edita y guarda repetidamente?. La calidad se mantiene constante porque la DCT es reversible. Solo se pierde información en la primera compresión. Se acumula pérdida de calidad debido a la cuantificación repetida. Se mantiene la calidad si no se modifican los coeficientes AC.

¿Cuál es la principal razón por la que la DCT se utiliza en lugar de la transformada de Karhunen–Loève (KL) en JPEG?. Porque la DCT es no lineal. Porque la KL es óptima en términos de compresión cuando la información de entrada está poco correlada. Porque la DCT no requiere calcular la matriz de covarianza y es más práctica computacionalmente. Porque la KL no concentra la energía en bajas frecuencias.

¿Qué propiedad permite que la DCT logre una buena compresión en imágenes naturales?. La independencia estadística de los píxeles. La concentración de energía en pocos coeficientes de baja frecuencia. La uniformidad de los coeficientes en frecuencia resultantes. El uso de un conjunto de bases fijas basadas en variar la frecuencia de señales coseno.

¿Durante la cuantificación JPEG, qué efecto tiene aumentar uniformemente todos los valores de la tabla de cuantificación?. Reduce el número de coeficientes AC que se anulan. Aumenta la energía del coeficiente DC. Incrementa la probabilidad de secuencias largas de ceros tras el zig-zag. Disminuye la compresión al reducir la dispersión estadística de los coeficientes.

¿Qué ocurre si un bloque JPEG contiene un coeficiente AC distinto de cero en la última posición del zig-zag?. Se codifica como EOB. Se codifica como (RUNLENGTH = 63, SIZE). Se codifica como ZRL seguido del valor. Se codifica como un par (RUNLENGTH, SIZE) estándar.

Por las noches me gusta ver Netflix con mi teléfono en la cama, ¿qué propiedad tiene que cumplir la pantalla?. Tener siempre el mayor número posible de píxeles, aunque no se distingan. Necesitar más píxeles cuanto más lejos esté el móvil de la cara. Tener suficiente PPI para que no se vean los píxeles. Que la resolución solo importe si el móvil está a menos de 10 cm de los ojos.

¿Por qué se transforma la imagen de RGB a YCC?. Para mostrar colores nuevos que RGB no puede representar. Para corregir la respuesta no lineal de los valores RGB y adaptar la imagen al brillo que mostrará la pantalla. Para separar la información de luminosidad y del color. Para reducir la resolución del vídeo sin perder sonido.

Si estoy editando una foto en el móvil y quiero imprimirla en una buena impresora, ¿para qué nos sirve el perfil de color ICC?. Para obligar a que el portátil y la impresora muestren exactamente los mismos colores sin importar sus limitaciones físicas. Para mantener la información de color de la imagen, pero no la resolución ni la calidad. Para traducir los colores entre dispositivos usando un espacio de referencia común. Para aumentar automáticamente el brillo y contraste de la imagen antes de imprimirla.

Imaginate que estas jugando al FIFA en tu monitor, ¿qué función cumple la controladora de vídeo respecto al Frame Buffer donde está almacenada la imagen?. Guardar permanentemente cada fotograma para no tener que volver a generarlo nunca más. Convertir los datos del frame buffer en la imagen que se muestra en el monitor. Comprimir la imagen en tiempo real para ahorrar energía durante la reproducción. Generar y sincronizar la señal de refresco para que el monitor actualice la imagen de forma continua y sin parpadeos.

Si una imagen con grandes áreas de color plano se guarda en formato PNG y otra similar en JPEG, ¿Por qué el primero podría ofrecer mejor calidad visual y, en algunos casos, incluso un tamaño comparable o menor?. Porque PNG aplica una compresión con pérdidas más agresiva que elimina detalles innecesarios en zonas uniformes. Porque JPEG introduce artefactos en zonas uniformes mientras PNG conserva exactamente los valores originales sin distorsión. Porque PNG reduce automáticamente la resolución de la imagen para optimizar el tamaño del archivo final. Porque JPEG utiliza únicamente codificación entrópica, mientras PNG emplea transformadas en frecuencia más eficientes.

En un sistema de compresión de imagen en espacio YCbCr se evalúan los siguientes esquemas de submuestreo: 1) Submuestreo 4:1:1 aplicado únicamente a las componentes de crominancia (Cb y Cr) 2) Submuestreo 4:4:0 aplicado a la componente de luminancia (Y), manteniendo Cb y Cr sin submuestrear 3) Submuestreo 4:1:1 aplicado directamente sobre las tres componentes RGB ¿Cuál de las siguientes afirmaciones es correcta?. El caso 1 suele mantener mejor la calidad perceptual porque reduce resolución de color en horizontal, donde el ojo es menos sensible. El caso 2 mantiene mejor la calidad porque la luminancia puede degradarse más que la crominancia sin impacto visual notable. El caso 3 es equivalente al caso 1 porque ambos reducen el mismo número de muestras totales, siendo preferible porque evita una operación de transformación extra. Todos los casos producen efectos visuales similares al tratarse del mismo ratio de submuestreo.

En un sistema de compresión basado en DCT se comparan dos estrategias de cuantificación: 1) Cuantificación no uniforme, como en JPEG, que penaliza más las altas frecuencias 2) Cuantificación uniforme, aplicando el mismo paso de cuantificación a todos los coeficientes ¿En cuál de las siguientes situaciones la cuantificación uniforme podría ofrecer una ventaja frente a la utilizada en JPEG?. En imágenes con ruido aleatorio elevado, donde todas las frecuencias deben eliminarse de manera uniforme para mejorar la calidad. En imágenes naturales con iluminación suave, donde las altas frecuencias contienen la mayor parte de la información visual relevante. En imágenes con grandes regiones uniformes, donde las bajas frecuencias pueden eliminarse sin afectar a la percepción global. En imágenes con texturas finas o patrones periódicos, donde se desea preservar de forma equilibrada todas las frecuencias espaciales.

Compara Huffman y LZW: ¿En qué tipo de imágenes uno puede superar claramente al otro y por qué?. LZW suele ser mejor en imágenes con patrones repetitivos largos, mientras Huffman se basa solo en frecuencias de símbolos individuales. Huffman es más eficiente en imágenes con secuencias largas repetidas, mientras LZW funciona mejor con datos completamente aleatorios. Ambos algoritmos siempre producen resultados idénticos porque utilizan el mismo principio de compresión sin pérdidas. LZW es más eficiente en imágenes con mucho ruido, mientras Huffman elimina redundancias estructurales complejas.

En la fase de preprocesado, se aplica un desplazamiento de nivel restando una constante a la imagen original. ¿Cuál es la justificación conceptual de esta operación?. Eliminar los componentes de alta frecuencia del espacio de color RGB original de laimagen. Reducir el rango dinámico total para ahorrar un bit por cada muestra de luminancia. Centrar la señal alredor del cero para optimizar la codificación del coeficiente DC. Ajustar la luminancia a los niveles de cuantificación globales definidos para el bloque.

En el cálculo de la transformada de coseno, se utiliza un factor de escala o normalización. ¿Por qué es necesaria la inclusión de este factor de normalización?. Reducir la energía de las altas frecuencias para la fase de cuantificación y mejorar la tasa de comprensión final. Eliminar el ruido de fase introducido por el sensor durante la captura inicial de la foto. Normalizar los valores AC para evitar desbordamientos en la memoria del buffer de salida. Garantizar la ortonormalidad de las bases para optimizar la operación de transformación.

Una vez realizada la descodificación entrópica, ¿que variante de la transformada se aplica para reconstruir los bloques y volver al dominio espacial?. Una aproximación de Fourier basada en series de senos discretos en 2D sin bias o desplazamientos de nivel. La IDCT de tipo II aplicada tras la de-cuantificación de cada bloque de 8x8 píxels para reconstruir la señal de luminancia. La aplicación de la DCT tipo III de forma global sobre todos los bloques de la imagen para garantizar coherencia. La transformada entera para simplificar el coste computacional de la operación inversa teniendo en cuenta que los coeficientes de-cuantizados son valores enteros.

El estándar JPEG define la compresión, pero el archivo final suele ser JFIF o EXIF. ¿Por qué es necesario el uso de estes estándares adicionales?. Proporcionar la estructura para encapsular metadatos y tablas de reconstrucción. Comprimir los datos redundantes que el estándar JPEG original no es quien de procesar. Proteger la integridad de los datos mediante algoritmos de cifrado de clave pública. Multiplexar los canales de luminancia y crominancia para su transmisión serie.

El efecto bloque es la degradación visual más común en JPEG. ¿Cuál es la causa matemática raíz que justifica su aparición al decodificar la imagen?. El uso de tablas de cuantificación no lineales para procesar la luminancia Y. La falta de bits de refinamiento en la codificación por planos de bits del modo Baseline. El submuestreo de crominancia y el aliasing provocado en el dominio de la frecuencia. La cuantificación independente y la periodicidad de las funciones base de la DCT.

En relación con los gráficos vectoriales frente a los bitmaps, ¿cuál de las siguientes afirmaciones es correcta?. Los gráficos vectoriales resultan especialmente adecuados para aplicar transformaciones geométricas simples como escalar o cambiar la perspectiva. Los bitmaps son más adecuados que los vectoriales para edición geométrica intensiva porque permiten escalar sin deformación. Los gráficos vectoriales son el formato idóneo para fotografías complejas porque se reconstruyen más rápido que los bitmaps. Los bitmaps no representan colores, sino únicamente posiciones espaciales.

¿Cuál es la principal ventaja del formato RAW frente a JPEG?. Siempre ocupa menos espacio. Permite ajustes y conversiones posteriores sin pérdida de calidad. Usa compresión con pérdidas más eficiente. Está pensado para dibujos lineales y texto.

¿Qué opción se caracteriza por estar basada en HEVC y ofrecer aproximadamente la misma calidad que JPEG con la mitad de tamaño, aunque con el inconveniente de las patentes?. JPEG2000. GIF. TIFF. BPG.

¿Qué indica el valor de PPI (Píxeles Por Pulgada) en una pantalla?. La resolución total de la pantalla expresada como número de píxeles horizontales y verticales, normalizada respecto al tamaño físico del panel. La capacidad del ojo humano para distinguir píxeles individuales en función de la distancia de observación y la frecuencia espacial de la imagen. La densidad de píxeles, calculada como la relación entre la diagonal en píxeles y la diagonal en pulgadas. La cantidad de información de color por unidad de superficie, dependiente de la profundidad de bits y del espacio de color utilizado.

¿Cuál es la principal diferencia conceptual entre un modelo de color aditivo (RGB) y uno sustractivo (CMYK)?. RGB modela directamente la percepción visual humana, mientras que CMYK es una aproximación basada en limitaciones físicas de impresión. En RGB el color se genera por suma de intensidades de luz, mientras que en CMYK se obtiene por la luz reflejada tras la absorción de las tintas. RGB representa colores en un espacio tridimensional lineal, mientras que CMYK utiliza un espacio no lineal dependiente del dispositivo. En RGB los colores primarios son independientes, mientras que en CMYK están correlacionados mediante perfiles de color.

En el contexto de la codificación YCC derivada del modelo RGB, ¿qué ventaja principal se busca al separar la señal en Y y Cb/Cr?. Reducir la redundancia espacial separando la imagen en componentes independientes para facilitar la transformada DCT. Permitir representar la imagen en un espacio de color perceptualmente uniforme similar al modelo CIE. Aprovechar que el ojo humano es más sensible a la luminancia que a la crominancia, permitiendo comprimir o submuestrear el color. Separar completamente la información de color del brillo para evitar la necesidad de corrección gamma en la señal.

¿Cuál es la función principal del Frame Buffer en un sistema de visualización?. Almacenar temporalmente la imagen en formato comprimido antes de ser procesada por la GPU. Mantener una representación digital de la imagen donde cada posición de memoria corresponde al color de un píxel en pantalla. Convertir los valores digitales de color en señales analógicas o digitales adecuadas para el monitor. Gestionar la sincronización vertical y horizontal para evitar artefactos como el tearing.

Según los principios básicos del estándar JPEG, ¿para qué tipo de imágenes está principalmente diseñado y optimizado?. Dibujos lineales, arte digital y textos con contrastes abruptos. Imágenes que sufrirán múltiples procesos de edición y guardado a lo largo del tiempo. Fotografías y escenas realistas con transiciones suaves de tono y color. Gráficos vectoriales para su visualización en navegadores web.

Durante la fase de preprocesado del algoritmo JPEG, además de la conversión de espacio de color y el submuestreo, ¿qué operación se aplica a los valores de los píxeles antes de introducirlos en la transformada DCT?. Se elevan al cuadrado para exagerar los bordes y facilitar la detección de contornos. Se realiza un desplazamiento de nivel (level shifting) restando 128 (en imágenes de 8 bits) para centrar los valores alrededor del cero. Se multiplican por una matriz de pesos para darle más importancia a las frecuencias altas. Se descartan automáticamente los píxeles redundantes mediante un algoritmo de predicción espacia.

El estándar JPEG es un método de compresión con pérdida (lossy). Atendiendo al algoritmo de codificación completo, ¿en qué fases específicas se produce una pérdida irreversible de la información original de la imagen?. Exclusivamente durante la fase de Cuantificación, al dividir y redondear los coeficientes de la DCT. En la transformación al espacio de color YCbCr junto con el submuestreo de crominancia (preprocesado), y posteriormente en la fase de Cuantificación. Exclusivamente en la Transformada Discreta del Coseno (DCT), debido a que es una operación matemática no invertible. Durante la Codificación Entrópica (Huffman y RLE), al descartar las cadenas de ceros redundantes.

¿Cuál de los siguientes es uno de los problemas o defectos visuales más característicos de la compresión JPEG, especialmente a tasas de compresión altas?. El efecto de bloque (blockiness), debido a que la imagen se procesa en cuadrículas independientes que no coinciden en los bordes. La reducción obligatoria a una paleta de 256 colores, oscureciendo la imagen. La pérdida de sincronización entre las líneas pares e impares de la imagen. La incapacidad de cargar la imagen en una web si no se ha descargado el archivo al 100%.

Denunciar Test