TEST TEMA 3 MULTIMEDIA
![]() |
![]() |
![]() |
Título del Test:![]() TEST TEMA 3 MULTIMEDIA Descripción: TEST TEMA 3 MULTIMEDIA |




Comentarios |
---|
NO HAY REGISTROS |
La teoría de la información afirma que los datos a comprimir contienen información sin significado ya que deberá ser interpretada posteriormente. V. F. La teoría de la información indica que la información (los bits) se agrupan en símbolos. V. F. Según la teoría de la información un bloque de datos sin significado considera los símbolos como bytes (información binaria simple). V. F. Un bloque de memoria sin significado es aquel que no ocupa espacio en la memoria. V. F. Según la teoría de la información un alfabeto es un conjunto, que puede ser vacío, de símbolos únicos. V. F. Un alfabeto nunca será finito. V. F. Según la teoría de la información, una secuencia es una serie de alfabetos. V. F. Según la teoría de la información una secuencia y un mensaje es lo mismo. V. F. Según la teoría de la información una secuencia se traduce en un buffer binario. V. F. Según la teoría de la información la probabilidad de ocurrencia de un símbolo es el ratio entre el longitud del mensaje y el número de ocurrencias. V. F. Según la teoría de la información la probabilidad de ocurrencia de un símbolos sirve para comprimir datos basándonos en redundancias. V. F. La teoría de la información de Shannon define la cantidad de información que contiene un mensaje según la probabilidad de ocurrencia de cada símbolo. V. F. La Entropía define la cantidad de información que contiene un mensaje según la probabilidad de ocurrencia de cada símbolo. V. F. En la teoría de la información de Shannon el log2(1/Pi) representa el número de bits de información que contiene el símbolo i. V. F. En la teoría de la información de Shannon el número de bits es directamente proporcional a la probabilidad. V. F. En la teoría de la información de Shannon los símbolos que más aparecen en el mensaje usarán más bits y los que menos probables menos bits. V. F. En la teoría de la información de Shannon cuanto mayor sea la entropía (H) más bits por símbolo (de media) hace falta para codificar la información. V. F. La Entropía (H) es antónimo de complejidad y variabilidad de los datos. V. F. La Entropía (H) sirve para optimizar los bits por símbolo en promedio. V. F. La fórmula de la eficiencia es Longitud media de símbolo / Entropía. V. F. La eficiencia óptima es igual a 0. V. F. Todas las técnicas para comprimir datos tienen pérdidas. V. F. Las compresiones con pérdida se usa solo para multimedia y aprovecha las características perceptuales humanas. V. F. La relación de compresión (ratio) entre lo que ocupan los datos sin comprimir y comprimidos. V. F. La relación de compresión y la tasa de compresión son lo mismo. V. F. La compresión con pérdidas distorsiona la señal en cierta medida, el SNR es la relación entre la señal pura y el ruido (distorsión). V. F. La compresión sin pérdidas se base en la eliminación de la redundancia de la señal y se usan solo los métodos estadísticos y los métodos basados en diccionario. V. F. Los métodos basados en diccionario están basados en la entropía. V. F. El RLE es el algoritmo más complejo de compresión sin pérdidas. V. F. RLE se basa en la eliminar la repetición consecutiva de símbolos. V. F. La tasa de compresión (rate) es en bits/píxel únicamente. V. F. RLE funciona bien cuando hay baja entropía, es decir, poca aleatoriedad, mucha redundancia y repeticiones. V. F. RLE funciona bien con mucha entropía ya que la compresión ocupará mucho menos. V. F. RLE se usa mucho para imágenes con pocos bits por pixel (2,4,16 colores). V. F. Los métodos estadísticos utilizan codificación de longitud variable basada en estadística como VLC o VSC. V. F. Los métodos estadísticos se basan en asignar códigos a los símbolos según su frecuencia de ocurrencia. Los códigos de más bits para aquellos símbolos más comunes y los más compactos para los símbolos más raros. V. F. Siempre se conocerá la probabilidad de cada símbolo en los métodos estadísticos. V. F. En los métodos estadísticos normalmente se asigna el mismo número de bits a cada símbolo o muestra, pero lo mejor es asignar códigos de menos bits a los símbolos más frecuentes. V. F. VSC: Todos los códigos ocupan lo mismo (en bits). V. F. La codificación Huffman asigna códigos a cada símbolo dependiendo de la frecuencia y lo va insertando en un árbol binario. V. F. En la codificación Huffman los símbolos más frecuentes están más cerca de los nodos hoja. V. F. En la codificación Huffman los símbolos más cerca de la raíz generan códigos más extensos. V. F. En la codificación Huffman, cada símbolo tiene en su nodo la probabilidad asociada a la frecuencia de aparición del mismo. V. F. Una vez que se ha completado el árbol binario usando codificación Huffman, el nodo raíz tiene que tener una probabilidad de 2.0. V. F. En la codificación Huffman los nodos hoja solo tienen los símbolos que se asocian a él, el nodo raíz es el que tiene las probabilidades. V. F. En la codificación Huffman nos interesa generar subarboles por cada símbolo e ir creando nuevos árboles a partir de dos subárboles de mayor frecuencia. V. F. En la codificación Huffman al generar un nuevo árbol el nodo raíz resultante de la unión tendrá como etiqueta la suma de las frecuencias de los dos árboles que se unen a la raíz. V. F. En la codificación Huffman al crear un nuevo árbol las dos ramas que se generan al unir los subárboles tendrán como etiqueta 1 para la rama izquierda y 0 para la derecha. V. F. Los pasos para obtener el código de un símbolo utilizando Huffman es recorrer de abajo a arriba el árbol desde el nodo hoja con el símbolo correspondiente apuntando la etiqueta de la rama hasta llegar a la raíz. V. F. El método Huffman no necesita que las probabilidades calculadas se escriban en el archivo comprimido. V. F. La compresión basada en diccionario usa la codificación Huffman. V. F. LZW crea un diccionario que almacena cadenas que representan secuencias de símbolos que aparecen en el mensaje. V. F. Según LZW a cada cadena se le asigna una letra que es lo que se escribe al comprimir. V. F. LZW necesita que el diccionario se incluya en el archivo comprimido. V. F. Para descomprimir en LZW no hay más que mirar los índices y mirar en el diccionario con que cadena se relaciona. V. F. Para determinar el tamaño de los índices de un diccionario en LZW no hay más que elevar N al cuadrado. V. F. Con Huffman para obtener el símbolo relacionado a un código no hay más que empezar por el bit de menor peso del código y descender por la rama con aquel valor hasta llegar a un nodo hoja. V. F. Inicialmente en el método LZW el diccionario está totalmente vacío. V. F. El diccionario en LZW ya viene creado y codificado en el archivo comprimido. V. F. Para codificar usando el diccionario en LZW se busca primero la menor cadena en el diccionario, si no existe, se crea. V. F. Para descomprimir no hace falta el diccionario en LZW ya que se crea sobre la marcha al descomprimir. V. F. LZW se usa en imágenes PNG. V. F. La compresión de datos sin pérdidas busca eliminar frecuencias y reducir la información respecto a las propias percepciones humanas, como quitar frecuencias de sonidos que no oimos. V. F. Las técnicas más básicas para comprimir con pérdida son solo el filtrado y la cuantización. V. F. La tasa de distorsión indica la alteración de la información comprimida respecto a la original. V. F. La tasa de distorsión E = f (y, y^) donde y es la señal original e y^la descomprimida, utiliza como f simples diferencias, error cuadrático medio o SNR. V. F. La DCPM es una técnica de compresión sin pérdidas y siempre codifica la señal en su totalidad. V. F. En DCPM las diferencias tienen menor rango dinámico, lo que se traduce en menor entropía (variaciones) y menos bits para codificar. V. F. DCPM no produce pérdidas en ninguna parte de la codificación. V. F. En DPCM no hay ninguna forma de evitar algo de acumulación de errores al decodificar. V. F. Para decodificar en DPCM se usan las diferencias codificadas y cuantizadas. V. F. La cuantización vectorial codifica un grupo de muestras juntas (un vector), preservando su correlación mútua. V. F. La cuantización es un método lento y complicado, que produce mucha redundancia. V. F. La ventaja de la cuantización vectorial sobre la cuantización es que la primera si tiene en cuenta la correlación local. V. F. La cuantización vectorial produce saltos bruscos y menos calidad ya que no tienen en cuenta los cambios suaves en la vecindad de una muestra. V. F. En la cuantización vectorial existe un libro de códigos que es análogo al diccionario en LZW y al árbol en Huffman. V. F. En la cuantización vectorial el libro de códigos solo se usa para codificar. V. F. En la cuantización vectorial, un vector es un trozo de señal usada como patrón para comprimir. V. F. En la cuantización vectorial el libro de códigos está conformado por algoritmos de codificación. V. F. Para codificar una señal usando cuantización vectorial, tenemos que buscar aquel vector del libro de códigos que menos se le parezca y asignarle el índice correspondiente al mismo. V. F. En la decodificación por cuantización vectorial no hay más que usar el libro de códigos para sustituir el índice de la codificación por el vector correspondiente. V. F. Uno de los problemas con el libro de códigos es como se calculan los vectores y cuantos se deben usar. V. F. El libro de códigos siempre usará en todas las codificaciones el mismo número de muestras por vector. V. F. En la cuantización vectorial los vectores más largos son más difíciles de usar y a la larga se necesitarían más. V. F. En la cuantización vectorial a más vectores, mejor descompresión de la señal, pero se ocupa más espacio. V. F. La codificación por transformada busca transformar las señales a otras más simples y de menor peso. V. F. La codificación por transformada no se puede descodificar de ninguna forma por eso está en desuso. V. F. La codificación por transformada es de forma teórica sin pérdidas pero se combina con cuantización. V. F. La codificación por transformada no usa transformadas con Fourier o la discreta del coseno. V. F. Wavelet es de la transformadas más utilizadas en la codificación por transformada. V. F. Las transformadas de Fourier, Wavalet y DCT son utilizadas para tipos de datos multimedia muy concretos. V. F. Normalmente la codificación por transformada se combina también con otros esquemas de compresión. V. F. En la codificación por transformada perdemos información en el dominio de la frecuencia ya que los coeficientes ponderados de la señal se cuantizan. V. F. No es necesario dividir la señal en bloques para codificar por transformadas en el dominio de la frecuencia ya que los coeficientes son fáciles de manejar hasta con señales grandes. V. F. En la codificación por transformadas de Wavalet nos enfocamos en representar la señal primero con versiones de baja frecuencia, posteriormente añadimos componentes de mayor frecuencia hasta llegar a la señal original. V. F. La transformada de Wavalte para codificación indica que una señal se puede descomponer en la suma de varias versiones de la misma señal con distintas frecuencias. V. F. En subband coding dividimos una señal en bandas de frecuencia y codificamos cada banda espectral de la misma forma cada una de manera eficiente. V. F. Los algoritmos de compresión con pérdida y sin pérdida nunca se pueden mezclar entre sí. V. F. La compresión simétrica es aquella en la que uno de los procesos de compresión/descompresión es más lento. V. F. La compresión asimétrica suele tener una compresión más rápida que la decompresión. V. F. La compresión simétrica se utiliza para comprimir y descomprimir continuamente. V. F. La compresión asimétrica es con compresión lenta pero proporciona calidad. V. F. La compresión simétrica tiene una descompresión más rápida que la compresión. V. F. La velocidad de un compresor/descompresor no es realmente importante. V. F. |