option
Cuestiones
ayuda
daypo
buscar.php

SM VoIP

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
SM VoIP

Descripción:
SM VoIP FIC 2026 2º Cuatrimestre

Fecha de Creación: 2026/03/25

Categoría: Otros

Número Preguntas: 85

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

¿Por qué los codecs de voz no necesitan representar todo el rango audible humano (20 Hz – 20 kHz)?. Porque las redes de comunicaciones no soportan frecuencias altas. Porque el oído humano es menos sensible a frecuencias extremas y la inteligibilidad del habla se concentra en un rango reducido. Porque las señales de voz no contienen armónicos por encima de 3 kHz. Porque las técnicas de compresión eliminan automáticamente las frecuencias altas.

¿Qué propiedad del sistema auditivo humano permite que las cuantificaciones no lineales (Ley A / Ley µ) reduzcan bits sin degradar la calidad percibida?. El oído detecta mejor sonidos fuertes que débiles. El oído tiene una respuesta logarítmica a la intensidad sonora. El oído es insensible a variaciones de amplitud. El oído solo percibe frecuencias por encima de 1 kHz.

¿Qué elemento de la RTC proporciona la corriente necesaria para el funcionamiento del terminal telefónico?. El bucle de abonado. La central de conmutación local (CO). El PBX corporativo. El filtro paso bajo.

¿Qué ventaja clave aporta el modelo LPC (Linear Predictive Coding) en la codificación de voz?. Permite transmitir la señal completa sin pérdidas. Reduce el bitrate transmitiendo solo parámetros del tracto vocal en lugar de la onda completa. Aumenta la calidad perceptual al duplicar la frecuencia de muestreo. Elimina la necesidad de cuantificación.

En un codec CELP, ¿qué parámetro afecta directamente al coste computacional del codificador?. El número de bits del canal D. El tamaño del codebook utilizado para buscar el vector de excitación. La frecuencia de muestreo del micrófono. El tipo de cuantificación (lineal o logarítmica).

¿Qué efecto tiene aumentar la longitud del frame (ventana) en un codec de voz como CELP?. Reduce la latencia pero empeora la calidad. Aumenta la latencia pero mejora la estabilidad de los parámetros LPC. Reduce el coste computacional del análisis LPC. Elimina la necesidad de predicción lineal.

Se quiere diseñar un sistema de VoIP para una red con las siguientes características: Ancho de banda limitado Pérdidas de paquetes frecuentes Dispositivos con baja capacidad de procesamiento ¿Cuál sería la decisión MÁS razonable respecto al codec?. Usar un codec LPC muy agresivo (muy bajo bitrate) aunque tenga alto coste computacional. Usar G.711 para minimizar el retardo y la complejidad, aunque consuma más ancho de banda. Usar un codec intermedio que equilibre compresión y coste computacional, aunque no sea el más eficiente en bitrate. Usar el codec con menor bitrate posible, independientemente del resto de factores.

¿Por qué los sistemas basados en SIP + RTP presentan problemas al atravesar NAT?. Porque SIP no permite direcciones IP en sus mensajes. Porque RTP utiliza TCP y los routers bloquean conexiones persistentes. Porque RTP usa puertos dinámicos y no está directamente ligado a la sesión SIP. Porque SIP cifra automáticamente el tráfico.

¿Qué diferencia fundamental existe entre codecs como LPC/CELP y codecs como PCM?. Los codecs LPC/CELP transmiten directamente las muestras de audio. PCM utiliza modelos matemáticos del aparato fonador. LPC/CELP transmiten parámetros del modelo de voz en lugar de la señal original. PCM tiene menor bitrate que LPC.

Durante una llamada VoIP, un usuario experimenta voz entrecortada únicamente cuando la red tiene picos de tráfico. Analizando capturas RTP, se observa que no hay una pérdida significativa de paquetes (<0,5%), pero sí variaciones bruscas en el tiempo de llegada (hasta 40 ms de diferencia entre paquetes consecutivos). ¿Qué mecanismo del sistema podría mitigar este problema sin mejorar la red física?. Reducir el tamaño del paquete RTP para disminuir el bitrate. Aumentar el tamaño del jitter buffer adaptativo del cliente. Cambiar el codec a uno de mayor bitrate. A y C son correctas.

En un sistema VoIP, se quiere reducir el ancho de banda consumido sin comprometer demasiado la calidad percibida. Se evalúan tres opciones: usar G.711, usar G.729 o usar un codec LPC/CELP de muy bajo bitrate (~6 kbps). ¿En cuál de los siguientes casos sería más razonable utilizar un codec LPC/CELP, considerando las limitaciones del aparato auditivo humano?. En llamadas donde hay música de fondo, porque LPC mejora la fidelidad en señales complejas. En redes con pérdidas o jitter alto, porque LPC reconstruye mejor el espectro de la voz humana. En entornos donde solo importa la inteligibilidad del habla, no la naturalidad de la voz. A y B son correctas.

En una empresa, los teléfonos VoIP pueden registrar correctamente en el servidor SIP, pero al realizar una llamada interna, los teléfonos suenan pero no se oye audio en ninguna dirección. El administrador comprueba que la señalización SIP está correcta y que el servidor entrega bien las IP y puertos. ¿Cuál es la causa más probable?. Los puertos RTP están siendo bloqueados o sustituidos por otros debido a NAT o firewall. El servidor SIP no está enviando correctamente los mensajes SDP. El codec negociado no coincide entre los terminales. Ninguna es correcta.

En la telefonía tradicional RTC, ¿qué característica define el uso de los recursos durante una llamada?. Los recursos se ocupan durante toda la llamada. Los recursos se comparten dinámicamente entre usuarios. Los recursos solo se reservan al inicio. Los recursos se asignan por paquetes.

¿Cuál es el rango de frecuencias típico utilizado para la voz en telefonía tradicional?. 20 Hz – 20 kHz. 50 Hz – 7000 Hz. 300 Hz – 3300 Hz. 1 kHz – 10 kHz.

Según el teorema de Nyquist, para digitalizar correctamente una señal con frecuencia máxima f, la frecuencia de muestreo debe ser: f. f/2. 2f. 4f.

En la digitalización de la voz mediante conversión A/D, ¿cuál es el orden correcto de las etapas?. Codificación → Muestreo → Cuantificación. Muestreo → Cuantificación → Codificación. Cuantificación → Muestreo → Codificación. Muestreo → Codificación → Cuantificación.

¿Cuál es el bitrate típico de un canal telefónico digital DS0 usando PCM?. 32 kbps. 64 kbps. 128 kbps. 256 kbps.

¿Cuál es el objetivo principal de la tecnología VoIP?. Utilizar redes analógicas para transmitir datos. Mejorar únicamente la calidad del audio. Sustituir internet por redes telefónicas. Utilizar la red de datos para realizar llamadas de voz.

¿Cuál es el principal protocolo utilizado para establecer y controlar sesiones en VoIP?. RTP. SIP. HTTP. FTP.

¿Cuál de los siguientes problemas es un desafío típico en VoIP?. Aumento del voltaje de línea. Uso obligatorio de cables de cobre. Limitación del número de teléfonos. Jitter y pérdida de paquetes.

¿Qué función cumple el protocolo RTP en VoIP?. Establecer la llamada. Negociar parámetros de conexión. Transportar los datos de audio o vídeo. Autenticar usuarios.

¿Cuál es una característica del codec G.729a?. Alta calidad con bajo ancho de banda (8 kbps). Requiere poco procesamiento. Utiliza 64 kbps. No utiliza compresión.

Respecto a la evolución de la RTC, ¿cuál es correcta?. Siempre ha utilizado transmisión digital extremo a extremo. Inicialmente la conexión entre centrales era manual. La multiplexación temporal se usaba desde el inicio. El bucle de abonado es digital en origen.

¿Cuál de las siguientes afirmaciones sobre VoIP es correcta?. Garantiza siempre baja latencia por diseño. El jitter no afecta a la calidad de la voz. Las redes IP no están diseñadas específicamente para voz. No requiere buffering en recepción.

En telefonía, ¿por qué se limita el rango de frecuencias a aproximadamente 300–3400 Hz?. Para reducir el consumo eléctrico de los terminales. Porque el oído humano no percibe frecuencias fuera de ese rango. Para optimizar ancho de banda manteniendo inteligibilidad. Para evitar interferencias en redes digitales.

¿Qué caracteriza principalmente a la conmutación de circuitos de la RTC frente a VoIP?. Uso de paquetes IP. Recursos reservados durante toda la comunicación. Transmisión sin establecimiento previo. Uso de protocolos como SIP.

En una arquitectura VoIP, ¿qué elemento permite la interconexión con la red telefónica tradicional?. Proxy SIP. Softphone. Gateway. RTP.

Si el rango de audición humano llega hasta los 20 kHz, ¿por qué la telefonía estándar utiliza una frecuencia de muestreo de solo 8 kHz en lugar de 40 kHz?. Porque el hardware de los años 70 no podía procesar más de 8000 muestras por segundo. Porque la señal se filtra previamente para dejar solo el rango de 300 a 3400 Hz; así, 8 kHz cumple con creces el Teorema de Nyquist ahorrando recursos de red. Porque una frecuencia de 40 kHz introduciría un retardo de procesamiento superior a los 500 ms, haciendo imposible la conversación. Porque 8 kHz es la frecuencia máxima que el oído humano puede procesar de forma síncrona en tiempo real.

Si decidimos reducir la resolución de una muestra de 16 bits a 8 bits para ahorrar ancho de banda, ¿qué impacto técnico directo tendrá en la señal reconstruida?. El error de cuantificación aumentará significativamente, reduciendo el rango dinámico en aproximadamente 48 dB y generando un siseo audible. La frecuencia máxima que podemos capturar se reducirá automáticamente a la mitad (de 4 kHz a 2 kHz). El bitrate aumentará debido a que el sistema necesita enviar más paquetes para compensar la pérdida de precisión. La señal se volverá incompatible con los protocolos de transporte UDP, obligando a usar TCP.

¿Por qué se dice que el protocolo ADPCM (como G.721) es más eficiente que el PCM puro (G.711) para transmitir voz?. Porque ADPCM aumenta la frecuencia de muestreo a 16 kHz para compensar el uso de menos bits. Porque en lugar de transmitir el valor absoluto de cada muestra, transmite solo la diferencia respecto a la muestra anterior, requiriendo menos bits. Porque utiliza un sistema de supresión de silencios que corta la corriente del terminal cuando el usuario no habla. Porque duplica la velocidad de los bits en el uplink para evitar el jitter en redes congestionadas.

Desde el punto de vista del rendimiento en distancias largas, ¿cuál es la ventaja crítica de la señal digital ("regeneración") frente a la analógica ("amplificación")?. La señal digital viaja físicamente más rápido a través del cobre que la señal analógica. La regeneración permite que un solo hilo de hierro transporte miles de llamadas simultáneas sin interferencias. Los sistemas digitales permiten que la voz viaje a través del vacío sin necesidad de un medio físico conductor. La amplificación analógica aumenta la potencia de la voz pero también del ruido acumulado; la regeneración digital lee los bits y reconstruye una señal limpia desde cero.

Estás en una cita romántica por videollamada y, para ahorrar datos, configuras tu códec con una frecuencia de muestreo de 2000 Hz. ¿Cuál será el resultado más probable?. Tu voz sonará tan grave y profunda que parecerás un locutor de radio profesional de los años 50. Tu teléfono detectará la falta de bits y utilizará el vibrador para enviarle a tu cita mensajes en código Morse automáticamente. Debido al "aliasing", tu voz sonará como la de un robot de una película de serie B de los 80, ya que no podrás reconstruir ninguna frecuencia por encima de los 1000 Hz. El fantasma de Harry Nyquist aparecerá en tu pantalla para explicarte personalmente por qué tu relación no tiene futuro si no respetas su teorema.

¿Cuál de las siguientes afirmaciones describe mejor el compromiso general al diseñar un códec de voz?. El diseño de un códec se evalúa únicamente por la tasa de compresión, ya que la calidad y el retardo dependen solo de la red. La calidad de la señal incluye BER, SNR, PESQ y MOS; la complejidad incluye memoria, potencia y operaciones por segundo; además, también importan la eficiencia y el retardo. La complejidad se mide con MOS y PESQ, mientras que la calidad de la señal se mide con memoria y operaciones por segundo. Un códec eficiente siempre tendrá también menor retardo y mejor calidad, sin necesidad de asumir compromisos.

Se desea elegir un códec que, según las diapositivas, ofrezca mejor calidad que G.711, trabaje con muestreo a 16 kHz, use una estrategia de sub-bandas y además pueda operar finalmente a 48, 56 o 64 kb/s. ¿Cuál es?. G.721. G.722. G.726. GSM.

¿Cuál de las siguientes afirmaciones sobre LPC, CELP, iLBC y Speex es la más precisa?. LPC es una mejora de CELP basada en un code-book de excitación conocido en transmisión y recepción. CELP mejora LPC utilizando el error de sintetización y un code-book; iLBC realiza codificación por bloques y ofrece calidad razonable con pérdidas; Speex es un códec CELP de bitrate variable y open source. iLBC y Speex son ambos códecs PCM de 64 kb/s pensados para sustituir a G.711. LPC, CELP e iLBC comparten que todos trabajan necesariamente con bitrate fijo y bajo coste computacional.

¿Cuál de las siguientes afirmaciones sobre SIP, IAX2 y RTP/RTCP es correcta?. SIP realiza tanto señalización como streaming y por eso evita los problemas con NAT mejor que IAX2. IAX2 usa UDP 4569, integra señalización y streaming, facilita el trunking y reduce puertos abiertos en routers. RTP usa el puerto UDP 5060 y RTCP el 4569, mientras que SIP se limita a negociar códecs mediante H.245. SIP está pensado exclusivamente para Asterisk, mientras que IAX2 fue creado por el ITU para videoconferencia LAN.

Indica la opción correcta sobre H.323, SIP, IAX2 y RTP/RTCP. SIP se encarga directamente del streaming multimedia, mientras que RTP solo negocia parámetros y formatos. H.323 es el protocolo más extendido hoy en día por su simplicidad y su sintaxis basada en HTTP. IAX2 usa normalmente UDP 4569, integra señalización y streaming, facilita el trunking y reduce el número de puertos abiertos; RTP usa sesiones con puertos de datos y control, y RTCP envía información periódica sobre la calidad de servicio. H.323 e IAX2 son protocolos de transporte, mientras que RTP y RTCP son protocolos de señalización.

¿Cal é o rango aproximado de frecuencias utilizado na telefonía tradicional?. 20 Hz – 20 kHz. 200 Hz – 2500 Hz. 300 kHz – 20 kHz. 300 Hz – 3300 Hz.

Na interfaz BRI de RDSI, tendo en conta que as canles de voz denominanse coa letra B, e os de datos coa D, qué configuración de canles se utiliza?. 1B + 1D. 2B + 1D. 1B + 2D. 2B + 2D.

¿Cal é a razón principal pola que a telefonía tradicional mediante conmutación de circuitos considerase ineficiente?. Porque require codificación dixital complexa. Porque só funciona con fibra óptica. Porque a canle permanece reservada incluso cando non se transmite voz. Porque utiliza paquetes IP.

Nunha rede VoIP que se conecta coa RTC, qué función realiza específicamente un gateway?. Traduce señalización e medios entre redes IP e redes de telefonía tradicional. Converte voz en sinais acústicas e viceversa. Xera tonos DTMF para a marcación. Controla a latencia da rede IP.

Se unha trama E1 contén 32 canles DS0 e cada DS0 ten 64 kbps, por qué o sistema non se utiliza completamente para voz de usuario?. Porque algunhas canles reservanse para a corrección de erros. Porque unha das canles utilizase para a sincronización da rede. Porque certas canles utilizanse para señalización e control. Porque algunhas canles dedicanse á cancelación de eco.

Na telefonía tradicional, a voz humana fíltrase nun rango de 300 a 3300 Hz. Segundo o teorema de Nyquist, por que se estandarizou a unha frecuencia de mostraxe de 8000 Hz?. Porque é polo menos o dobre da frecuencia máxima filtrada a transmitir, o cal permite reconstruír o sinal orixinal sen “aliasing”. Porque 8000 Hz é exactamente o límite superior das frecuencias audibles polo oído humano. Porque permite asignar exactamente 1000 Hz a cada un dos 8 bits da trama de codificación PCM. Porque multiplicar 3300 Hz polo número pi da aproximadamente 8000 Hz, asegurando a sincronización da fase.

Con respecto aos estándares de compansión logarítmica para voz, cal destas afirmacións é a correcta?. A lei A é completamente lineal para os valores altos de amplitude mentras que a lei µ é completamente exponencial. A lei µ úsase en Europa e o resto do mundo cun valor de µ=87.7 mentres que a lei A úsase en EEUU, Canadá e Xapón con A = 255. Ambas leis deseñáronse exclusivamente para dixitalizar a voz de banda ancha e requiren 16 bits de resolución. A lei µ úsase en EEUU, Canadá e Xapón con µ=255 mentres que a lei A úsase en Europa e o resto do mundo con A = 87.7.

Se realizamos o cálculo da tasa de bits para unha trama dixital telefónica T1 composta por 24 canles DS0, cal é o cálculo matemático exacto que xustifica a taxa de 1,544 Mbits/segundo?. Multiplícase 24 canles por 64 kbps, o que da 1,536 Mbps, e súmanse 8 kbps dunha canle de control D. Súmanse os 8 bits de cada unha das mostras das 24 canles máis 1 bit extra de trama por ciclo, multiplicando o resultado total (193 bits) pola frecuencia de mostraxe de 8000 Hz. Tómase a base europea E1 de 2,048 Mbps e aplicase un factor de reducción do 75% correspondente á compresión da lei µ. Cada un das 24 canles transmite a 64 kbps usando cuantificación logarítmica, ás que engádese un sobrecoste de cabeceiras RTP/UDP na centralita.

Con respecto á relación entre cuantificación lineal, o número de bits e a resolución, que incremento de resolución exacto, en decibelios, representa engadir un único bit extra a unha mostraxe PCM?. 16 dB, xa que o sistema debe coincidir matemáticamente co número de bits empregado na cuantificación para cubrir a resolución do oído humano. Exactamente 8 dB, multiplicando por 2 a marxe entre o sinal útil e o ruido de fondo eléctrico. Exactamente engádese 6 dB de resolución. Aproximadamente 3 dB, equivalente a dobrar a potencia do sinal transmitido.

No deseño de codecs de voz para VoIP, ¿que compromiso (trade-off) é fundamental?. Un aumento da taxa de bits implica menor retardo e menor custo computacional. Existe un equilibrio entre calidade, taxa de bits e custo computacional. Os códecs con menor bitrate ofrecen maior calidade perceptual. O custo computacional inflúe na implementación, pero non no deseño do códec.

Cal das seguintes afirmacións describe mellor a diferenza entre LPC e CELP?. LPC transmite as mostras do sinal codificadas mentres que CELP transmite só parámetros para sintetizar o sinal de voz. CELP introduce un "codebook" de excitación para mellorar a síntese respecto a LPC. LPC utiliza un modelo de predicción lineal mentres que CELP basase en buscar o sinal de excitación que máis se asemella ao sinal orixinal a codificar. CELP elimina completamente o erro de predición presente en LPC.

Cal é a principal vantaxe do protocolo IAX2 fronte a SIP en contornas en NAT?. Utiliza TCP para separar sinalización e datos en diferentes conexións. Permite o uso de RTP para o transporte de voz. Emprega múltiples portos para mellorar a calidade de audio. Integra sinalización e transporte de datos nun único fluxo e porto.

Nun sistema VoIP onde a latencia debe ser mínima (por exemplo, comunicación en tempo real interactiva), ¿que opción sería máis axeitada?. Empregar códecs tipo CELP con ánalise complexa e maior retardo de procesamento. Empregar códecs LPC con intervalos de codificación longos para reducir o bitrate. Empregar códecs CELP con codebooks grandes para mellorar a calidade. Empregar códecs LPC con intervalos de codificación curtos para minimizar o retardo.

Imagínate que llamas a un amigo y os quedáis 20 segundos en silencio porque ninguno sabe cómo cortar. En la RTC tradicional, durante ese silencio ocurre que…. La red libera temporalmente el canal hasta que alguien vuelva a hablar. Los recursos siguen ocupados durante toda la llamada, aunque no habléis. Solo se mantiene ocupada la señalización, pero no el canal de voz. La llamada pasa automáticamente a modo ahorro de ancho de banda.

En una discusión de pasillo antes del examen, un compañero suelta estas tres afirmaciones con toda la seguridad del mundo: I. En la RTC tradicional, los recursos permanecen ocupados durante toda la llamada, aunque haya silencios. II. En DTMF, cada tecla del teléfono se identifica mediante un único tono. III. En RDSI, el canal D se utiliza para transportar la voz principal. ¿Cuál de las siguientes opciones describe correctamente la situación?. Todas son correctas. La primera y la tercera son correctas. Ninguna es correcta. Solo la primera afirmación es correcta.

¿Qué afirmación sobre la cuantificación es falsa?. La ley A se utiliza en EE. UU., Canadá y Japón, mientras que la ley μ se utiliza en Europa. En la cuantificación no lineal, se ofrece más resolución para amplitudes bajas que para amplitudes altas. Cada bit adicional de resolución en cuantificación lineal añade aproximadamente 6 dB de rango dinámico. En la cuantificación lineal, los niveles de cuantificación están espaciados de manera equitativa.

Cuál de estas descripciones resume mejor DS0, T1 y E1?. DS0 es la unidad básica de telefonía digital de 64 kbit/s; E1 agrupa 32 circuitos DS0 y se utiliza en Europa, mientras que T1 se asocia a EE. UU. y Japón, aunque ambos parten de la misma ley de codificación. DS0 es la unidad básica de telefonía digital de 64 kbit/s; T1 agrupa 24 circuitos DS0 y E1 agrupa 32, pero ambos formatos se diferencian solo por el país en el que se usan. DS0 es la unidad básica de telefonía digital de 64 kbit/s; T1 agrupa 24 circuitos DS0 y se asocia a EE. UU. y Japón; E1 agrupa 32 circuitos DS0 y se usa en Europa y gran parte del resto del mundo. DS0 es la unidad básica de telefonía digital de 64 kbit/s; T1 y E1 se distinguen principalmente por la ley de codificación, aunque ambos agrupan el mismo número de circuitos DS0.

¿Qué frecuencia de muestreo se utiliza en VoIP clásica?. 4 kHz. 8 kHz. 16 kHz. 44.1 kHz.

Indica la opción correcta: RTP garantiza el orden de los paquetes y mecanismos para controlar jitter y latencia. SIP es el protocolo encargado del transporte de datos de voz en tiempo real. Las dos anteriores son correctas. Todas las anteriores son incorrectas.

En la FIC, durante una llamada VoIP el audio presenta cortes y variaciones en el tiempo de llegada de los paquetes. ¿Cuál es la causa más probable?. Eduroam está caído (como siempre). Variabilidad en el retardo de llegada de paquetes (jitter) en la red IP. Uso de cuantificación logarítmica en el codec G.711 que introduce distorsión temporal. Saturación del puerto SIP 5060 que afecta al flujo RTP.

Un usuario puede iniciar llamadas VoIP desde varios dispositivos distintos, y todos reciben las llamadas correctamente. ¿Qué característica del sistema VoIP permite este comportamiento?. Asignación dinámica de codecs según el terminal receptor. Uso de RTP para gestionar múltiples flujos simultáneos de audio. Codificación adaptativa del audio en función del dispositivo utilizado. Asociación de múltiples direcciones IP/puerto a un mismo usuario en el servidor.

¿Cuál de las siguientes afirmaciones se corresponde?. En LPC, cada muestra se predice a partir de las anteriores mediante un modelo lineal de parámetros fijos. El residuo contiene la información que el filtro lineal no puede predecir, y puede modelarse de diferentes formas según si la señal es voiced o unvoiced. Normalmente se utilizan entre 8 y 10 parámetros para definir el filtro lineal de un segmento de voz. La C) es la falsa.

Al elegir un códec para VoIP, se debe equilibrar: Calidad, bitrate y latencia. Solo latencia y tamaño de paquete. Cantidad de formantes y timbre. Calidad, eficiencia y retardo de la comunicación.

¿Cuál de las siguientes afirmaciones sobre LPC es correcta?. Cada muestra se predice a partir de las anteriores mediante un filtro lineal. Los sonidos voiced se modelan con ruido blanco Gaussiano. El residuo representa la información que el filtro lineal puede predecir. Todas son correctas.

Cuando te estás marchando de la facultad, te encuentras en la salida con un par de alumnos que discuten sobre los parámetros a evaluar de un códec. Uno de ellos dice que son: -Calidad, bitrate y latencia. El otro dice que son: -Calidad, eficiencia y retardo de la comunicación. ¿Cuál de las siguientes afirmaciones se corresponde con la realidad?. El primero tiene razón. El segundo tiene razón. Ambos están equivocados. Todas son incorrectas.

¿Cuál es el rango de frecuencias utilizado en telefonía convencional?. 20 Hz – 20 kHz. 100 Hz – 10 kHz. 300 Hz – 3300 Hz. 1 kHz – 8 kHz.

¿Por qué en telefonía no se utilizan frecuencias hasta 20 kHz, sino aproximadamente hasta 3,4 kHz (≈7 kHz de muestreo)?. Porque el hardware no permite frecuencias mayores. Porque la voz humana no contiene información por encima de 3,4 kHz. Porque se busca un compromiso entre calidad y uso eficiente del ancho de banda. Porque las redes digitales solo trabajan con frecuencias bajas.

¿Aumentar la frecuencia de muestreo siempre mejora la calidad de la señal?. Solo mejora hasta cierto punto; después aumenta el consumo de ancho de banda sin beneficios relevantes. No, nunca mejora la calidad. Sí, siempre mejora la calidad. Solo mejora si se reduce la cuantificación.

¿Cuál es el principal efecto del aumento del número de bits en la cuantificación?. Aumenta la frecuencia de muestreo. Reduce el error de cuantificación. Disminuye el ancho de banda necesario. Elimina completamente el ruido.

¿Qué es el error de cuantificación?. Error producido al muestrear una señal. Diferencia entre la señal original y su valor cuantificado. Error debido al ruido del canal. Error en la transmisión digital.

¿Por qué se utilizan técnicas de cuantificación no lineal (ley μ o ley A)?. Para aumentar la frecuencia de muestreo. Para mejorar la resolución en señales de baja amplitud. Para eliminar completamente el ruido. Para reducir el número de muestras.

¿Qué relación existe entre rango dinámico y número de bits en cuantificación lineal?. No existe relación. Cada bit adicional reduce el rango dinámico. Cada bit adicional aumenta el rango dinámico aproximadamente 6 dB. El rango dinámico depende solo de la frecuencia de muestreo.

Si aumentas mucho el buffering para suavizar el jitter, qué efecto negativo puede aparecer?. Baja el consumo eléctrico. Aumenta el retardo. Mejora el ancho de banda. Desaparece la señalización.

¿Por qué en VoIP no basta con tener buena velocidad de descarga?. Porque solo importa el servidor. Porque también hace falta suficiente uplink. Porque RTP usa solo TCP. Porque SIP transporta la voz.

Si un usuario puede usar varios teléfonos o dispositivos con la misma cuenta, ¿qué necesita guardar el servidor para localizarlo?. Solo su nombre. Solo su contraseña. IP, puerto y capacidades. Solo el codec preferido.

Si SIP funciona bien pero RTP falla, ¿qué situación es la más probable?. No se puede registrar ningún usuario. La sesión puede establecerse, pero el audio no ir bien. El NAT deja de existir. El teléfono analógico pasa a digital.

Dos codecs dan calidad parecida, pero uno necesita menos bits por segundo. En una red limitada, ¿cuál conviene más normalmente?. El que usa más bits. El que usa menos bits. Da igual siempre. El más antiguo.

En una sesión con audio y vídeo, RTP usa sesiones separadas para cada medio. ¿Qué significa eso?. Que audio y vídeo van siempre mezclados. Que audio y vídeo se gestionan por separado. Que solo puede enviarse uno de los dos. Que SIP deja de ser necesario.

¿Qué opción encaja mejor con la idea de que una red de datos normal no está diseñada específicamente para voz?. Que cualquier retardo da igual. Que voz y descarga de archivos tienen las mismas exigencias. Que en voz importan mucho más la latencia y la regularidad. Que no hace falta controlar pérdidas.

Si quieres un protocolo pensado para establecimiento, modificación y finalización de sesiones, ¿cuál elegirías?. RTP. SIP. G.721. RTCP.

¿Por qué IAX2 suele dar ventaja en entornos con NAT?. Porque usa más puertos. Porque separa más la señalización y el streaming. Porque reduce puertos abiertos y pasa los datos a través del servidor. Porque funciona solo con TCP.

Si quieres reducir el número de puertos abiertos en routers, ¿cuál encaja mejor según el tema?. RTP. IAX2. SIP. G.711.

Si un participante tiene poco ancho de banda en una conferencia, ¿qué elemento puede ayudar combinando varios streams en uno solo?. Un proxy SIP. Un mixer. Un codec PCM. Un ATA.

¿Qué describe mejor la función principal de RTCP?. Transportar el audio principal. Dar corriente al terminal. Enviar control e información de calidad de servicio. Convertir voz analógica en digital.

¿Qué conclusión refleja mejor la relación entre SIP e IAX2?. Los dos hacen exactamente lo mismo sin diferencias prácticas. SIP se centra en señalización, mientras IAX2 además simplifica puertos y NAT. RTP sustituye a ambos. IAX2 no sirve para streaming.

¿Qué codec del tema destaca por tener poco coste computacional, aunque usa bastante tasa de bits?. G.711. G.729a. LPC. CELP.

Si quieres ahorrar mucho ancho de banda, ¿qué sacrificio suele aparecer en muchos codecs avanzados?. Menor compatibilidad con UDP. Mayor coste computacional. Pérdida total de señalización. Necesidad de usar TCP.

¿Por qué un codec paramétrico como LPC puede comprimir tanto la voz?. Porque duplica los paquetes para evitar pérdidas. Porque transmite un modelo de la voz en vez de toda la señal original. Porque elimina el uso de RTP. Porque mezcla audio y vídeo en un único flujo.

Denunciar Test