ESCALABILIDAD DE REDES
![]() |
![]() |
![]() |
Título del Test:![]() ESCALABILIDAD DE REDES Descripción: Test de apoyo para el examen |




Comentarios |
---|
NO HAY REGISTROS |
En una red empresarial moderna, es común segmentar la red local en múltiples VLANs para mejorar la organización, seguridad y rendimiento del tráfico. Cuando estos segmentos lógicos (VLANs) se extienden a través de varios switches físicos, los enlaces que interconectan estos switches deben ser capaces de transportar el tráfico de todas o la mayoría de las VLANs definidas en la red. ¿Cuál es el propósito fundamental de configurar un enlace físico entre dos switches o entre un switch y un router como un "enlace troncal" (trunk link) en un entorno de red con múltiples VLANs?. Aumentar de forma dinámica el ancho de banda disponible en el enlace físico agregando la capacidad de varios puertos físicos en un único enlace lógico, lo cual es la función principal de protocolos como LACP o PAgP. Permitir que un solo enlace físico transporte simultáneamente el tráfico de múltiples VLANs. Esto se logra mediante la identificación de las tramas de cada VLAN utilizando un método de etiquetado estandarizado, lo que es esencial para la comunicación entre dispositivos en las mismas VLANs conectados a switches diferentes o para el enrutamiento Inter-VLAN. Prevenir la formación de bucles de Capa 2 en la topología conmutada mediante el bloqueo selectivo de puertos redundantes, asegurando así un único camino lógico activo para el tráfico de difusión dentro de cada dominio de VLAN. Deshabilitar la negociación automática del modo del puerto y forzar al enlace físico a operar permanentemente como un puerto de acceso dedicado a una única VLAN predefinida, ignorando el tráfico proveniente de cualquier otra VLAN configurada en los switches. En redes de campus grandes o redes empresariales con múltiples edificios, conectar todos los segmentos locales directamente a un único punto central (un backbone colapsado) puede volverse impráctico o costoso a medida que la red crece. Una arquitectura común para abordar esto es el "backbone distribuido". Considerando este modelo arquitectónico, ¿Cuál describe con mayor precisión la estructura y el propósito fundamental de un "backbone distribuido" en una red de campus o empresarial?. Se basa en la conexión directa de todos los dispositivos finales (usuarios, servidores) a un conjunto centralizado de switches de alta capacidad ubicados en un único data center o sala de equipos principal, sin capas intermedias de switches de distribución. Consiste en múltiples puntos de conexión (generalmente switches de Capa 3 en la capa de distribución) distribuidos geográficamente o lógicamente, cada uno sirviendo a un área específica (como un edificio o grupo de edificios). Estos puntos de distribución se interconectan a su vez para formar el backbone principal, facilitando la modularidad, escalabilidad y gestión de redes extensas. Se define por el uso exclusivo de conexiones inalámbricas de alta velocidad para interconectar todos los switches y routers de la red principal, eliminando la necesidad de cableado físico en el backbone para permitir una rápida reconfiguración de la topología. Utiliza un solo cable físico de fibra óptica de alta velocidad que recorre todos los edificios o puntos de conexión de la red, y todos los dispositivos se conectan a este cable principal en serie para formar el backbone. Frame Relay es una tecnología de red de área amplia (WAN) de Capa 2 que, aunque menos común en nuevos despliegues de redes públicas de gran escala hoy en día, fue y sigue siendo relevante para conectar múltiples sitios (como sucursales) a una oficina central a través de la red de un proveedor de servicios. Su principal ventaja sobre las líneas arrendadas punto a punto tradicionales radicaba en la eficiencia y el costo para topologías de muchos-a-uno o muchos-a-muchos. Desde una perspectiva conceptual, ¿Cuál es el mecanismo fundamental que permite a Frame Relay transportar datos entre múltiples sitios a través de un único enlace físico conectado a la red del proveedor y cómo se identifican estas "conexiones"?. Funciona como un protocolo de enrutamiento dinámico que permite a los routers descubrir automáticamente los caminos disponibles a través de la red del proveedor y reenviar paquetes basándose en la información de la tabla de enrutamiento y las métricas de retardo. Segmenta el enlace físico en múltiples subinterfaces lógicas, cada una asignada a una dirección IP pública diferente, lo que permite a los routers de diferentes sitios comunicarse directamente sin necesidad de un router central o un protocolo de enrutamiento específico para la WAN. Permite la creación de múltiples circuitos virtuales (principalmente Circuitos Virtuales Permanentes o PVCs) a través de un único enlace físico hacia la "nube" del proveedor. Estos circuitos virtuales actúan como rutas lógicas dedicadas para el tráfico entre pares de sitios y se identifican mediante identificadores de conexión de enlace de datos (DLCIs) únicos en cada interfaz local. Establece conexiones físicas punto a punto dedicadas entre cada par de routers remotos a través de la red del proveedor, garantizando un canal físico exclusivo para cada par de sitios que necesite comunicarse, de forma similar a múltiples líneas arrendadas independientes. En el entorno tecnológico actual, las organizaciones experimentan un crecimiento constante en el número de usuarios, dispositivos conectados (incluyendo IoT), el volumen y tipo de tráfico de datos (video, cloud, aplicaciones en tiempo real) y la necesidad de implementar rápidamente nuevos servicios y aplicaciones. Esta dinámica hace que la capacidad de una red para crecer y adaptarse sin degradar el rendimiento o requerir rediseños costosos, es decir, su escalabilidad, sea más crítica que nunca. Considerando el panorama digital moderno, ¿Cuál de las siguientes opciones identifica correctamente por qué la escalabilidad es tan importante hoy y los principales factores que están impulsando esta necesidad en el diseño e implementación de redes?. La escalabilidad se enfoca primariamente en la capacidad de una red para resistir ataques cibernéticos a gran escala, como ataques de denegación de servicio distribuido (DDoS), aumentando su capacidad de procesamiento de seguridad de forma elástica. Los principales factores impulsores son las crecientes amenazas a la seguridad de la información. La escalabilidad es vital para que las redes puedan soportar el aumento masivo de dispositivos, el crecimiento exponencial del tráfico generado por servicios cloud y multimedia, y la rápida implementación de nuevas aplicaciones empresariales. Su importancia radica en permitir el crecimiento organizacional, mantener la calidad de servicio y controlar los costos operativos a largo plazo frente a una demanda impredecible y en expansión. La escalabilidad es relevante principalmente para reducir el consumo de energía de los equipos de red, asegurando que el gasto eléctrico se mantenga constante a pesar del incremento en la cantidad de datos procesados. Está impulsada por regulaciones ambientales y la búsqueda de certificaciones de eficiencia energética para data centers. La escalabilidad se refiere a la facilidad con la que se pueden reemplazar componentes de hardware defectuosos sin interrumpir el servicio. Está impulsada por la necesidad de minimizar los tiempos de inactividad de la red, priorizando la redundancia física sobre la capacidad de crecimiento del tráfico o el número de dispositivos. Las Redes de Nueva Generación (NGN) representan una evolución fundamental en la arquitectura de telecomunicaciones, alejándose de las infraestructuras legadas que a menudo requerían redes físicas separadas para diferentes tipos de comunicación (como voz, datos o video). El objetivo principal de una NGN es crear una plataforma unificada y flexible capaz de soportar una amplia gama de servicios. Desde una perspectiva arquitectónica y conceptual, ¿Cuál de las siguientes opciones describe la característica central y el principio que define a una Red de Nueva Generación (NGN)?. Implementar una red donde toda la inteligencia de procesamiento y decisión reside en los dispositivos finales de los usuarios (teléfonos inteligentes, computadoras), dejando a la infraestructura de red intermedia como un simple conducto de transmisión de alta velocidad. Basarse exclusivamente en el uso de tecnologías inalámbricas avanzadas en la capa de acceso y transporte para eliminar completamente la necesidad de cables físicos y facilitar la movilidad total de los usuarios y dispositivos en cualquier ubicación geográfica. Establecer rutas de comunicación dedicadas y estáticas para cada tipo de tráfico y cada par de usuarios, garantizando una calidad de servicio predefinida y constante, similar al funcionamiento de las redes de conmutación de circuitos tradicionales. Unificar el transporte y la provisión de múltiples tipos de servicios (voz, datos, video, multimedia) sobre una única infraestructura de red basada en paquetes (principalmente IP), con una separación clara entre la capa de transporte y las capas que controlan y ofrecen los servicios. En una red LAN, todos los dispositivos finales (computadoras, impresoras, etc.) necesitan una dirección IP para su puerta de enlace predeterminada (default gateway) para poder comunicarse con dispositivos fuera de su propia subred. Típicamente, esta puerta de enlace es la interfaz de un router o un switch de Capa 3. Sin embargo, si este único dispositivo de puerta de enlace falla, toda la subred pierde su conectividad hacia el exterior, creando un punto único de fallo crítico. Los Protocolos de Redundancia de Primer Salto (FHRPs), como HSRP, VRRP y GLBP, abordan este problema. ¿Cuál es la función principal que cumplen los Protocolos de Redundancia de Primer Salto (FHRPs) en una red conmutada para mitigar el problema de un punto único de fallo en la puerta de enlace predeterminada?. Son responsables de la asignación dinámica de direcciones IP y otros parámetros de configuración de red (como máscara de subred y servidores DNS) a los dispositivos finales cuando se conectan a la red. Se encargan de detectar y prevenir bucles de conmutación (switching loops) en la capa 2 de la red, deshabilitando enlaces redundantes hasta que una falla en el camino principal requiera su activación para restaurar la conectividad a nivel de enlace. Permiten que dos o más routers o switches de Capa 3 compartan una única dirección IP virtual y una dirección MAC virtual, que actúan como la puerta de enlace predeterminada para los dispositivos de la LAN. Si el dispositivo activo que maneja el tráfico virtual falla, otro dispositivo en el grupo de redundancia toma el control de forma transparente. Implementan mecanismos para priorizar el tráfico de datos sensible al retardo, como voz y video, sobre otro tipo de tráfico menos crítico, asegurando así una mejor calidad de servicio para las aplicaciones en tiempo real en la red local. El Protocolo de Inicio de Sesión (SIP) es un protocolo de señalización ampliamente utilizado en redes de comunicaciones modernas, particularmente en el ámbito de las comunicaciones unificadas y la Voz sobre IP (VoIP). A diferencia de los protocolos que transportan los datos de voz o video en sí (como RTP), SIP tiene una función específica y crucial en el establecimiento y gestión de estas comunicaciones en tiempo real. ¿Cuál describe con mayor precisión la función principal del Protocolo SIP en una comunicación multimedia, como una llamada de voz o una videoconferencia a través de una red IP?. Es un protocolo de calidad de servicio (QoS) que prioriza el tráfico de voz y video sobre otro tipo de tráfico de datos en la red para minimizar el retardo, la fluctuación (jitter) y la pérdida de paquetes, garantizando una buena experiencia de usuario. Es un protocolo de señalización utilizado para iniciar, mantener y finalizar sesiones de comunicación interactiva entre dos o más participantes. Permite la negociación de las capacidades de los participantes (codec de audio/video, etc.) y la gestión de eventos como transferencias o reenvíos de llamadas. Es un protocolo de descubrimiento de servicios que permite a los dispositivos finales encontrar automáticamente los servidores de correo electrónico, los directorios de red y los recursos compartidos disponibles en la red local y remota. Es un protocolo de transporte que se encarga de empaquetar y enviar los flujos de audio y video en tiempo real a través de la red IP, asegurando la entrega ordenada y puntual de los datos multimedia para una conversación fluida. Synchronous Digital Hierarchy (SDH), junto con su equivalente norteamericano SONET, es un estándar de tecnología de transporte digital diseñado principalmente para la transmisión de grandes volúmenes de tráfico sobre redes ópticas, constituyendo la espina dorsal de muchas redes de telecomunicaciones de larga distancia y metropolitanas. Fue desarrollado para superar las limitaciones de las jerarquías digitales anteriores (PDH - Plesiochronous Digital Hierarchy), particularmente en la forma en que se multiplexan y gestionan las señales. Considerando su diseño fundamental, ¿Cuál describe mejor la característica clave y el principal beneficio operativo de SDH en comparación con tecnologías de multiplexación digital más antiguas como PDH?. Su característica clave es la capacidad de adaptar dinámicamente su ancho de banda para cada conexión individual basándose en la demanda en tiempo real. El beneficio principal es optimizar el uso del espectro de fibra óptica, asignando capacidad de transmisión de forma flexible a diferentes servicios o clientes según sea necesario en cualquier momento. Su característica fundamental es la segmentación del tráfico en pequeños paquetes de tamaño fijo y la asignación de una etiqueta a cada paquete para su enrutamiento a través de la red. El beneficio clave es la eficiencia al compartir el ancho de banda entre múltiples usuarios de forma dinámica, en contraste con los circuitos dedicados. La característica clave es la implementación de un control de flujo a nivel de enlace que negocia la velocidad de transmisión entre dispositivos. El beneficio principal es prevenir la congestión en la red asegurando que los dispositivos emisores no envíen datos más rápido de lo que los dispositivos receptores o los enlaces intermedios pueden procesar. La principal característica es su naturaleza síncrona y su estructura de trama estandarizada (STM-N), que permite la multiplexación eficiente de señales de menor velocidad de diversas fuentes directamente dentro de un esquema jerárquico definido. El beneficio clave es la capacidad de añadir o extraer (add/drop) señales individuales de bajo nivel dentro de la trama de alta velocidad sin tener que demultiplexar toda la jerarquía, simplificando la gestión y reduciendo costos. En el protocolo HSRP (Hot Standby Router Protocol), ¿cuál es la función principal de la "Dirección IP Virtual" configurada en un grupo de HSRP?. Ser la dirección IP asignada al router en estado Standby, utilizada únicamente cuando el router activo falla. Representar la dirección de multicast utilizada por los routers HSRP para intercambiar mensajes de estado. Actuar como la puerta de enlace predeterminada (Default Gateway) para los dispositivos finales en la subred, permitiendo que múltiples routers físicos compartan esta función de manera transparente para la alta disponibilidad. dentificar la dirección IP física del router activo dentro del grupo HSRP para fines de gestión remota. Dentro de un grupo GLBP (Gateway Load Balancing Protocol), existen dos roles principales: el Gateway Virtual Activo (AVG) y los Forwarders Virtuales Activos (AVFs). ¿Cuál es la diferencia principal en la función entre el AVG y los AVFs?. Los AVFs asignan las direcciones MAC virtuales y responden a ARP, mientras que el AVG solo supervisa el estado. Tanto el AVG como los AVFs realizan ambas funciones: responder ARP y reenviar tráfico. El AVG reenvía todo el tráfico de datos, mientras que los AVFs solo actúan como respaldo pasivo. El AVG gestiona las asignaciones de direcciones MAC virtuales y responde a ARP, mientras que los AVFs reenvían el tráfico de datos real. ¿Qué mecanismo podría evitar que el host quede aislado de la red?. a. Protocolo WDM. b. Protocolo FHRP. c. Protocolo Frame Relay. d. Protocolo SPT. Una organización gestiona una red que incluye routers de diferentes proveedores (multivendor) y necesita implementar un protocolo de redundancia de primera milla (FHRP) para garantizar la alta disponibilidad de la puerta de enlace predeterminada para una subred crítica. El requisito principal es utilizar un protocolo estándar y compatible entre los distintos equipos. ¿Cuál de los siguientes protocolos FHRP sería la elección más adecuada en este escenario?. a. HSRP (Hot Standby Router Protocol). b. VRRP (Virtual Router Redundancy Protocol). c. GLBP (Gateway Load Balancing Protocol). d. IGRP (Enhanced Interior Gateway Routing Protocol). En una configuración HSRP (Hot Standby Router Protocol), la prioridad determina qué router se convierte en el router Activo para un grupo de redundancia. Por defecto, una vez que un router se convierte en Activo, permanece en ese rol hasta que falla, incluso si un router con una prioridad más alta se vuelve disponible posteriormente (por ejemplo, si un router principal de alta prioridad se recupera de una falla). Si se desea que un router con una prioridad HSRP más alta siempre asuma el rol de Activo tan pronto como esté operativo y tenga una mejor prioridad que el router actualmente Activo (que tiene menor prioridad), ¿Qué comando específico de HSRP debe configurarse en las interfaces de los routers que forman parte del grupo de redundancia?. a. El comando standby <group> preempt se debe configurar en las interfaces de los routers con mayor prioridad. Esto les permite tomar el control del rol Activo si detectan que un router Activo con menor prioridad está funcionando. b. El comando standby <group> priority <value> con un valor numérico más alto se debe configurar en el router deseado. Esto asegura que tenga la mayor prioridad, pero por sí solo no habilita la toma de control reactiva. c. El comando standby <group> timers hello <seconds> hold <seconds> con valores más bajos para los temporizadores se debe configurar. Esto acelera la detección de fallas y la transición, pero no habilita la preemption. d. El comando standby <group> track <interface> se debe configurar. Esto permite que la prioridad del router disminuya si una interfaz monitoreada falla, pero no habilita la toma de control proactiva por alta prioridad. ¿Qué condición debe cumplirse para que dos routers formen una vecindad EIGRP correctamente?. a. Deben estar conectados por un switch administrado. b. Deben estar en la misma red y usar el mismo número de sistema autónomo. c. Deben tener direcciones IP idénticas. d. Deben tener el mismo hostname. ¿Cuál es la métrica compuesta principal que utiliza EIGRP para seleccionar la mejor ruta?. a. Número de saltos y costo. b. Retardo y carga de enlace. c. Ancho de banda y retardo. d. Ancho de banda y confiabilidad. ¿Cuál es el comando correcto para activar EIGRP en modo de configuración global usando el número de sistema autónomo 100?. a. router eigrp 100. b. start eigrp 100. c. configure eigrp 100. d. enable eigrp 100. ¿Cuál es el nombre del algoritmo que utiliza EIGRP para calcular la mejor ruta?. a. DUAL (Diffusing Update Algorithm). b. Bellman-Ford. c. SPF (Shortest Path First). d. OSPFLink State. ¿Qué mecanismo utiliza EIGRP para garantizar la entrega confiable de sus mensajes?. a. OSPF. b. UDP. c. TCP. d. RTP. ¿Qué condición debe cumplirse para que dos routers OSPF lleguen a ser adyacentes?. a. Deben intercambiar rutas externas mediante protocolos como BGP. b. Deben ser configurados como routers internos dentro del área 0. c. Deben coincidir los valores de área, máscara, tipo de red y mensaje hello. d. Deben tener diferentes IDs de router y estar conectados a través de una red WAN. ¿Qué comando se usa para anunciar una red en OSPF dentro del modo de configuración de router?. a. network 192.168.1.0 0.0.0.255 area 0. b. ospf network add 192.168.1.0 area 0. c. redistribute 192.168.1.0 0.0.0.255 area 0. d. ip route 192.168.1.0 255.255.255.0 ospf. ¿Qué comando permite verificar la tabla de enrutamiento OSPF en Packet Tracer?. a. display ospf routes. b. show ip route ospf. c. show ospf neighbors. d. trace ospf path. ¿Cuál es el comando correcto para habilitar OSPF en un router Cisco?. a. router ospf 1. b. enable ospf routing. c. configure ospf protocol. d. ip ospf start. ¿Qué comando convierte una interfaz en pasiva dentro del proceso OSPF?. a. passive-interface GigabitEthernet0/0. b. ip ospf passive GigabitEthernet0/0. c. disable ospf updates GigabitEthernet0/0. d. ospf passive-mode GigabitEthernet0/0. De la práctica realizad en clase, ¿Qué conexión se establece con el DLCI 102?. a. Quito - Cuenca. b. Router 1 – Router 2. c. Quito - Gye. d. Cuenca - Gye. De acuerdo al gráfico. ¿En qué tipo de red convergen las siguientes tecnologías?. WAN Redes de gran alcance. Redes SDH/SONET. Redes IP. Redes de nueva generación. |