Aspectos legales del sector TIC y de la gestión
![]() |
![]() |
![]() |
Título del Test:![]() Aspectos legales del sector TIC y de la gestión Descripción: Preguntas aleatorias |




Comentarios |
---|
NO HAY REGISTROS |
¿Cómo se define la economía digital?. Únicamente como el comercio electrónico. El conjunto de actividades económicas basadas en el uso de tecnologías digitales y datos como principal fuente de valor. Las actividades que no utilizan inteligencia artificial. El conjunto de empresas tradicionales que se han digitalizado. ¿Cuál de los siguientes no es un factor que ha impulsado el auge de la economía digital?. Crecimiento exponencial de los datos (Big Data). Acceso masivo a Internet y redes móviles. Disminución en el desarrollo de la inteligencia artificial. Computación en la nube. Desde el punto de vista jurídico, la digitalización plantea retos en materia de: Únicamente fiscalidad de empresas locales. Protección de datos personales y privacidad. Desaparición de derechos laborales. Regulación de la competencia solo para grandes monopolios. ¿Qué tipo de plataformas digitales conectan a compradores y vendedores en un entorno digital?. Plataformas de economía colaborativa. Plataformas de redes sociales. Plataformas de comercio electrónico. Plataformas de streaming. Un ejemplo de plataforma de economía colaborativa es: Facebook. Netflix. Uber. Fiverr. ¿Qué tipo de plataforma conecta a trabajadores independientes con empresas y clientes?. Plataformas de redes sociales y contenido. Plataformas de trabajo digital. Plataformas de streaming. Plataformas de comercio electrónico. ¿Cuál de los siguientes es un principal desafío legal para las plataformas digitales?. La responsabilidad exclusiva de los usuarios por el contenido. La falta de regulaciones de protección al consumidor. La responsabilidad sobre los contenidos generados por los usuarios. La ausencia de debate sobre la relación laboral. La Ley Rider en España (2021) obliga a las plataformas de reparto a: Considerar a sus repartidores como autónomos. Contratar a sus repartidores como empleados. Limitar los impuestos digitales. No tener presencia física en España. Un problema fiscal clave en la economía digital es: La uniformidad de las regulaciones fiscales entre países. La falta de un marco fiscal global y la dificultad en la imposición de impuestos digitales. La prohibición de la optimización fiscal. La facilidad para la tributación de plataformas globales. ¿Qué organismo ha propuesto un impuesto mínimo global del 15% para evitar la elusión fiscal por parte de grandes tecnológicas?. La Unión Europea. La OCDE. El Banco Central Europeo. El Fondo Monetario Internacional. El Reglamento de Mercados Digitales (DMA) de la UE busca: Fomentar el monopolio de las grandes plataformas. Evitar abusos de posición dominante por parte de las grandes plataformas digitales (gatekeepers). Limitar la interoperabilidad entre plataformas. Promover la autopreferencia de las plataformas. Un criterio para considerar a una empresa como "gatekeeper" bajo el DMA es: Tener una facturación anual inferior a 1 millón de euros en la UE. Tener menos de 10 millones de usuarios activos mensuales dentro de la UE. Ser una plataforma esencial para la economía digital (ejemplo: motores de búsqueda, redes sociales). Evitar la autopreferencia en los resultados de búsqueda. Una de las principales obligaciones del DMA es: Permitir que las plataformas favorezcan sus propios servicios. Facilitar la interoperabilidad entre servicios como WhatsApp y otras plataformas de mensajería. Promover el uso indebido de datos. Restringir la desinstalación de aplicaciones. En caso de incumplimiento del DMA, las multas pueden ascender a: Hasta el 1% de la facturación mundial anual. Hasta el 5% de la facturación mundial anual. Hasta el 10% de la facturación mundial anual. Hasta el 50% de la facturación mundial anual. Google fue multado por la Comisión Europea en 2018 por prácticas anticompetitivas relacionadas con: Amazon. Android. TikTok. Meta. La Inteligencia Artificial (IA) se define como la disciplina científica que permite: Únicamente el reconocimiento de patrones. Diseñar y programar sistemas capaces de realizar tareas que requieren inteligencia humana. Solo la computación en la nube. Exclusivamente la automatización de tareas repetitivas. Uno de los enfoques principales en la construcción de sistemas de IA es la IA basada en conocimiento, la cual: Aprende a partir de ejemplos y experiencia. Utiliza reglas y datos estructurados proporcionados por expertos para resolver problemas específicos. Se basa en redes neuronales artificiales. Detecta patrones en grandes volúmenes de datos. La IA basada en datos o aprendizaje automático (Machine Learning) se caracteriza por: Partir de reglas predefinidas. Aprender a partir de ejemplos y experiencia, analizando grandes volúmenes de datos. Utilizar sistemas expertos para inferir soluciones. No detectar patrones. El aprendizaje automático (Machine Learning) opera sobre grandes volúmenes de información y se basa en modelos probabilísticos, lo que significa que: Prioriza la causalidad sobre la predicción. Sustituye la causalidad por predicción. Requiere comprender el significado de cada dato. Se limita a la detección de fraudes bancarios. El aprendizaje profundo (Deep Learning) es una evolución del Machine Learning que utiliza: Reglas predefinidas. Redes neuronales multicapa para procesar grandes cantidades de información. Pequeños volúmenes de datos. Principalmente árboles de decisión simples. ¿En qué aplicaciones se utiliza el Deep Learning, según el documento?. IA generativa, visión por computadora, reconocimiento de voz y procesamiento del lenguaje natural (NLP). Solo en sistemas de diagnóstico médico. Exclusivamente en ChatGPT. Solo en robots domésticos. La robótica es el campo de la tecnología que se encarga del diseño, construcción y uso de: Sistemas de software con funciones automatizadas en Internet. Máquinas autónomas o semiautónomas para realizar tareas físicas o cognitivas. Sistemas que monitorean signos vitales. Aplicaciones de IA generativa. Un aspecto que distingue a los robots del software y que ha generado debate sobre su regulación es: Su capacidad de operar con redes neuronales. Su corporeidad y presencia física. Su capacidad de procesar lenguaje natural. Su uso en misiones espaciales. Actualmente, no existe una regulación jurídica específica para la responsabilidad de los daños causados por robots, por lo que se aplican: Únicamente los códigos éticos de los fabricantes. Las normas generales sobre responsabilidad por productos defectuosos (Directiva 85/374/CEE). Las leyes específicas sobre robótica de cada país. Regulaciones de ciberseguridad. El Internet de las Cosas (IoT) consiste en: Únicamente la interconexión de electrodomésticos. La interconexión de dispositivos cotidianos a través de Internet para el intercambio de datos y automatización de procesos. Sistemas de gestión del tráfico sin intercambio de datos. Dispositivos que no recogen información. En el ámbito del IoT, ¿qué aplicación permite gestionar la iluminación, temperatura y vigilancia de forma remota en hogares?. Vehículos conectados. Salud digital. Hogares inteligentes. Industria 4.0. Un desafío legal clave en la implementación masiva del IoT es: La promoción de la educación y concienciación. La protección de datos personales y la privacidad, debido a la recopilación masiva de datos sensibles. El desarrollo de estándares técnicos. La ausencia de exposición a ataques informáticos. En situaciones donde un fallo en un dispositivo IoT cause daños, surge la necesidad de definir: Solo la responsabilidad del usuario final. Quién es responsable: el fabricante, el proveedor del servicio o el usuario final. La elaboración de códigos éticos sin normativas. La prohibición total del IoT. Una estrategia clave para mitigar los retos regulatorios del IoT es: Permitir que los dispositivos operen sin medidas de seguridad. El desarrollo de estándares técnicos y certificaciones de seguridad. Priorizar la innovación sobre la seguridad. La falta de educación y concienciación. En el ecosistema digital, ¿qué organismo ha establecido regulaciones clave como el RGPD y el DMA?. Naciones Unidas (ONU). Consejo de Europa. Unión Europea (UE). Organización para la Cooperación y el Desarrollo Económico (OCDE). ¿Qué tipo de empresas ejercen un papel dominante en el ecosistema digital y han sido objeto de regulaciones sobre privacidad y competencia?. Startups tecnológicas. Plataformas de intermediación digital. Grandes empresas tecnológicas (Big Tech). ONGs de defensa de la privacidad. Las plataformas digitales actúan como intermediarios entre los creadores de contenido y los usuarios finales, lo que plantea la cuestión de: Su exención de responsabilidad por el contenido. Hasta qué punto son responsables del contenido que se publica en sus plataformas. La total libertad de expresión sin moderación. La imposibilidad de regular el contenido. ¿Qué normativa de la UE obliga a las plataformas a eliminar contenido ilegal de manera rápida y efectiva y exige mayor transparencia en los algoritmos de recomendación?. Sección 230 de la Ley de Decencia en las Comunicaciones (EE.UU.). Directiva de Servicios Digitales (DSA) de la UE (2022). Reglamento de Mercados Digitales (DMA). Ley Rider. La Ley de Decencia en las Comunicaciones (Sección 230) en EE.UU. protege a las plataformas digitales de: Ser consideradas responsables del contenido generado por sus usuarios. Ser multadas por violaciones de privacidad. Eliminar contenido dañino. Cumplir con las regulaciones de transparencia. El modelo de negocio de plataformas como Uber y Airbnb ha sido cuestionado debido a: La falta de contratos laborales para los trabajadores de la plataforma y la evasión fiscal. Su cumplimiento estricto de todas las regulaciones. Su contribución a la competencia leal. La ausencia de impacto en el mercado inmobiliario. El Reglamento General de Protección de Datos (RGPD, UE, 2018) establece el derecho a: La publicidad personalizada sin consentimiento. La recopilación masiva de datos. El olvido y la portabilidad de datos. Las fugas de información. El Reglamento de Inteligencia Artificial de la UE (RIA, 2024/1689) establece un marco legal obligatorio para los sistemas de IA utilizados en Europa, buscando: Fomentar el uso de IA para la manipulación subliminal. Prohibir cualquier sistema de IA. Garantizar que la IA sea segura y respete los derechos fundamentales. Promover la identificación biométrica en tiempo real en espacios públicos. Un ejemplo de sistema de IA clasificado como de "alto riesgo" según el RIA es: Chatbots y asistentes virtuales. IA utilizada en contratación laboral (procesos de selección). Filtros de spam en correos electrónicos. Sistemas de recomendación. Según la Recomendación sobre la ética de la IA de la UNESCO (2021), uno de los principios principales es: La discriminación algorítmica. El respeto a los derechos humanos y la prohibición de la IA que vulnere la dignidad humana. La falta de transparencia en los algoritmos. La recopilación de datos personales sin protección. En el caso de daños causados por IA, la responsabilidad podría recaer en: Solo el usuario del sistema de IA. El fabricante (si hay defecto de diseño), el usuario (si no sigue protocolos) o el programador (si hay fallo en el algoritmo). Exclusivamente el dueño del coche autónomo. Nadie, debido a la autonomía de la IA. El responsable del tratamiento de datos es la entidad que: Procesa datos en nombre de otra entidad. Determina los fines y medios del tratamiento de datos personales. Solo ejecuta operaciones de tratamiento. No tiene obligaciones de seguridad. Para el encargado del tratamiento de datos, es fundamental que exista un contrato formal con el responsable, conocido como: Servicio de Nivel de Acuerdo (SLA). Acuerdo de Confidencialidad (NDA). Data Processing Agreement (DPA). Acuerdo de Licencia de Usuario Final (EULA). Los nuevos derechos digitales buscan proteger a los ciudadanos frente a: Únicamente la libertad de expresión. La vigilancia masiva, el uso indebido de la inteligencia artificial y la desinformación. La dependencia tecnológica total sin control. El acceso equitativo a la tecnología. La Carta de los Derechos Digitales en España (2021) recoge, entre otros, el derecho a: La limitación del acceso a la tecnología. La discriminación algorítmica. La identidad digital (protección contra la suplantación de identidad en línea). La dependencia tecnológica. El Reglamento General de Protección de Datos (RGPD) establece, entre otros, los derechos a: La puntuación social. La identificación biométrica masiva. El olvido y la portabilidad de datos. La censura de contenido. El derecho al olvido permite a los ciudadanos: Almacenar su información personal indefinidamente. Solicitar la eliminación de su información personal de Internet cuando ya no sea relevante o cause perjuicios. Transferir su información personal de un servicio a otro sin restricciones. Vulnerar la libertad de prensa. El derecho a la portabilidad de datos otorga al interesado la posibilidad de: Restringir temporalmente el uso de sus datos. Transferir su información personal de un servicio a otro sin restricciones injustificadas. Oponerse al tratamiento de datos. No ser objeto de decisiones automatizadas. El derecho a la desconexión digital busca garantizar que: Los trabajadores estén disponibles 24/7. Los trabajadores no sean obligados a estar disponibles fuera del horario laboral debido a la hiperconectividad. Se promueva la cultura de la disponibilidad permanente. No haya conciliación familiar. La Ley de Servicios Digitales (DSA) de la UE (2022) obliga a las plataformas como Facebook y Twitter a: Permitir la propagación de desinformación. Eliminar discursos de odio y desinformación. No explicar las decisiones de moderación de contenido. No regular el contenido. La identidad digital permite a los ciudadanos y empresas: Operar sin verificación en entornos digitales. Verificarse en entornos digitales de manera segura, evitando fraudes y garantizando la protección de datos. Realizar transacciones digitales sin autenticación. Excluir los sistemas de autenticación. El Reglamento eIDAS (Electronic Identification and Trust Services Regulation) de la UE busca: Crear un sistema de identidad digital fragmentado en la UE. Crear un sistema unificado de identidad digital en la UE, permitiendo una identificación única para acceder a servicios. Limitar la fiabilidad de la autenticación electrónica. No garantizar la seguridad de los datos. La firma electrónica cualificada es equivalente a: Una firma electrónica simple. Una firma manuscrita, validada por un organismo certificador reconocido. Una autenticación básica. Un inicio de sesión en una cuenta. En la economía digital, los datos personales se han convertido en: Un activo sin valor. Uno de los activos más valiosos del mundo. Un riesgo sin beneficios. Un mero registro administrativo. El Reglamento General de Protección de Datos (RGPD) se caracteriza por: No requerir transposición nacional (aplicación directa) y tener principio de extraterritorialidad. Permitir tratamientos no autorizados. Fomentar la reutilización de datos con finalidades no previstas. Limitar los derechos de las personas. Uno de los siete principios rectores del tratamiento de datos personales, según el RGPD, es la "Minimización de datos", que implica: Tratar todos los datos disponibles. Tratar solo los datos estrictamente necesarios. Almacenar datos sin límite de tiempo. No informar sobre el tratamiento. Cada operación de tratamiento de datos personales debe apoyarse en una base jurídica clara, tal como establece el artículo 6 del RGPD, lo que significa: Que se pueden tratar datos de forma arbitraria. Que es necesario demostrar la licitud del tratamiento. Que el consentimiento es la única base jurídica posible. Que los intereses del responsable siempre prevalecen. Un ejemplo de base jurídica para el tratamiento de datos es la "Ejecución de un contrato", aplicable a: Encuestas internas. La gestión de nóminas o la formalización de contratos. La comunicación de datos a la Agencia Tributaria. El tratamiento de datos de menores con fines comerciales. El derecho de supresión (también conocido como "derecho al olvido") permite a las personas: Conocer si se están tratando sus datos personales. Corregir datos inexactos. Solicitar la eliminación de datos cuando ya no sean necesarios o se haya retirado el consentimiento. Recibir sus datos en un formato estructurado. La "Responsabilidad proactiva" exigida por el RGPD implica que las entidades deben: Esperar a que se produzcan brechas de seguridad para actuar. Demostrar que cumplen con las obligaciones, documentando y justificando cada tratamiento. Evitar la comunicación de sus políticas de privacidad. No responder a las solicitudes de los interesados en un plazo determinado. Ante una violación de seguridad de datos, una de las acciones obligatorias es: No notificar a la autoridad de protección de datos. Informar al Delegado de Protección de Datos y notificar a la AEPD en menos de 72 horas. Esperar más de 72 horas para notificar a la AEPD. No comunicar a los interesados si el riesgo es alto. |