option
Cuestiones
ayuda
daypo
buscar.php

Modulo profesional optativo - Tema 5

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Modulo profesional optativo - Tema 5

Descripción:
Tema 5 - Uso Responsable de la IA

Fecha de Creación: 2026/05/13

Categoría: Informática

Número Preguntas: 55

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

¿Cuál es el principal desafío crítico que se aborda al integrar sistemas de inteligencia artificial en el tejido social según el documento?. Aumentar la eficiencia económica. Proteger la privacidad, mitigar sesgos y manejar la desinformación. Desarrollar nuevas formas de entretenimiento. Automatizar completamente todos los procesos industriales.

¿Por qué la privacidad es un pilar fundamental en el desarrollo y uso de la inteligencia artificial generativa?. Porque los sistemas de IA generan más ingresos con datos privados. Porque los sistemas de IA se entrenan con enormes cantidades de información, que a menudo incluye datos personales o confidenciales. Porque la privacidad es un requisito legal en todos los países. Porque los usuarios exigen que sus datos estén protegidos.

¿Cuál de los siguientes es un riesgo asociado a la privacidad en IA mencionado en el documento?. Suplantación. Mejora de la experiencia de usuario. Mayor eficiencia en la toma de decisiones. Automatización de tareas repetitivas.

¿Qué significa 'RGPD' en el contexto de la privacidad y la IA?. Reglamento General de Protección de Datos. Revisión Global de Datos Personales. Reglas Generales de Discreción Privada. Responsabilidad Gubernamental de Datos Públicos.

Según el RGPD, ¿qué derecho tienen las personas si una decisión significativa ha sido tomada por un sistema automatizado de IA?. Derecho a la modificación de la decisión. Derecho a la explicación de los criterios seguidos por el sistema. Derecho a la apelación automática. Derecho a la desconexión del sistema.

¿Qué es el sesgo algorítmico en la IA?. La capacidad de la IA para aprender de datos diversos. La tendencia de los sistemas de IA a favorecer injustamente a ciertos grupos o ideas. El proceso de entrenamiento de los modelos de IA. La mejora en la precisión de los resultados de la IA.

¿Cuál es un ejemplo de 'sesgo en los datos de entrenamiento' mencionado en el documento?. Una IA que recomienda películas basadas en el historial de visualización del usuario. Un modelo de reclutamiento que recomienda más currículums masculinos para puestos técnicos porque los datos históricos muestran esa tendencia. Un sistema de traducción que mejora su precisión con cada traducción realizada. Una IA que genera imágenes realistas de paisajes.

¿Qué es el 'sesgo de selección' en el contexto de la IA?. Cuando los datos utilizados para entrenar un modelo no representan adecuadamente a toda la población. Cuando la IA selecciona los datos más relevantes para una tarea específica. Cuando el usuario selecciona los datos que desea que la IA utilice. Cuando la IA elige los resultados más populares.

¿Cuál es la implicación legal clave del Reglamento (UE) 2024/1689 (Reglamento sobre inteligencia artificial)?. Prohibición total del uso de IA en finanzas. Obligación de transparencia en sistemas de IA de alto riesgo y con interacción directa con personas. Establecimiento de un impuesto sobre el uso de IA. Requisito de que toda IA sea de código abierto.

¿Qué estrategia se recomienda para combatir la discriminación algorítmica mediante la diversificación de datos?. Utilizar exclusivamente datos de un solo grupo demográfico. Asegurar que los conjuntos de entrenamiento incluyan representación adecuada de diversos grupos. Reducir la cantidad de datos de entrenamiento. Eliminar los datos de grupos minoritarios.

¿Qué son los 'deepfakes'?. Contenidos audiovisuales creados o manipulados con IA para suplantar identidades o inventar situaciones. Algoritmos de IA diseñados para la verificación de hechos. Técnicas de encriptación para proteger datos personales. Programas de IA para la creación de música original.

¿Cuál de los siguientes es un riesgo relacionado con la desinformación impulsada por IA?. Mejora de la calidad de las noticias. Fortalecimiento de los procesos democráticos. Difamación y daño a la reputación de personas. Aumento de la confianza en las fuentes de información.

¿Qué técnica de verificación de información implica contrastar datos con comunicados o datos de organismos oficiales actualizados?. Análisis de metadatos visuales. Verificación con fuentes oficiales en tiempo real. Verificación de hechos históricos. Análisis forense de audio/vídeo.

¿Cuál es una señal de alerta en redes sociales que podría indicar un contenido falso?. Cuentas con información clara sobre su origen. Mensajes que apelan a la calma y la reflexión. Falta de fuentes fiables que respalden la información. Contenido publicado por organizaciones de noticias acreditadas.

Según el documento, ¿quiénes son los principales responsables del uso ético de la IA?. Únicamente los desarrolladores de IA. Los gobiernos y las agencias reguladoras. Los creadores, usuarios y ciudadanos en general. Las grandes corporaciones tecnológicas.

¿Qué principio ético guía el desarrollo responsable de la IA al tratar de forma imparcial y justa a todas las personas?. Privacidad. Transparencia. Responsabilidad. Equidad.

¿Qué significa el principio de 'Transparencia' en el contexto de la IA?. Ocultar cómo funciona la IA para proteger secretos comerciales. Divulgación abierta y clara de información sobre cómo funciona y se utiliza la IA. Permitir que los usuarios accedan al código fuente de la IA. Asegurar que la IA sea invisible para el usuario final.

¿Cuál es uno de los 'impactos positivos de la IA' mencionados en el documento?. Desplazamiento laboral. Dependencia excesiva de la tecnología. Mejora de la eficiencia en diversos sectores. Ampliación de brechas socioeconómicas.

¿Cuál de los siguientes es un 'impacto negativo para mitigar' relacionado con la IA?. Fomento de la creatividad. Acceso democratizado a herramientas. Desplazamiento laboral. Colaboración global.

En el marco para la toma de decisiones éticas con IA, ¿qué implica la 'Evaluación de necesidad'?. Analizar quiénes se verán afectados por la aplicación de IA. Determinar si la IA es la herramienta adecuada para la tarea en cuestión. Establecer medidas preventivas para mitigar riesgos. Asegurar la supervisión humana sobre los procesos de IA.

¿Qué significa que las 'obras generadas exclusivamente por sistemas de IA, sin intervención creativa significativa de una persona, no están protegidas por copyright' en la Unión Europea?. Estas obras pertenecen al dominio público automáticamente. La IA puede reclamar derechos de autor si demuestra originalidad. No se pueden registrar legalmente como obras originales porque carecen de autoría humana. Los desarrolladores de IA tienen la propiedad intelectual exclusiva.

¿Cuál es una 'buena práctica' recomendada para la creación responsable con IA en relación con el uso de materiales existentes?. Utilizar contenido sin verificar su origen. Ocultar el uso de materiales de terceros. Citar y reconocer las fuentes siempre que sea posible. Reclamar la autoría de cualquier contenido generado por IA.

Si un usuario pide a una IA que redacte un poema y no añade un aporte creativo propio, ¿puede ese resultado registrarse legalmente como una obra original?. Sí, si el poema es de alta calidad. Sí, porque la IA ha realizado la creación. No, porque la autoría debe ser humana y significativa. Solo si la IA utiliza datos públicos.

¿Qué significa 'Exposición de información confidencial' como riesgo de privacidad en IA?. La IA revela información sobre sus propios algoritmos. Datos personales o empresariales se vuelven visibles para terceros no autorizados. La IA genera informes confidenciales sobre usuarios. La información se oculta deliberadamente al usuario.

¿Qué implicación tiene el 'Derecho al olvido' en relación con los datos personales utilizados por sistemas de IA?. Las personas pueden exigir que sus datos sean eliminados, siempre que no haya motivos legales para su conservación. Los datos personales solo pueden ser eliminados después de 10 años. Las empresas pueden decidir si eliminan o no los datos. El derecho al olvido solo aplica a datos públicos.

¿Qué es un 'sesgo de confirmación' en el contexto de la IA?. La IA confirma la veracidad de todas las afirmaciones que recibe. Los datos o preguntas se diseñan para reforzar creencias previas en lugar de cuestionarlas. La IA confirma la identidad del usuario mediante biometría. El sistema confirma la finalización exitosa de una tarea.

¿Qué técnica de verificación de información implica examinar la información técnica de archivos de imagen/video para detectar manipulación?. Verificación cruzada con fuentes primarias. Análisis crítico. Análisis de consistencia física/científica. Análisis de metadatos visuales.

¿Cuál es la principal diferencia entre 'datos anonimizados' y 'datos seudonimizados' según las medidas de protección de datos en IA?. La anonimización elimina la información personal, mientras que la seudonimización la reemplaza con identificadores artificiales. La anonimización es opcional, la seudonimización es obligatoria. La anonimización solo se aplica a datos textuales, la seudonimización a imágenes. No hay diferencia significativa entre ambos términos.

¿Por qué es importante 'indicar claramente si un contenido ha sido generado o asistido por IA'?. Para aumentar la complejidad del contenido. Para cumplir con regulaciones específicas de cada país. Para mantener la confianza del usuario y evitar malentendidos. Para facilitar la detección de deepfakes.

¿Qué significa 'Robo de identidad' en el contexto de los riesgos de privacidad en IA?. La IA roba la identidad digital de un usuario para acceder a servicios. La IA facilita la recopilación y uso indebido de datos personales para crear perfiles falsos o apropiarse de la identidad de alguien. Un usuario roba la identidad de una IA. La IA protege la identidad digital de los usuarios.

Según el documento, ¿qué tipo de información se utiliza frecuentemente para entrenar modelos de IA, a menos que se opte explícitamente por no participar?. Información generada exclusivamente por IA. Datos sintéticos creados en laboratorio. Contenido generado por humanos. Información obtenida de fuentes de código abierto únicamente.

¿Cuál es una de las implicaciones legales y éticas del sesgo en la IA mencionadas en el documento?. Aumento de la innovación tecnológica. Mejora de la eficiencia en la toma de decisiones. Trato injusto o perjudicial hacia diferentes categorías de personas (discriminación). Mayor protección de datos personales.

¿Qué estrategia de mitigación de sesgos implica actualizar el conocimiento de un modelo de IA con datos nuevos y diversos?. Guardrails éticos. Reentrenamiento. Evaluación humana. Auditorías externas de modelos.

¿Qué se considera 'plagio' en el contexto de la IA y los derechos de autor?. Utilizar IA para generar contenido original. Copiar el trabajo de otra persona y presentarlo como propio, incluso si se usó IA para hacerlo. Entrenar un modelo de IA con datos protegidos por derechos de autor. Crear contenido que imita el estilo de un artista famoso.

¿Cuál es un ejemplo de 'contenido íntimo no consentido' relacionado con los deepfakes?. Vídeos falsos de políticos pronunciando discursos que no dieron. Clonación de voz para cometer fraudes bancarios. Creación de deepfakes sexuales de mujeres sin su permiso. Uso de IA para generar imágenes de paisajes realistas.

¿Qué herramienta o estrategia puede ayudar a comprobar si una fotografía ya ha circulado antes y en qué contexto?. Análisis forense de audio/vídeo. Búsqueda inversa de imágenes (ej. Google Imágenes, TinEye). Verificación de consistencia física/científica. Consulta a expertos del sector.

¿Qué principio ético de la IA implica la obligación de explicar, justificar y responsabilizarse de los propios actos al usarla?. Equidad. Privacidad. Transparencia. Responsabilidad.

¿Cuál es uno de los riesgos asociados a la 'desinformación impulsada por IA' en los procesos democráticos?. Mayor participación ciudadana. Fortalecimiento del debate público. Interferencia en elecciones mediante noticias falsas. Aumento de la confianza en las instituciones.

¿Qué se entiende por 'Explotación comercial de datos personales' en el contexto de la IA?. Venta o uso de datos para fines económicos sin informar al usuario. Uso de datos para mejorar la experiencia del usuario de forma anónima. Compartir datos con fines de investigación científica sin fines de lucro. Almacenamiento seguro de datos personales.

¿Qué es el 'Derecho de acceso y portabilidad' reconocido por el RGPD en relación con los datos utilizados por IA?. El derecho a que los datos sean eliminados permanentemente. El derecho a solicitar una copia de los datos personales utilizados por la IA y transferirlos. El derecho a negarse a que la IA utilice los datos. El derecho a que los datos sean corregidos si son incorrectos.

¿Cuál es la función principal de las 'Auditorías externas de modelos' de IA?. Acelerar el desarrollo de nuevos modelos de IA. Revisar independientemente si un sistema de IA reproduce sesgos o discrimina. Aumentar la eficiencia computacional de los modelos. Garantizar la protección de datos personales mediante encriptación.

¿Qué significa 'Entrenamiento sin consentimiento' en el uso de datos para IA?. Usar datos que han sido explícitamente autorizados para el entrenamiento. Utilizar contenidos generados por usuarios para entrenar modelos de IA sin su permiso explícito. Entrenar la IA con datos anónimos y públicos. El proceso de entrenamiento se realiza automáticamente sin intervención humana.

¿Cuál es el propósito de las 'Guardrails éticos' en la IA?. Acelerar la velocidad de procesamiento de la IA. Implementar limitaciones o restricciones en las salidas de IA para evitar contenido discriminatorio. Asegurar que la IA tenga acceso a la máxima cantidad de datos posible. Permitir que la IA tome decisiones autónomas sin supervisión.

¿Qué aspecto ético es fundamental para garantizar que las tecnologías de IA beneficien a la sociedad en su conjunto?. Maximizar la automatización. Priorizar la innovación tecnológica sobre los valores humanos. Adherirse a principios como equidad, privacidad, transparencia y responsabilidad. Reducir la intervención humana en los procesos de IA.

¿Qué implica el 'Análisis de impacto' en el marco para la toma de decisiones éticas con IA?. Evaluar la necesidad de la IA para una tarea. Determinar quiénes se verán afectados por una aplicación de IA. Identificar medidas preventivas para mitigar riesgos. Asegurar la supervisión humana continua.

¿Por qué la 'Supervisión humana' es crucial en los procesos de IA según el documento?. Para acelerar la toma de decisiones de la IA. Para delegar completamente la responsabilidad en la máquina. Para mantener el control y la revisión humana sobre los procesos, especialmente en decisiones de alto impacto. Para reducir la necesidad de datos de entrenamiento.

¿Qué se entiende por 'Fraude' como riesgo de desinformación impulsada por IA?. Interferencia en procesos democráticos. Daño a la reputación de personas. Engaño deliberado con intención de obtener ganancia financiera o personal. Debilitamiento de la confianza social.

¿Cuál es el rol de la IA en la 'Violación de secretos comerciales'?. La IA protege los secretos comerciales mediante encriptación avanzada. La IA puede ser entrenada con datos internos de una empresa sin medidas de seguridad, llevando a la filtración de información sensible. La IA ayuda a descubrir secretos comerciales de la competencia. La IA solo maneja información pública, por lo que no afecta a secretos comerciales.

¿Qué implica el 'Derecho a la explicación' cuando una IA toma una decisión importante?. La IA debe explicar su funcionamiento interno completo. El ciudadano tiene derecho a saber qué factores y criterios influyeron en la decisión automatizada. La decisión de la IA es final y no requiere explicación. Solo los expertos pueden solicitar una explicación de la IA.

¿Cuál es una 'señal de alerta en redes sociales' para identificar contenido potencialmente falso?. Cuentas verificadas y con información detallada. Mensajes que apelan a la lógica y la evidencia. Errores en la edición de imágenes o vídeos (ej. manos deformadas). Uso de fuentes primarias para la información.

¿Qué principio ético garantiza la protección de la información personal contra la exposición pública o el uso indebido?. Equidad. Privacidad. Transparencia. Responsabilidad.

¿Qué estrategia para mitigar riesgos implica 'aprender de la experiencia y actualizar prácticas' en el uso de la IA?. Evaluación de necesidad. Análisis de impacto. Mitigación de riesgos. Mejora continua.

¿Cuándo puede considerarse que una obra generada con ayuda de IA tiene 'autoría válida'?. Siempre que la IA genere la obra principal. Cuando hay una contribución humana relevante, como selección de prompts o edición posterior. Si la IA utiliza información protegida por derechos de autor. Cuando la obra es publicada bajo el nombre de la IA.

¿Cuál es el objetivo principal de las técnicas de 'Explicabilidad de algoritmos (XAI)'?. Hacer que los algoritmos de IA sean más complejos. Permitir comprender por qué un modelo de IA llega a un resultado determinado. Aumentar la velocidad de ejecución de los modelos de IA. Ocultar el funcionamiento interno de la IA.

¿Qué significa 'Fugas de datos' en el contexto de la IA?. La IA genera datos nuevos de forma masiva. Información sensible se expone sin autorización debido a error humano, fallo de seguridad o mal uso de la IA. Los datos se filtran a través de canales de comunicación seguros. La IA realiza una copia de seguridad de todos los datos.

Denunciar Test