Módulo Optativo - Inteligencia Artificial RA5
|
|
Título del Test:
![]() Módulo Optativo - Inteligencia Artificial RA5 Descripción: Ilerna DAW 2S2526 |



| Comentarios |
|---|
NO HAY REGISTROS |
|
Una empresa de marketing usa IA para analizar correos de clientes y segmentarlos en grupos. Descubres que el sistema también está guardando nombres completos, direcciones y números de teléfono sin haberlo comunicado a los usuarios. ¿Qué práctica de protección de datos debería aplicarse aquí según el RGPD?. Ampliar la política de privacidad para incluir todos los posibles usos futuros de los datos. Guardar todos los datos personales, pero aplicar encriptación para protegerlos. Minimización de datos: recoger solo la información estrictamente necesaria. Informar a los usuarios después de haber recopilado los datos, en lugar de pedir consentimiento previo. Una editorial usa IA para crear un libro de arte digital, pero una imagen generada resulta muy similar a una obra protegida de un artista fallecido hace 5 años (cuya obra aún está bajo derechos de autor). ¿Cuál es la situación legal más precisa en este caso?. La editorial puede utilizar libremente la imagen ya que fue creada por IA y no por un humano, por lo que no aplican las leyes de derechos de autor. La responsabilidad legal recae exclusivamente sobre la empresa desarrolladora de la herramienta de IA, no sobre la editorial. La editorial solo necesita citar al artista original como inspiración, sin necesidad de obtener permisos adicionales. La editorial debe obtener permiso de los herederos del artista, ya que el uso de la imagen generada por IA podría constituir una infracción de derechos de autor si reproduce sustancialmente elementos protegidos de la obra original. ¿Qué ejemplo corresponde a un deepfake?. Una simulación meteorológica. Un vídeo manipulado en el que un político dice algo que nunca dijo. Un meme humorístico. Un videojuego con gráficos realistas. ¿Qué principio ético exige divulgar de manera clara cómo funciona una IA?. Equidad. Transparencia. Responsabilidad. Privacidad. ¿Qué tipo de sesgo aparece cuando los datos de entrenamiento no representan a toda la población?. Sesgo de medición. Sesgo de confirmación. Sesgo en prompts. Sesgo de selección. ¿Qué es la anonimización de datos?. Almacenar la información en la nube. Encriptar archivos confidenciales. Usar contraseñas más seguras. Eliminar o alterar datos personales para que no identifiquen a individuos. ¿Qué tipo de sesgo ocurre al reforzar creencias o hipótesis previas en lugar de cuestionarlas al introducir datos o preguntas?. Sesgo de medición. Sesgo en prompts. Sesgo de selección. Sesgo de confirmación. ¿Qué ocurre si una obra es generada solo por IA sin intervención humana?. Se convierte en dominio privado. Solo pertenece al programador. No puede registrarse con derechos de autor. Tiene copyright automático. ¿Qué es el sesgo de confirmación?. Ninguna de las respuestas es correcta. Aquel que ocurre al reforzar creencias o hipótesis previas en lugar de cuestionarlas al introducir datos o preguntas. Aquel que ocurre cuando la IA aprende de datos que ya están sesgados y reproduce esas distorsiones en sus resultados. Aquel que ocurre cuando los métodos de recogida de datos contienen errores o distorsiones. Un riesgo de equidad social relacionado con la IA es: La traducción automática, que puede ser imprecisa. La brecha socioeconómica, hay personas que no tienen acceso a la IA. El clustering. El PLN. ¿Qué problema puede surgir por sesgos en los datos de entrenamiento?. Imágenes siempre en blanco y negro. Representaciones poco inclusivas. Exceso de detalles. Errores gramaticales. ¿Qué recomendación se debe tener en cuenta respecto a datos sensibles?. Compartirlos para personalizar mejor. No compartirlos por temas de privacidad. Usarlos siempre en prompts. Guardarlos en prompts para recordarlos. Un sistema de selección de personal con IA fue entrenado con datos de empleados exitosos de los últimos 20 años. ¿Qué tipo de sesgo social podría reproducir si el sector siempre ha estado dominado por hombres?. Un sesgo de género. Un sesgo de información. Un sesgo de coste energético. Un sesgo de brecha digital. ¿Qué desafío relacionado con la IA es un tema importante de debate en el sector creativo?. La falta de herramientas para la creación de arte. El elevado coste de las herramientas de generación de imágenes. Los derechos de autor y la imitación de estilos por parte de los modelos de IA. La imposibilidad de la IA para generar música de calidad. ¿Qué implica la ética digital y la responsabilidad social al usar IA?. Evitar el uso de cualquier herramienta de IA por su impacto. Usar la IA solo para tareas divertidas y personales. Desentenderse de los resultados, ya que la responsabilidad es de la máquina. Ser responsable del contenido generado, evitando sesgos y respetando derechos de autor. ¿Qué normativa europea regula la protección de datos personales en IA?. Directiva de copyright. Reglamento de IA 2024/1689. Reglamento General de Protección de Datos (RGPD). Ley de propiedad intelectual. ¿Qué riesgo supone la explotación comercial de datos personales?. Mejora del sistema de IA. Reducción de la publicidad. Venta de datos a anunciantes sin informar al usuario. Uso de contraseñas más seguras. ¿Qué medida NO corresponde a la protección de datos?. Minimización de datos. Evaluaciones de impacto. Supervisión humana. Anonimización. ¿Qué tipo de fraude se puede realizar con IA y datos personales robados?. Creación de videojuegos. Solicitud de créditos en nombre de otra persona. Automatización de tareas domésticas. Traducción de textos. ¿Qué significa el derecho de portabilidad de datos?. Exportar tus datos a otro servicio. Almacenar datos en un pendrive. Recuperar datos borrados. Usar datos de terceros sin permiso. ¿Qué significa el derecho a la explicación en IA?. Acceder a manuales de programación. Conocer los criterios usados por la IA para tomar decisiones. Poder modificar directamente los algoritmos. Obtener licencias de software gratuitas. ¿Qué ocurre cuando una pulsera de salud falla en personas con piel oscura?. Sesgo de confirmación. Sesgo de medición. Sesgo en prompts. Sesgo de selección. El Reglamento (UE) 2024/1689 obliga a: Reemplazar un 20% de los empleos con IA. Garantizar transparencia y supervisión humana en sistemas de alto riesgo. Eliminar la IA en educación y salud. Usar IA únicamente en publicidad. ¿Qué técnica permite comprender por qué un modelo llega a un resultado determinado?. Transparencia de datos. Explicabilidad de algoritmos (XAI). Minimización de datos. Auditoría externa. ¿Qué tipo de sesgo ocurre cuando la pregunta al sistema ya incluye un prejuicio?. Sesgo de medición. Sesgo en los prompts. Sesgo de confirmación. Sesgo de selección. ¿Qué plataforma española se dedica al fact-checking?. Newtral. Spotify. TikTok. Instagram. A nivel europeo, ¿quién regula el uso de obras con copyright en la IA?. Parlamento Europeo. Directiva sobre derechos de autor en el mercado único digital. Naciones Unidas. Google. ¿Qué riesgo ético supone el contenido íntimo manipulado con IA?. Aumento de productividad. Forma de violencia digital. Expansión cultural. Creación artística. ¿Qué implica el principio de equidad en la IA?. Que la IA no funcione en todos los países. Trato justo e imparcial sin discriminación. Favorecer siempre al grupo mayoritario. Reducir el número de datos. ¿Cuál es una consecuencia de la brecha socioeconómica generada por la IA?. Mejor acceso a internet. Acceso desigual a beneficios de la IA. Reducción de desigualdades. Mayor eficiencia global. ¿Qué es el sesgo de selección?. Los datos de entrenamiento no representan a toda la población. Los métodos de recogida de datos contienen errores o distorsiones. La magnificación de los sesgos ya existentes en los datos de entrenamiento, haciendo que aparezcan con más fuerza de lo que ocurre en la realidad. Los datos o las preguntas que se introducen en el sistema se diseñan de manera que refuerzan creencias o hipótesis previas. ¿Cuál de las siguientes competencias es clave para aprovechar la IA considerando su impacto social y sostenibilidad?. Evitar analizar la brecha digital, ya que todas las personas tienen el mismo acceso a la IA. Centrarse solo en el rendimiento técnico de la IA, ignorando aspectos éticos o sostenibles. Aprender únicamente a usar la IA sin preocuparse por consecuencias sociales o ambientales. Evaluar sesgos y discriminación, la brecha digital y el coste energético de los modelos de IA, promoviendo un uso ético y sostenible. ¿Cuál de estas es una medida para mitigar los sesgos algorítmicos?. Usar solo datos históricos. Reducir el tamaño de los datos. Uniformidad de los datos. Supervisión humana sobre los resultados de la IA. ¿Cuál es uno de los principales retos de la inteligencia artificial debido a la ausencia de estándares universales?. Que los modelos de IA son demasiado costosos para poder estandarizarlos. Que diferentes modelos de IA utilizan criterios éticos y niveles de transparencia distintos, lo que complica su uso responsable y seguro. Que todos los modelos de IA sigan los mismos criterios éticos. Que la IA sea incapaz de interactuar con otras tecnologías. ¿En qué consiste el principio ético de transparencia aplicado a la IA?. Obligación de explicar, justificar y responsabilizarse de los propios actos al usar IA. Trato imparcial y justo, sin favoritismos ni discriminación. Proteger la información personal contra la exposición pública o el uso indebido. Divulgar la información relevante sobre cómo funciona y se utiliza la IA. ¿Qué tipo de sesgo aparece cuando los métodos de recogida de datos contienen errores o distorsiones?. Sesgo de medición. Sesgo en prompts. Sesgo de selección. Sesgo de confirmación. ¿Qué aspecto fundamental del uso responsable de la IA aborda las preocupaciones sobre la forma en que los algoritmos pueden perpetuar o crear disparidades?. Derechos de autor. Desinformación y deepfakes. Sesgos y discriminación algorítmica. Privacidad y protección de datos. ¿Qué concepto describe el uso de contenidos generados por usuarios (textos, imágenes, audios) para entrenar modelos de IA sin permiso explícito?. Explotación comercial de datos personales. Uso no autorizado. Fugas de datos. Entrenamiento sin consentimiento. |





