Cuestionario Capítulo 5 sobre Uso Responsable de la IA
|
|
Título del Test:
![]() Cuestionario Capítulo 5 sobre Uso Responsable de la IA Descripción: Módulo Optativo IA Ilerna |



| Comentarios |
|---|
NO HAY REGISTROS |
|
¿Qué es la IA responsable según el documento?. Un conjunto de restricciones. Una oportunidad para alinear el desarrollo tecnológico con nuestros valores humanos. Una herramienta para aumentar la autonomía. Un medio para comprometer la equidad social. ¿Qué problema surge con los datos al interactuar con sistemas de IA?. Los datos son siempre seguros y privados. La mayoría de los usuarios desconocen qué ocurre con sus datos. Los sistemas de IA no utilizan datos. Los datos solo se utilizan con consentimiento explícito. ¿Qué implica la privacidad en la era de la IA?. Solo una cuestión legal. Una cuestión legal y ética. Una cuestión de marketing. Un problema técnico. ¿Qué pueden hacer los datos al compartirlos con herramientas de IA?. Permanecer en el servidor del usuario. Formar parte de conjuntos de entrenamiento. Ser inaccesibles por otros usuarios. Ser siempre protegidos por el usuario. ¿Qué es la suplantación en el contexto de la privacidad en IA?. Usar la IA para tareas diferentes a las consentidas. Hacerse pasar por otra persona usando la IA. Vender datos personales para fines económicos. Entrenar modelos de IA sin consentimiento. ¿Qué es el fraude financiero en relación con la IA?. Uso no autorizado de la IA. Solicitar créditos o compras en nombre de otra persona con técnicas de IA y datos robados. Exposición de información confidencial. Fugas de datos. ¿Qué implica el robo de identidad con IA?. Perdida de información estratégica. Facilitar la recopilación y el uso indebido de datos personales para crear perfiles falsos. Exposición de información confidencial. Fugas de datos. ¿Qué es la exposición de información confidencial en el contexto de la privacidad en IA?. Pérdida de información estratégica. Datos personales o empresariales visibles para terceros no autorizados. Fugas de datos. Violación de secretos comerciales. ¿Qué implica la violación de secretos comerciales con IA?. Datos personales o empresariales visibles para terceros. Pérdida de información estratégica de una empresa. Fugas de datos. Robo de identidad. ¿Qué son las fugas de datos?. Uso no autorizado de la IA. Exposición de información sensible sin autorización. Venta de datos personales. Entrenamiento sin consentimiento. ¿Qué implica el uso no autorizado de IA?. Utilizar la IA para fines distintos a los que los usuarios consintieron inicialmente. Vender datos personales para fines económicos. Entrenar modelos de IA sin permiso. Compartir historiales de navegación con anunciantes. ¿Qué es la explotación comercial de datos personales?. Uso de la IA para fines no autorizados. Vender o utilizar datos con fines económicos sin informar al usuario. Entrenamiento de IA sin consentimiento. Compartir historiales de navegación sin permiso. ¿Qué es el entrenamiento sin consentimiento en el contexto de la privacidad en IA?. Usar la IA para fines no autorizados. Vender datos personales sin informar al usuario. Utilizar contenidos generados por usuarios para entrenar modelos de IA sin permiso. Compartir historiales de navegación con anunciantes. ¿Qué establece el RGPD en relación con la IA?. No tiene ninguna regulación. Que ninguna persona debe ser objeto de una decisión basada únicamente en un tratamiento automatizado. Solo regula la publicidad. Permite el uso de datos sin restricciones. ¿Qué derecho reconoce el RGPD a las personas en relación con la IA?. Derecho a no ser evaluado por IA. Derecho de acceso y portabilidad y derecho al olvido. Derecho a eliminar la IA. Derecho a crear IA. ¿Qué se recomienda para proteger la privacidad al utilizar sistemas de IA?. No utilizar IA. Anonimización, políticas empresariales claras, consentimiento informado y opciones de exclusión voluntaria. Compartir todos los datos posibles. Ignorar los términos y condiciones. ¿Qué es el sesgo en la IA?. Un problema de hardware. Una tendencia a favorecer injustamente a ciertos grupos o ideas sobre otros. Una característica deseable. Siempre es intencionado. ¿Qué es el sesgo en los datos de entrenamiento?. Cuando el modelo es perfecto. Cuando la IA aprende de datos que ya están sesgados y reproduce esas distorsiones. Cuando los datos son neutrales. Cuando no se usan datos. ¿Cómo puede aparecer el sesgo en las indicaciones (prompts)?. Cuando no se formulan preguntas. Cuando no se usa IA. En la forma en que se formulan las preguntas o instrucciones a la IA. Cuando los datos son neutros. ¿Qué es la amplificación de estereotipos en IA?. Cuando la IA ignora los estereotipos. Cuando la IA genera respuestas neutrales. Cuando la IA magnifica los sesgos existentes en los datos. Cuando la IA no usa datos. ¿Qué es el sesgo de selección?. Cuando los datos representan bien a toda la población. Cuando los datos no representan adecuadamente a toda la población. Cuando se usan datos neutros. Cuando no hay datos. ¿Qué es el sesgo de confirmación?. Cuando la IA cuestiona las creencias. Cuando la IA refuerza las creencias o hipótesis previas en lugar de cuestionarlas. Cuando no se usan datos. Cuando los datos son neutrales. ¿Qué es el sesgo de medición?. Cuando los métodos de recogida de datos son perfectos. Cuando los métodos de recogida de datos contienen errores o distorsiones. Cuando los datos son neutros. Cuando no se usan datos. ¿Cuáles son las consecuencias de los sesgos en la IA?. No tiene consecuencias. Marginación, brecha socioeconómica y discriminación. Solo afecta a los programadores. Mejora la equidad. ¿Qué es el derecho a la explicación según el RGPD?. Derecho a no usar IA. Derecho a comprender los criterios que un sistema automatizado ha seguido para tomar una decisión. Derecho a crear IA. Derecho a eliminar la IA. ¿Qué implica el Reglamento (UE) 2024/1689 sobre inteligencia artificial?. No tiene ninguna regulación. Introduce la obligación de transparencia en sistemas de IA de alto riesgo. Solo regula la publicidad. Permite el uso de IA sin restricciones. ¿Qué estrategia se utiliza para combatir la discriminación algorítmica?. Usar datos sesgados. Diversificación de datos y guardrails éticos. No usar datos. Ignorar las consecuencias. ¿Quién es el propietario del contenido generado por IA?. El usuario que introduce el prompt. La empresa que entrenó el modelo. Nadie en absoluto. Depende de la normativa y la intervención humana. ¿Qué es un deepfake?. Un sistema de IA. Contenidos audiovisuales creados o manipulados con IA para suplantar la identidad de una persona o inventar una situación que nunca ocurrió. Un tipo de sesgo. Una herramienta para verificar información. ¿Qué es la verificación de información?. Ignorar cualquier noticia. Un proceso para confirmar la fiabilidad de la información. Crear deepfakes. Crear desinformación. |





