option
Cuestiones
ayuda
daypo
buscar.php

Gestión de datos en RRHH

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Gestión de datos en RRHH

Descripción:
Preguntas aleatorias

Fecha de Creación: 2025/06/16

Categoría: Universidad

Número Preguntas: 58

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

¿Cuál es el objetivo principal de la Data Science según el diagrama de flujo?. Convertir datos sin procesar en datos tradicionales. Extraer conocimiento de la información disponible para tomar decisiones y acciones de negocio. Automatizar el ETL/ELT. Recolectar información de fuentes clásicas.

En el diagrama de Business Intelligence & Data Science, ¿qué tipo de análisis se asocia con el Reporting & Dashboard?. Predictive. Descriptive. Diagnostic. Prescriptive.

¿Qué tipo de análisis busca entender el porqué de los eventos pasados?. Predictive. Descriptive. Diagnostic. Prescriptive.

Las actividades de Data Science incluyen el soporte a la decisión (Decision Support) y la automatización de la decisión (Decision Automation) como parte de la fase: Descriptive. Diagnostic. Predictive. Prescriptive.

¿Qué técnica de Data Science se utiliza para la segmentación de datos?. Regression. Clustering / Segmentation. Time Series. Optimization.

En el Big Data Analytics Stack, la capa de Storage se encarga de: Procesar datos en tiempo real. Almacenar grandes volúmenes de datos de forma distribuida. Gestionar los recursos de computación. Ejecutar modelos de Machine Learning.

Los sistemas de bases de datos NoSQL se caracterizan por: Estar diseñados para ser distribuidos y relajar propiedades ACID. Ser ideales para sistemas de procesamiento de datos a gran escala. Ser exclusivamente de tipo columna-familia. Ser los sistemas de archivos tradicionales.

¿Qué capa del Big Data Analytics Stack permite compartir recursos en un clúster entre múltiples frameworks, proporcionando aislamiento de recursos?. Storage. Database. Resource Manager. Execution Engine.

MapReduce y Spark Core son ejemplos de: Bases de datos NoSQL. Sistemas de gestión de recursos. Execution Engines para procesamiento de datos paralelos. Lenguajes de scripting.

Los sistemas de procesamiento de datos en streaming (Stream Data Processing) buscan principalmente: Almacenar datos históricos. Proporcionar a los usuarios resultados frescos y de baja latencia. Facilitar la programación de motores de ejecución de bajo nivel. Realizar análisis gráficos complejos.

¿Qué capa del Big Data Analytics Stack se encarga de traducir funciones definidas por el usuario a APIs de bajo nivel de los motores de ejecución?. Machine Learning. Graph Analysis. Query/scripting Language. Stream Data Processing.

Mahout y Spark MLib son ejemplos de plataformas que abordan la dificultad de: Diseñar problemas abiertos. Implementar y consumir técnicas de machine learning a escala. Gestionar la privacidad de los datos. Colectar datos iniciales.

Los frameworks de procesamiento de grafos (Graph Processing Frameworks) están optimizados para: Problemas de regresión. Problemas basados en grafos con dependencias computacionales dispersas. Minería de texto. Análisis de series de tiempo.

Según Brian D. Ripley, el Machine Learning es: Estadísticas con un fuerte chequeo de modelos y asunciones. Estadísticas menos cualquier chequeo de modelos y asunciones. El reemplazo de la estadística. Una rama de la informática sin relación con la estadística.

Una característica clave del Machine Learning en comparación con la Estadística es que el Machine Learning: Enfatiza la inferencia. Utiliza datos de baja dimensión. Enfatiza la predicción. Se enfoca en modelos explicables (parámetros).

En el modelado predictivo y generalización, el "Test Sample" se utiliza para: Entrenar el modelo. Validar la precisión/rendimiento del modelo. Generar los datos predichos. Obtener datos históricos.

En el gráfico de "Optimal Complexity", el "Error in test data sample" indica: Overfitting. Underfitting. El error en el conjunto de datos no utilizado para el entrenamiento, que ayuda a identificar la generalización del modelo. La complejidad del modelo.

¿Cuál de los siguientes roles es el principal responsable de la codificación y despliegue en un equipo de Data Science?. Business Analyst. Data Scientist. Data Engineer. Project Manager.

Según MIT Sloan Management Review (2014), los Data Scientists, en comparación con los Analysts, suelen tener una mentalidad más: Orientada a la rutina. Emprendedora y exploradora de nuevas ideas. Centrada en informes preestablecidos. Aversiva a la ganancia de insights fuera de proyectos formales.

La estrategia de "Transforming And Realignment" para crear un equipo de Data Science es adecuada para: Start-up Companies. Empresas que desean introducir Data Science con cambios mínimos en la estructura organizacional existente. Empresas donde el dato es el producto. Proyectos de crowdsourcing.

Una de las desventajas de crear un equipo de Data Science "From Scratch" (desde cero) es: El riesgo de pensamiento homogéneo. El tiempo y el costo requeridos para encontrar y contratar a los miembros adecuados del equipo. La dificultad para escalar bajo demanda. La falta de control sobre los conjuntos de habilidades.

¿Cuándo se recomienda contratar Data Science as a Service (DSaaS)?. Cuando se desea un control total sobre los conjuntos de habilidades internas. Cuando crear o transformar un equipo interno no son opciones viables. Cuando se busca una solución a largo plazo para traer experiencia a la empresa. Cuando el proveedor entiende los procesos únicos de la compañía.

Una de las desventajas del "Crowd-sourcing" en proyectos de Data Science es: La garantía de valor mediante SLAs. La creatividad limitada. La dificultad para diseñar el problema "Open" y que el valor no está garantizado. Resultados lentos.

¿Cuál es el rol del "Data Engineer" en un proyecto analítico exitoso?. Transformar datos en decisiones y acciones. Obtener los datos a tiempo y en forma. Asegurar la integración en el proceso de negocio. Patrocinar financieramente el proyecto.

En el ciclo de vida de los datos (Data Life-cycle Management), la fase de "Assure" implica: Adquirir datos de unidades organizacionales. Almacenar datos para retención a largo plazo. Acordar formatos estándar, códigos y aplicar procedimientos de control de calidad. Transformar diferentes conjuntos de datos en una representación común.

Según la metodología CRISP-DM, la fase de "Data Understanding" se enfoca en: Construir el modelo. La recolección inicial de datos, familiarización, identificación de problemas de calidad y primeros insights. Poner los modelos resultantes en práctica. Evaluar si los resultados cumplen los objetivos de negocio.

¿Qué fase de CRISP-DM toma usualmente más del 90% del tiempo?. Business Understanding. Data Preparation. Modeling. Deployment.

En la fase de "Data Preparation", ¿qué actividad implica asegurar que los atributos de datos se ajustan a los requisitos sintácticos de la herramienta de modelado?. Select data. Clean data. Construct data. Format data.

Durante la fase de "Modeling" en CRISP-DM, si una técnica de modelado tiene requisitos específicos sobre la forma de los datos, a menudo es necesario: Avanzar directamente a la evaluación. Volver a la fase de preparación de datos. Ignorar los requisitos de la técnica. Comenzar un nuevo proyecto.

En la fase de "Evaluation" de CRISP-DM, un objetivo clave es determinar: El costo de la implementación del modelo. Si se ha considerado suficientemente algún problema de negocio importante. El número de iteraciones necesarias. Los salarios de los Data Scientists.

La fase de "Deployment" en CRISP-DM puede variar desde: Un informe simple hasta la implementación de un proceso de minería de datos repetible en toda la empresa. La selección de datos hasta la construcción del modelo. La evaluación del modelo hasta la revisión del proceso. El diseño de la investigación hasta la aplicación de fondos.

En la fase de "Deployment", el "Plan monitoring and maintenance" incluye preguntar: ¿Quién necesita usar los resultados?. ¿Qué podría cambiar en el entorno y cuándo el modelo ya no debería usarse?. ¿Cómo se propagará el conocimiento a los usuarios?. ¿Cómo se desplegará el resultado del software?.

La "Producción de un informe final" en la fase de Deployment implica: Entrevistar solo a los usuarios finales. Identificar los informes necesarios y los grupos objetivo para los mismos. Analizar únicamente lo que salió mal en el proyecto. Descartar el feedback del personal.

El Análisis de Redes Organizacionales (ONA) permite entender mejor: Cómo se estructuran los organigramas jerárquicos. Qué sucede cuando los empleados se relacionan entre sí. Únicamente el flujo de comunicaciones formales. Los procesos de toma de decisiones sin interacción.

Según Deloitte, ONA es una forma estructurada de visualizar: Únicamente las jerarquías de la empresa. Cómo las comunicaciones, la información y las decisiones fluyen a través de la organización. Los objetivos financieros del último año. Las políticas de RRHH.

ONA puede proporcionar una radiografía del funcionamiento interno de una organización, lo que significa: Un medio poderoso para hacer visibles los patrones invisibles de flujo de información y colaboración. La sustitución de los organigramas formales. Una visión monolítica de la estructura. Una imagen parcial de la interacción.

La relevancia de ONA está cobrando fuerza porque las organizaciones están cambiando de: Modelos rígidos a burocracias. Jerarquías tradicionales a empresas más ágiles fundadas en equipos y redes de equipos. Empresas como "organismos" a empresas como "máquinas". Enfoques "top-down" a enfoques "silos".

ONA Activo se realiza a través de: El monitoreo de la huella digital de los equipos. Una encuesta online cuyo objetivo es mapear las interacciones informales entre los empleados. El análisis de metadatos de correo electrónico. El seguimiento continuo de los cambios de comportamiento en la red.

¿Qué tipo de talento busca identificar ONA Activo?. Líderes formales únicamente. Empleados de bajo rendimiento. Líderes informales, también conocidos como talento oculto o principales influenciadores. Empleados que resisten el cambio.

La ONA Pasiva se implementa mediante: Encuestas online. El monitoreo de la huella digital de los equipos a nivel agregado (ej. Email, Teams, Calendario). Entrevistas individuales. La identificación de líderes informales mediante observación directa.

Según David Green, una ventaja de ONA Pasivo es que proporciona: Una visión subjetiva e imparcial. Una visión objetiva e imparcial de cómo las personas trabajan y colaboran realmente. Datos sobre cómo se sienten los empleados. Una herramienta puntual en el tiempo.

¿Cuál de las siguientes preguntas puede ser respondida por ONA?. ¿Quién es influyente para conducir un cambio?. ¿Cuál es el salario promedio de la empresa?. ¿Cuántos días de vacaciones tienen los empleados?. ¿Cuál es el color favorito de los empleados?.

¿Qué tipo de pregunta sobre la retención de conocimiento puede contestar ONA?. ¿Dónde hay más riesgo de perder conocimiento?. ¿Cuántos documentos se han creado?. ¿Cómo se archivan los documentos?. ¿Quién es el más antiguo en el departamento?.

La Teoría de Grafos, fundamental para ONA, estudia estructuras formadas por: Solo nodos sin enlaces. Nodos (vértices) y enlaces (aristas o edges). Exclusivamente relaciones jerárquicas. Cadenas de valor.

En ONA, un "nodo" representa: La relación entre dos personas. Un punto dentro de la red que puede ser una persona, equipo o departamento. El flujo de comunicación. La influencia de una persona.

¿Qué diferencia la Teoría de Grafos de ONA, según el cuadro comparativo?. La Teoría de Grafos integra conceptos de gestión, mientras que ONA se enfoca en estructuras abstractas. La Teoría de Grafos es una disciplina matemática pura, mientras que ONA integra conceptos de gestión, sociología y análisis organizacional. ONA no considera aspectos humanos. Ambas disciplinas son idénticas.

En las aplicaciones prácticas de ONA, la evaluación de la conectividad de la red antes y después de un programa de desarrollo de liderazgo mostró un aumento en: La densidad de la red. El número de silos. La comunicación vertical. Los organigramas jerárquicos.

En el caso de estudio de Microsoft, el uso de Workplace Analytics (datos de correo electrónico y calendario) combinado con encuestas de clima ayudó a: Identificar solo la antigüedad de los empleados. Comprender mejor la eficacia de los managers. Automatizar los procesos de contratación. Reducir los salarios de los managers.

En el caso de Securitas Direct, ONA se utilizó para la detección de líderes ocultos, lo que implicó identificar empleados de alto potencial que fueran: Solo empleados de alto rendimiento identificados por sus supervisores. Líderes formales. Empleados de alto rendimiento identificados por sus supervisores inmediatos y líderes informales identificados por sus pares. Únicamente aquellos con más antigüedad.

En el caso de General Motors (GM), el análisis de las conexiones entre los empleados (mediante ONA) se utilizó para: Reducir la colaboración. Reunir a las personas con mayor probabilidad de tener el mayor impacto en la innovación y el diseño de productos. Centralizar la toma de decisiones. Eliminar el concepto de "Espacio Adaptativo".

La rotación de empleados (Turnover) se define como: El número de empleados contratados durante un período. La medida del número de empleados que abandonan voluntariamente una organización durante un período de tiempo determinado. El número total de empleados en una empresa. La tasa de ausentismo laboral.

Uno de los problemas causados por la rotación de personal es: El aumento del Employee Branding. La pérdida de conocimiento y el alto coste del proceso de reemplazo. La mejora en la motivación de los empleados que continúan. La reducción de la curva de aprendizaje.

¿Qué factores son importantes para los empleados, según McKinsey & Company, pero los empleadores a menudo pasan por alto?. Acceso a la tecnología y ubicación deseable. Elementos relacionales como la falta de pertenencia o no sentirse valorado en el trabajo. Salario y beneficios únicamente. Horarios de trabajo fijos.

¿Cuál de los siguientes es uno de los modelos más utilizados para analizar el Turnover?. Regresión lineal. Media Móvil. Análisis factorial. Modelado de ecuaciones estructurales.

El "Análisis de Cohortes" en el estudio del Turnover permite: Calcular el porcentaje de rotación interanual. Realizar un seguimiento de la tasa de retención por grupo de empleados que se incorporaron en un mismo período, observando su ciclo de vida. Determinar el peso de cada variable en la decisión de los empleados de marcharse. Predecir si una persona va a renunciar o no.

Los modelos "Random Forest" son muy útiles para: Analizar la tasa de rotación promedio. Determinar el peso de cada variable (edad, salario, horas extra, etc.) en la decisión de que el empleado se marche o no. Calcular el porcentaje de plantilla al inicio del periodo. Suavizar series de datos a lo largo del tiempo.

La Regresión Logística se utiliza para predecir la rotación de personal porque: Solo funciona con resultados continuos. El resultado que se intenta predecir es binario (renuncia o no renuncia). Mide el promedio de un período de tiempo. No utiliza variables predictoras.

En el caso de IBM, el uso de IA para predecir la probabilidad de renuncia de los empleados condujo a: Un aumento del 30% en la tasa de rotación. Un ahorro en costes de reemplazo y una reducción del 30% de la tasa de rotación. Una disminución de salarios. Una pérdida de conocimiento.

Denunciar Test