option
Cuestiones
ayuda
daypo
buscar.php

Biología de sistemas

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Biología de sistemas

Descripción:
Preguntas sistemas

Fecha de Creación: 2026/01/13

Categoría: Otros

Número Preguntas: 83

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

La complejidad añadida al análisis de la proteómica es debido. A la identificación de los transcritos que se transforman en proteínas. A las posibles modificaciones postraduccionales que pueden tener y poderlas detectar en un sistema híbrido de masas con LC o Imagen. A las distintas conformaciones que presentan las proteínas así como los métodos utilizados en proteómica. A la cantidad de datos falsos positivos que genera los sistemas de proteómica actuales.

La genómica y la transcriptómica ha sido posible gracias al desarrollo de las técnicas de qPCR. Verdadero. Falso.

Los elementos topológicos básicos de una red son. Nodos y aristas. Nodos, hubs y grado de la red. Nodos, aristas y edges. Nodos, hubs y su modularidad.

Para aplicar métodos bioinformáticos. Necesitamos utilizar sólo dos ómicas a la vez, dado que la complejidad de los datos no permite el uso de técnicas de integración masivas. Necesitamos estandarizar los resultados obtenidos en los análisis de biomoléculas y usar el método de integración adecuado teniendo en cuenta las diferencias significativas. Necesitamos que no haya diferencias entre los fenotipos de los individuos que se quieren estudiar, para minimizar los extremos. Ninguna es cierta.

En proteómica a diferencia de la transcriptómica o la genómica. Puede haber numerosas transformaciones postraduccionales que hacen la identificación se tenga que realizar mediante métodos híbridos tanto de espectrometría de masas como imagen, haciendo el tratamiento de datos más complejo. Tenemos una posibilidad de modificación química como es la metilación que cambia la regulación o la función de la proteína. Tenemos diferentes conformaciones de las moléculas. Puede haber numerosas transformaciones postraduccionales que hacen la identificación se tenga que realizar mediante métodos únicos tanto de espectrometría de masas como imagen, haciendo el tratamiento de datos más sencillo que en las otras ómicas.

Los métodos de proteómica que nos permiten hacer secuenciación masiva no dirigida, y no usan gel se llaman también.

Cuando hablamos del "systems thinking" nos referimos a. un modelo de resolver problemas mediante la modelización matemática de una interacción concreta. Ninguna es cierta. el estudio de componentes concretos de un sistema y sus interaciones locales, que da lugar a procesos lineales y estáticos dentro de los sistemas biológicos. que debemos plantear el estudio de las ciencias desde un punto de vista de sistemas y redes de conexión, entre distintas jerarquías en y entre los sistemas, considerando el ambiente y los flujos de información que entran y salen de los mismos.

Empareja las siguientes opciones: La proteómica funcional y de interacción. La proteómica Shotgun. La proteómica de secuencia. La proteómica estructural.

Lo que ha ayudado al desarrollo de las ómicas es. la posibilidad de utilizar técnicas high-throughput tanto en ácidos nucleicos como en ADN. la posibilidad de utilizar técnicas high-throughput en todos tipos de moléculas de los seres vivos. la posibilidad de utilizar técnicas high-throughput en todos tipos de moléculas de los seres vivos y poder asociarlos con fenotipos. la posibilidad de utilizar técnicas high-throughput tanto en ácidos nucleicos como en moléculas complejas.

El primer método usado para analizar los ácidos nucleicos se llamó método.

Los métodos de secuenciación de ácidos nucleicos son: Nos permiten obtener una lectura aproximada del genoma o del transcriptoma, dependiendo de si usamos técnicas de secuenciación de segunda o tercera generación. Nos permiten obtener una lectura aproximada del genoma o del transcriptoma, dependiendo de si usamos técnicas de secuenciación de segunda (short reads) o tercera generación (long reads). Métodos en los que después de aislar el ADN mediante un kit, lo fragmentamos, lo secuenciamos y obtenemos la lectura completa de los transcritos mediante la ayuda de técnicas bioinformáticas. Métodos en gel y de posterior purificación; se introducen los productos de purificación en los equipos de secuenciación PacBio y Nanopore, obteniendo así la secuencia exacta con poca cantidad de ADN.

En una red biológica de proteínas, éstas constituyen (sólo una palabra):

Cuando tenemos un estudio donde queremos establecer correlaciones entre las edades de pacientes, niveles de colesterol, niveles de proteína C reactiva y glucosa, pero el número de pacientes es de 50. Se puede usar la técnica CCA si comparamos dos a dos las variables. En este caso no podemos usar CCA ya que no tenemos dos datasets multivariantes, por tanto se puede hacer un heatmap tras hacer una correlación de Pearson o Spearman. Tenemos que usar la técnica bioinformática de CCA (canonical correlations) ya que hay menos variables que muestras. No se puede usar la herramienta CCA ya que hay más de un data set (edad, colesterol, niveles de proteína C reactiva), y esta técnica sólo es para comparar o correlacionar dos data sets.

La metabolómica es la técnica más adecuada para hacer estudios de dinámica celular, porque permite tener en cuenta el tiempo en un muestreo determinado. Pero también porque a diferencia de las otras ómicas la metabolómica permite recoger todos los compuestos que están presentes en un momento determinado, por lo que tras hacer un time course podemos establecer la dinámica de un proceso, ya que los metabolitos son los productos finales de los procesos metabólicos. Verdadero. Falso.

La evolución de la ciencia va desde la concepción reduccionista a la holística, es decir, desde la Biología Molecular a la Biología de Sistemas. Verdadero. Falso.

Podemos definir un sistema como. Un sistema es un conjunto de elementos o partes que interaccionan entre sí a fin de alcanzar un objetivo concreto. Una jerarquía de componentes con escasos elementos comunes. Un grupo de interacciones que pueden manifestarse en flujos de información en cualquier dirección. Todas son falsas.

El grado de un nodo es el número de vértices a los que se conecta. Verdadero. Falso.

En el análisis estadístico y bioinformático de un transcriptoma, tendremos que tener en cuenta el tipo de secuenciación, si es de segunda o tercera generación porque. La forma de preparar las librerías es muy diferente, por lo que análisis con Ilumina habrá que tener en cuenta, antes del ensamblaje de secuencias, la eliminación de los ajustadores. La forma de preparar las librerías es muy diferente, atendiendo a la longitud de los fragmentos (short and long reads) así como a propia lectura de los fragmentos. El workflow para obtener las lecturas es muy diferente ya que para los análisis de con equipos de tercera generación no es necesaria la preparación de librerías, por lo que los procedimientos bioinformáticos y de análisis estadístico son diferentes. La forma de preparar las librerías es muy semejante, pero los resultados pueden diferir si no tenemos en cuenta los ajustadores que se usan para cada tipo de secuenciación. Esto puede hacer que el método de análisis tome los ajustadores como lecturas de secuencia reales.

Para conocer la correlación entre moléculas orgánicas en condicioens diferentes, que sospechamos que no tienen una relación lineal, vamos a usar. Pearson. Spearman. PCA. DIABLO.

A través de la ciencia de redes podemos detectar la vulnerabilidad de un sistema pero no su conectividad. Verdadero. Falso.

Una de las dificultades de la metabolómica respecto a otras ómicas y que afecta a los procesos de tratamiento de datos y por tanto al tratamiento desde la biología de sistemas es. que el método de extracción y la naturaleza de los metabolitos determinan el tipo de archivos finales que se usan para el tratamiento bioinformático. que el método de extracción de metabolitos limita el número de resultados aceptables para poder hacer identificaciones de compuestos. no hay dificultades añadidas a otras ómicas ya que todas comparten de alguna forma las limitaciones establecidas en el workflow de la técnica. que el método de extracción, naturaleza del metabolito y forma de ionización antes de entrar al analizador determinará el resultado final, y por tanto el número de metabolitos que podremos obtener.

Un sistema complejo. está compuesto por una gran cantidad de elementos relativamente idénticos, que interactúan entre sí dado lugar a propiedades emergentes que no podríamos conocer al estudiar los elementos por separado y que es difícil de predecir hacia donde evolucionará más allá de un límite temporal relativamente cercano. corresponde a un grupo de componentes únicos y no repetitivos que no interactúan de forma significativa, por lo que el comportamiento colectivo es simplemente la suma de los comportamientos individuales sin generar ninguna propiedad nueva. es una estructura estática en la que las interacciones entre sus partes son irrelevantes, ya que las características del sistema quedan determinadas exclusivamente por la información inicial y no suelen cambiar con el tiempo. se define como un conjunto de elementos independientes entre sí, cuyas propiedades generales pueden predecirse con exactitud analizando cada componente por separado y cuya evolución global es siempre lineal y anticipable.

Considerando la teoría de redes, los sistemas biológicos se aproximan más a un tipo de red. con distribución que sigue un esquema de free-scale network, donde pocos nodos tienen un alto grado, mientras que la mayoría tiene pocos grados de conexión. con distribución bayesiana, donde las interacciones siguen modelos lineales y direccionales. con distribución de Poisson, es decir con una distribución que sigue las leyes de la potencia, donde todos los nodos (metabolitos, proteínas...) tiene grados muy bajos de conexión. con distribución de Poisson, es decir con una distribución que sigue las leyes de la potencia, donde muchos nodos (metabolitos, proteínas...) tiene grados muy bajos de conexión.

El MALDI-TOF. Es una técnica de cromatografía líquida que permite la separación de proteínas fragmentadas. Es una técnica de espectrometría de masas, con ionización de compuestos/proteínas por un láser que impacta sobre una matriz debidamente preparada y cuyos iones, después de fragmentarse entran en un analizador de masas que mide el tiempo de vuelo de los iones a través del analizador. Además de lo dicho en b), ese tiempo de vuelo es proporcional a la m/z de compuesto/proteína. Ninguna es cierta, porque MALDI-TOF es un método para metabolómica.

Cuando usamos técnicas híbridas para encontrar la disposición de las proteínas e incluso predecir la estructura de una o un grupo de proteínas usando sui es necesario la IA, estamos hablando de proteómica.

Cuando hablamos de redes (networks) tenemos que tener en cuenta. Las características de vulnerabilidad y conectividad, es decir, la estructura y topología de la red. La vulnerabilidad que se debe a la conectividad y que permite un eficiente flujo de la información. El espacio vacío circundante que permite plasticidad al movimiento de la red. La dinámica de flujo de información que la mayor parte de las veces va del nodo central a los extremos.

Di si cada una de estas afirmaciones es falsa o cierta. Con la proteómica podemos aplicar distos test estadísticos tanto de correlación como multivariantes para poder sacar conclusiones de variables debidamente reducidas. Con la proteómica nos preguntamos por los procesos celulares mientras que con la genómica nos planteamos las posibilidad de dichos procesos. El tratamiento bioinformático de datos proteómicos consiste básicamente en generar librerías anotadas. Una propiedad adicional de la genómica es el estudio de la dinámica de los procesos celulares. La deconstrucción de datos proteómicos masivos es una de las tareas de la proteómica actual que intenta aprovechar datos ya obtenidos por técnicas que no son de alto rendimiento. Los archivos obtenidos en proteómica están en formato FASTA que luego hay que transformar en .RAW.

Cuando vamos a integrar distintos niveles de organización celular tenemos que tener en cuenta que cada uno de los componentes de cada nivel de organización tiene una dinámica e interacciones diferentes. Esto implica un buen planteamiento del problema a investigar y una unificación en el formato de los archivos generados tras el análisis para que puedan aplicarse métodos bioinformáticos a todos los niveles. Verdadero. Falso.

¿Cómo llamarías al análisis de correlación que se ha hecho en este dibujo?.

¿Qué demuestra principalmente el caso de la captura de Sadam Hussein en el contexto de la ciencia de redes?. El poder predictivo y la importancia de elegir la red correcta para el análisis. La inestabilidad y el cambio constante de las redes sociales. Que las redes jerárquicas oficiales son siempre las más predictivas. La inutilidad de los datos históricos, como álbumes de fotos, en el análisis de redes moderno.

¿Qué concepto describe la propiedad de un sistema complejo cuyo comportamiento global no puede ser explicado por la simple suma de los comportamientos de sus componentes individuales?. Homeostasis. Dinamismo. Reduccionismo. Comportamiento emergente.

En una red libre de escala (Scale-Free Network), ¿qué se puede esperar si se elimina un nodo elegido al azar?. Que la red se divida en dos componentes de tamaño similar. Que el diámetro de la red aumente drásticamente. Que el impacto en la red sea probablemente bajo. Que la red colapse casi con toda seguridad.

¿Cuál de las siguientes paradojas es un ejemplo de las limitaciones del enfoque reduccionista, al demostrar que una mayor cantidad de material genético no equivale a una mayor complejidad del organismo?. Paradoja de la redundancia. Dogma central de la biología. Paradoja de la similitud genética. Paradoja del tamaño del genoma.

La distribución del grado en una red libre de escala sigue una Ley de Potencias. ¿Qué implica esto visualmente si se representa en una gráfica de doble escala logarítmica?. La gráfica se aproxima a una línea recta. Se observa una curva en forma de campana (distr. Poisson). Los puntos se distribuyen de manera completamente aleatoria sin seguir ningún patrón. Se genera una curva exponencial creciente.

En el contexto de la teoría de grafos aplicada a la biología, ¿qué representan típicamente los HUBS?. El camino más corto posible entre los dos nodos más distantes de la red. Las conexiones o aristas que unen 2 módulos funcionales distintos. Nodos altamente interconectados que son puntos clave para la estabilidad y el funcionamiento de la red. Nodos con el mayor número de conexiones, que aíslan partes de la red.

¿Cuál es la diferencia fundamental entre el enfoque 'Top-Down' y 'Bottom-Up' en la metodología de la biología de sistemas?. Top-down parte del fenotipo y usa datos ómicos para un análisis exploratorio, mientras que Bottom-up parte de componentes conocidos para construir modelos predictivos. Top-down genera grandes volúmenes de datos (big data) y el Bottom-up no. El enfoque Top-down es puramente experimental, mientras que el Bottom-up es puramente computacional. Top-down se aplica a sistemas simples y Bottom-up a sistemas complejos.

El modelo de redes aleatorias de Erdős y Rényi se caracteriza por una distribución de grado de tipo Poisson. ¿Qué implicación tiene esto para la estructura de la red?. La mayoría de los nodos tienen un número de conexiones muy cercano al valor promedio, haciendo la red homogénea. La red crece siguiendo un principio de unión preferencial, donde los nuevos nodos se conectan a los más populares. La red está organizada en módulos o clusters funcionales altamente interconectados entre sí. La red es heterogénea, con una clara distinción entre nodos muy conectados (hubs) y nodos poco conectados.

La 'Paradoja de la Similitud Genética' indica que los humanos compartimos un 92% del genoma con el ratón, a pesar de las grandes diferencias morfológicas. ¿A qué atribuye el texto esta diferencia?. Al 8% restante del genoma, que contiene todos los genes responsables de las diferencias. A que el genoma del ratón es significativamente más grande que el humano, permitiendo más complejidad. Principalmente al número de cromosomas, que es muy diferente entre ambas especies. A la diferencia en la regulación génica y la epigenética, que determina que genes están activos y cuales no.

En el marco de trabajo de la Biología de Sistemas, ¿por qué es fundamental el uso de modelado computacional?. Porque permite reemplazar completamente la experimentación en el laboratorio. Para convertir los sistemas biológicos, que son abiertos y dinámicos, en sistemas cerrados y estáticos más fáciles de estudiar. Porque es la única forma de obtener datos de tecnologías ómicas como la transcriptómica o proteómica. Porque los sistemas biológicos son a menudo demasiado complejos para la predicción intuitiva y la experimentación directa es inviable o costosa.

¿Qué es la 'transitividad' o 'coeficiente de agrupamiento' en una red?. Una métrica relacionada con la presencia de clusters o comunidades de nodos fuertemente interconectados. La velocidad con la que la información fluye a través de la red de un punto a otro. Una medida de la distancia más larga entre 2 nodos cualesquiera de la red. El número de conexiones que tiene el nodo más conectado (hub principal).

Dentro de los tipos de sistemas, un 'sistema homeostático' se caracteriza por... Cambiar constantemente su estructura interna para adaptarse a los factores externos. No intercambiar materia ni energía con su entorno, siendo un sistema cerrado. No cambiar su estructura interna a pesar de las alteraciones externas, permitiendo predecir su punto de colapso. Ser pasivo frente al ambiente, sin capacidad de reorganización, como una reacción bioquímica simple.

El modelo 'Preferential Attachment' (el rico se hace más rico) de Barabási-Albert ayuda a explicar cómo... Se forman redes aleatorias donde todos los nodos tienen un grado similar. Evolucionan las redes libres de escala, con la aparición natural de hubs. Todos los nodos en una red acaban estando conectados a través de un máximo de 6 grados de separación. Las redes biológicas tienden a ser muy dispersas y con pocas conexiones.

En el análisis de redes, si se identifica un grupo de proteínas que forman un 'clúster' denso en el interactoma, ¿qué se podría inferir sobre ellas, según el texto?. Que probablemente todas tienen un tamaño y estructura tridimensional muy similar. Que fueron descubiertas al mismo tiempo por el mismo grupo de investigación. Que probablemente forman un módulo funcional y colaboran en un mismo proceso biológico. Que son proteínas redundantes, y que si una falla, cualquiera de las otras puede reemplazarla.

¿Cuál es la diferencia clave entre la Biología Sintética y la Ingeniería Genética tradicional?. La ingeniería genética modifica genes individuales, mientras que la biología sintética busca modificar globalmente un organismo para que cumpla una nueva función. No existe una diferencia real; son dos términos para describir exactamente el mismo campo de estudio. La biología sintética solo modifica plantas, mientras que la ingeniería genética modifica cualquier organismo. La ingeniería genética utiliza herramientas computacionales, pero la biología sintética se basa únicamente en técnicas de laboratorio.

El 'Razonamiento Transversal de Nivel' (Cross-Level Reasoning) es una característica importante del pensamiento sistémico. ¿Qué implica este tipo de razonamiento?. Aplicar únicamente modelos matemáticos del nivel molecular para predecir el comportamiento de un organismo completo. Analizar cada nivel de organización biológica de forma completamente aislada. Entender cómo las interacciones dentro y entre diferentes niveles de organización biológica dan lugar a un comportamiento emergente. Comparar sistemas biológicos de diferentes especies para encontrar patrones evolutivos comunes.

Si una red biológica colapsa después de la eliminación de un único nodo específico, pero apenas se ve afectada por la eliminación de muchos otros nodos al azar, ¿qué tipo de estructura de red es más probable que tenga?. Una red lineal, como una cadena simple. Una red aleatoria. Una red completamente conectada donde cada nodo se une a todos los demás. Una red libre de escala.

¿Por qué el 'Dogma Central de la Biología' se considera un modelo reduccionista?. Porque es un modelo holístico que integra todos los componentes celulares en una sola vía. Porque representa el flujo de información como un proceso lineal y unidireccional, ignorando las complejas redes de regulación. Porque fue propuesto antes del descubrimiento del ADN, por lo que es un modelo obsoleto. Porque describe un proceso que solo ocurre en organismos simples como las bacterias.

En la metodología estándar de la biología de sistemas, ¿cuál es el papel de la 'Validación Biológica'?. Se refiere a la generación de grandes cantidades de datos (big data) mediante tecnologías ómicas. Es el proceso de confirmar que los resultados y predicciones del modelo computacional se corresponden con la realidad biológica del sistema. Consiste en utilizar software como Cytoscape para visualizar las redes generadas. Es el primer paso, donde se elige la pregunta biológica a investigar.

Si se estudia el cáncer desde la perspectiva de la Biología de Sistemas, ¿cómo se conceptualiza la enfermedad?. Como el resultado del fallo de un único gen. Exclusivamente como un problema del metabolismo celular y la producción de energía. Como una alteración de redes complejas de regulación génica e interacciones proteicas. Como una enfermedad que no puede ser modelada computacionalmente debido a su alta complejidad.

¿Qué representa el 'grado' (k) de un nodo en la teoría de grafos?. El número de conexiones o aristas que tiene ese nodo. La probabilidad de que el nodo falle bajo estrés. El número de caminos más cortos que pasan a través de ese nodo. La distancia del nodo al centro de la red.

El concepto de 'redundancia' en sistemas biológicos, como la existencia de múltiples vías para sintetizar glutatión, es una limitación para el enfoque reduccionista porque... Prueba que el tamaño del genoma es lo más importante para la función celular. Implica que mutar un solo gen a menudo no tiene el efecto dramático esperado, complicando la relación causa-efecto directa. Demuestra que los sistemas biológicos son simples y lineales. Facilita el estudio de componentes aislados, ya que siempre hay copias de seguridad para experimentar.

El problema de los puentes de Königsberg, resuelto por Euler, es fundamental para la biología de sistemas porque... Introdujo el uso de ordenadores para resolver problemas biológicos complejos. Demostró que todos los sistemas biológicos siguen una estructura de red libre de escala. Sentó las bases de la teoría de grafos al abstraer un sistema complejo en una estructura de nodos y aristas. Resolvió un problema logístico crucial para el transporte de muestras biológicas en el siglo XVIII.

¿Qué tipo de red biológica representa las interacciones físicas entre las macromoléculas que ejecutan la mayoría de las funciones celulares?. Redes de regulación transcripcional. Redes metabólicas. Redes de interacción proteína-proteína. Redes de señalización celular.

El efecto 'mundo pequeño' o 'seis grados de separación' en las redes biológicas implica que... Las redes biológicas son muy grandes y los nodos están muy distantes entre sí. Solo existen 6 tipos de nodos diferentes en cualquier red biológica. La información fluye de manera muy lenta y poco eficiente a través del sistema. A pesar del gran tamaño de la red, cualquier par de nodos está conectado por un camino relativamente corto.

¿Cuál es una consecuencia directa de la estructura heterogénea de una red libre de escala?. La red no puede crecer ni añadir nuevos nodos una vez que se ha formado. La existencia de unos pocos nodos muy conectados y muchos nodos con pocas conexiones. Todos los nodos tienen la misma importancia para la integridad de la red. La red es igualmente robusta frente a fallos aleatorios y ataques dirigidos.

Al aplicar la biología de sistemas al descubrimiento de fármacos, ¿qué ventaja principal ofrece este enfoque sobre los métodos tradicionales?. Simplifica el proceso al ignorar las interacciones entre proteínas y centrarse únicamente en el genoma. Se enfoca en encontrar un fármaco que afecte a un único gen o proteína diana sin efectos secundarios. Permite evaluar el impacto global del fármaco en el sistema, identificar dianas terapéuticas y predecir efectos off-target. Reduca la necesidad de realizar ensayos clínicos, ya que los modelos computacionales son 100% precisos.

En la 'Cascada Ómica' (Genómica → Transcriptómica → Proteómica → Metabolómica), ¿por qué se afirma que la relación entre niveles no es lineal?. Porque cada nivel añade menos complejidad que el anterior, simplificando el sistema. Porque un gen siempre produce una única transcripción, que a su vez produce una única proteína con una única función. Porque la metabolómica es el único nivel que realmente determina el fenotipo del organismo. Porque la cantidad de ARNm (transcriptómica) no predice perfectamente la cantidad de proteína (proteómica) debido a la regulación post-transcripcional y traduccional.

Si definimos un sistema biológico, ¿qué información es crucial conocer además de la lista de sus componentes?. Únicamente el número total de componentes, ya que determina la complejidad. Solo la función principal del sistema, ya que de ella se deduce todo lo demás. Las interacciones entre componentes y cómo estas cambian en el tiempo. El límite exacto del sistema, ya que los factores externos no son importantes.

La biología de sistemas se considera una aproximación 'revolucionaria' y 'racional' porque... Se opone radicalmente a los descubrimientos de la biología molecular clásica. Rechaza el uso de modelos computacionales y se basa exclusivamente en observación directa. Plantea preguntas, prepara modelos experimentales y computacionales, y permite hacer predicciones verificables. Sigue una aproximación no intencional, similar a la evolución, donde los descubrimientos ocurren al azar.

En la técnica de secuenciación de Sanger, ¿cuál es la función esencial de los dideoxinucleótidos (ddNTPs)?. Permitir que la ADN polimerasa continúe la síntesis de la cadena. Marcar radiactivamente el inicio de la nueva hebra de ADN. Interrumpir la síntesis de la cadena de ADN al ser incorporados. Separar las dos hebras de la molécula de ADN original.

¿Cuál es la principal ventaja de las técnicas de secuenciación de tercera generación (lecturas largas como PacBio y Nanopore) en comparación con las de segunda generación (lecturas cortas como Illumina)?. Son significativamente más baratas y rápidas para cualquier tipo de análisis. Requieren una cantidad mucho menor de ADN de partida. Generan lecturas más cortas y precisas, ideales para detectar SNPs. Facilitan el ensamblaje del genoma y reducen la pérdida de información.

En un experimento de qPCR, ¿cuál es el propósito de utilizar un gen de referencia (housekeeping gene)?. Amplificar únicamente el ARNm de interés. Normalizar los datos de expresión génica entre diferentes muestras. Detectar la fluorescencia emitida por el SYBR Green. Convertir el ARN en ADNc.

¿Qué distingue fundamentalmente a una técnica de proteómica cuantitativa como iTRAQ de una de descubrimiento como Shotgun?. iTRAQ utiliza electroforesis en gel 2D-DIGE y Shotgun no. iTRAQ incorpora un paso de marcaje químico para comparar la abundancia de proteínas entre muestras. Shotgun solo identifica proteínas, mientras que iTRAQ también las secuencia de novo. Shotgun digiere las proteínas con tripsina y iTRAQ utiliza otra enzima.

Un investigador necesita analizar metabolitos que no tienen cromóforos, fluoróforos ni carbonos asimétricos. Según el texto, ¿qué estrategia debería seguir para poder detectarlos?. Emplear un detector de fluorescencia. Utilizar un detector de índice de refracción. Medir la absorbancia en la región UV del espectro. Realizar una derivatización química de los compuestos.

¿Qué tipo de información única proporciona la Imagen por Espectrometría de Masas (MSI) en comparación con un análisis metabolómico estándar de un extracto de tejido?. La cantidad total de cada metabolito en todo el órgano. La identificación de proteínas en lugar de metabolitos. La distribución espacial de los metabolitos directamente en el corte de tejido. La masa molecular exacta de cada metabolito presente en el tejido.

Un científico desea identificar grupos de genes que se comportan de manera similar (co-expresados) a lo largo de diferentes condiciones experimentales. ¿Qué método estadístico basado en correlación sería el más adecuado para este fin?. PCA. WGCNA. Scatter plot. Pearson o Spearman.

¿Cuál es la diferencia fundamental entre los métodos de Machine Learning supervisados y no supervisados en el contexto de la integración de datos ómicos?. Los métodos no supervisados agrupan variables mientras que los supervisados agrupan muestras. Los métodos no supervisados se usan para genómica y los supervisados para proteómica. Los métodos supervisados son más rápidos pero menos precisos que los no supervisados. Los métodos supervisados utilizan la información de los grupos de muestras para el análisis, mientras que los no supervisados no.

En la técnica de Northern Blot, ¿qué molécula se utiliza como 'sonda' para detectar específicamente el ARN de interés en la membrana?. Una secuencia de ADN o ARN complementaria marcada radiactivamente. La enzima transcriptasa inversa. Una secuencia de ARN complementaria marcada con un isótopo pesado. Un anticuerpo marcado con fluorescencia.

Si un investigador quiere estudiar la expresión simultánea de miles de genes para comparar un tejido sano con uno tumoral, ¿cuál de las siguientes técnicas sería la más apropiada y de alto rendimiento?. Secuenciación Sanger. Microarrays o GeneChips. Western blot. Northern blot.

¿Qué tienen en común las técnicas de proteómica 2D-DIGE y de transcriptómica con microarrays?. Ambas utilizan el marcaje con fluoróforos para la cuantificación y comparación de muestras. Ambas utilizan la espectrometría de masas para la detección final. Ambas analizan directamente la secuencia de las biomoléculas. Ambas separan las biomoléculas en función de su tamaño mediante electroforesis.

El Análisis de Componentes Principales (PCA) se describe como un método que 'simplifica matrices complejas'. ¿Cómo logra esta simplificación?. Transformando las variables originales en un nuevo sistema de coordenadas de variables no correlacionadas. Calculando la correlación de Pearson entre cada par de genes. Eliminando las muestras que contienen valores atípicos. Agrupando las muestras en clusters basados en su similitud.

MOFA (Análisis de Factores Multi-Ómicos) es descrito como una generalización de PCA. ¿Qué capacidad adicional tiene MOFA que lo hace particularmente útil para la biología de sistemas?. Funciona exclusivamente con datos de series temporales. Integra datos de múltiples plataformas ómicas para encontrar factores latentes comunes. Puede analizar datos de una sola fuente ómica con mayor precisión que PCA. Es un método supervisado que requiere etiquetas de grupo para funcionar.

Uno de los desafíos en la integración de datos ómicos es que 'una mayor dimensionalidad de los datos en una fuente podría superar al resto'. ¿Qué significa este problema en la práctica?. Significa que se deben usar datos de una sola fuente ómica para evitar errores. Se refiere a que es imposible comparar datos medidos con diferentes tecnologías. Quiere decir que los datos con mayor dimensionalidad son de peor calidad y deben ser filtrados. Implica que el conjunto de datos con más variables podría dominar el análisis, enmascarando las señales de conjuntos más pequeños.

¿Cuál es la característica principal del Análisis de Componentes Principales (PCA) cuando se aplica a datos ómicos?. Calcula la correlación lineal entre cada par de variables para construir una red. Es un métodos supervisado que identifica biomarcadores para clasificar muestras. Integra múltiples capas ómicas ponderando la contribución de cada una. Reduce la dimensionalidad de los datos encontrando las direcciones de máxima varianza.

¿Qué diferencia fundamental existe entre el coeficiente de correlación de Pearson y el de Spearman?. El coeficiente de Pearson va de -1 a 1, mientras que el de Spearman va de 0 a 1. Pearson solo se aplica a datos transcriptómicos y Spearman a datos metabolómicos. Spearman es un método de reducción de dimensionalidad y Pearson es un método de visualización. Pearson mide la fuerza y dirección de una relación lineal, mientras que Spearman no requiere que la relación sea lineal.

¿Qué característica única del método de Fusión de Redes de Similitud (SNF) lo diferencia de otras técnicas de redes de correlación?. Los nodos de la red representan variables, no muestras. Los nodos de la red representan las muestras y el método busca un consenso de similitud entre ellas a través de varias ómicas. Es un método supervisado que requiere etiquetas de grupo para funcionar. Utiliza únicamente correlaciones de Pearson para construir la red.

¿Cuál es uno de los propósitos principales del método supervisado DIABLO?. Seleccionar variables que discriminan entre grupos y evaluar la correlación entre ómicas. Evaluar como cambian los factores latentes a lo largo de una dimensión temporal. Detectar los principales factores latentes de variación en conjuntos de datos multi-ómicos. Realizar una exploración general de la estructura compartida entre diferentes ómicas sin supervisión.

El método MOFA (Análisis de Factores Multi-Ómicos) se describe como una generalización de otro método multivariante. ¿Cuál?. DIABLO. PCA. CCA. PLS-DA.

De los siguientes, ¿qué método se describecomo una técnica inicialmente para "una ómica" que puede ser adaptada para dos?. DIABLO. MOFA. MFA. PCA.

¿Qué característica describe mejor los resultados obtenidos con el método SUM-PCA?. Es un método rápido para detectar clusters u outliers, aunque con menor significado biológico. Es un método lento pero muy robusto para la identificación de biomarcadores. Proporciona un profundo significado biológico sobre la interacción entre ómicas. Requiere que los datos de cada ómica tengan el mismo número de variables.

¿Cuál es el propósito fundamental de un diagrama de dispersión (Scatter plot) en el análisis de datos?. Construir una red ponderada de interacciones entre miles de variables. Reducir la dimensionalidad de un conjunto de datos complejo. Agrupar muestras en clusters basados en su similitud global. Visualizar la tendencia y la relación entre dos variables.

Si el objetivo de un estudio es identificar un panel de biomarcadores multi-ómicos que distinga eficazmente entre pacientes con una enfermedad y controles sanos, ¿qué tipo de método sería más apropiado?. Scatter plot (visualización). PCA o MOFA (no supervisado). DIABLO o PLS-DA (supervisado). Pearson (correlación).

En un Análisis de Componentes Principales (PCA), ¿qué representan los componentes principales que se calculan?. Variables individuales que tienen la mayor correlación con el fenotipo. Grupos de muestras con características biológicas similares. Factores latentes que explican la covarianza entre diferentes conjuntos de datos ómicos. Combinaciones lineales de las variables originales que representan direcciones de máxima varianza.

Denunciar Test