option
Cuestiones
ayuda
daypo
buscar.php

TEST AC

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
TEST AC

Descripción:
Test examen AC

Fecha de Creación: 2025/11/26

Categoría: Informática

Número Preguntas: 30

Valoración:(0)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

Son ejemplos de tareas de aprendizaje supervisado las siguientes: clasificacion y regresion. clasificacion y aprendizaje por refuerzo. clasificacion y mineria de datos.

La definici n de aprendizaje autom tico que aparece en el libro de la asignatura Machine Learning de Tom Mitchell reza lo siguiente: ÒDe dice que É. un programa de ordenado aprende como mejorar la medida de rendimiento P mediante el uso de la tarea T. Esta tarea le permite generar la experiencia E. un programa de ordenador aprende como mejorar la experiencia E mediante la ejecucion de la tarea T. Para la ejecucion de dicha tarea, utiliza la medida de rendimiento P. un programa de ordenador aprende de la experiencia E, con respecto al alguna clase de tarea T y medida de rendimiento P si su rendimiento en la actividades de T, medida mediante P, mejora con la experiencia E.

Al diseñar un sistema debemos determinar, por ese orden,. (1) la funcion objetivo, (2) el tipo de la experiencia para el entrenamiento, (3) la representacion de la funcion a aprender y (4) el algoritmo de aprendizaje. (1) el tipo de la experiencia para el entrenamiento, (2) la funcion objetivo, (3) la representacion de la funcion a aprender y (4) el algoritmo de aprendizaje. (1) el tipo de la experiencia para el entrenamiento, (2) la funcion objetivo, (3) el algoritmo de aprendizaje y (4) la representacion de la funcion a aprender.

Indica la unica afirmacion incorrecta. El aprendizaje computacional es interesante porque. determinar tarea solamente puede describirse bien mediante ejemplos. en ciertos dominios, la cantidad de conocimiento disponible sobre la capacidad de codificacion por el humano. Los entornos cambian con el tiempo y lo programas deberian aprender ese cambios para indicarlos al desarrollador.

los resultados de un calificador seran mejores si: en las celdas de su matriz de confusion, todos los valores distintos mayores que cero estan en las celdas de diagonal principal. en su matriz de confusion, todas las celdas de la diagonal principal tiene valor 0. su matriz de confusion contiene mas celdas con valor 0 que con valor distinto de 0.

la matriz de confusion de un modelo de clasificacion. es de aplicar exclusiva en problemas de clasificacion binaria, para detectar los falsos positivos y negativos del clasificador. se aplica en todo tipo de problemas de aprendizaje computacional, ya sea de regresion o clasificacion, para estimar el error de la hipotesis generado por el algoritmo de aprendizaje a partir de los datos de aprendizaje. es un mecanismo de representacion de errores de un clasificador en un problema de clasificacion de n clase.

Para comparar dos metodos (o un mismo metodo con distintos parametros) se ha de ejecutar cada uno varias veces, sobre los mismos datos, y con distintas semillas aleatorias (constituyendo esas ejecuciones un experimento). Es imprescindible aplicar algun test estadistico para distinguir con propiedad entre la hipotesis nula (ambos experimentos son indistinguibles) o la hipotesis alternativa (ambos experimentos son diferentes) con cierto nivel de confianza (normalmente 95% o 99%). Es suficiente con comprobar que mejor ejecucion de un metodo es peor que la peor ejecucion del otro metodo. Es suficiente con comprobar que la media la validacion cruzada de un metodo y la del otro difieren en 1,96 (al 96% de confianza) o 2,57% (al 99%) desviacion tipicas.

Con respecto al sobreaprendizaje en rboles decisi n: un arbol h adolece de sobreaprendizaje cuando tiene mejor error de validacion que otro arbol h', pero h' tiene mejor error de entrenamiento. el sobreaprendizaje es tipico de redes neuronales. No se manifiesta en aprendizaje de arboles de decision. un arbol h adolece de sobreaprendizaje cuando tiene mejor error de entrenamiento que otro arbol h', pero h' tiene mejor error de validacion.

Un dato se suele considerar un outlier: Si esta a tres desviaciones tipicas de la mediana. Si se desvia mas de tres desviaciones tipicas de la media. Si esta mas alla de 3/2 del rango de intercuartil.

Las principales causas del ruido en los datos son. Atributos ocultos, imprecisiones en la toma de datos, errores de etiquetado. Mal funcionamiento de instrucciones de medida, aleatoriedad intrinseca de los datos, sesgo en la experimentadores. Sesgos en los experimentadores, hipotesis demasiado generales, errores meteorologicos.

La version estocastica del algoritmo de entrenamiento de percepcion. actualiza los pesos w_i solamente una vez en cada pasa del conjunto D de datos de entrenamiento. actualiza los pesos w_i cada vez que se procesa un ejemplar de conjunto D de datos entrenamiento. actualiza los pesos estocasticamente (i.e. segun una distribucion de probabilidad determinada de antemano).

Señalar la unica afirmacion incorrecta sobre el metodo PCA. Las caracteristicas obtenidas tras aplicar PCA siguen manteniendo su interpretabilidad. Las siglas corresponden a "Analisis de Componentes Principales". Es un metodo no supervisado.

Con respecto a la potencia de los algoritmos de aprendizaje. las tecnicas vistas en clase en esta asignatura son tecnicas basicas. Existen tecnicas mas avanzadas y mas potentes, en terminos del error de evaluacion, que no hemos visto este año por su elevada complejidad. es falso que exista una tecnica mas potente que el resto en todo tipo de problemas. es posible que las tecnicas basadas en redes neuronales sean mas potentes que el resto para todo problema, sin embargo esta por determinar.

Los arboles de decision representan. una particion posible del espacio n-dimensional al que pertenecen los datos para el aprendizaje. Superficies de transicion suave basadas en interpolaci n entre puntos. Un conjunto de grupos de puntos no necesariamente disjuntos, cada uno de los cuales tiene un representante que se corresponde con un nodo hoja de arbol.

La capacidad de representaci n de un perceptr n multicapa: se limita a cualquier expresion logica. puede representar cualquier funcion solamente a partir de hacer uso de dos capas ocultas. puede representar cualquier funcion con solamente una capa oculta y un numero suficiente de nodos ocultos.

La tecnica del momentum. resulta indicada para acelerar la convergencia del algoritmo Backpropagation. Implica el uso de un parametro 'alpha' adicional junto con el ratio de aprendizaje usado en la version convencional del Backpropagation. garantiza la convergencia a un minimo global. resulta indicada para acelerar la convergencia del algoritmo Backpropagation. Implica el uso de un parametro 'alpha' adicional que viene a sustituir al ratio de aprendizaje usado en la version convencional del Backpropagation.

La capacidad de representacion de un solo perceptron. se limita a las operaciones basicas AND, OR y XOR. se limita a las operaciones basicas AND y OR. abarca cualquier expresion logica.

El clustering jerarquico puede ser de dos tipos: aglutinador o divisor. En el aglutinador se utiliza una medida de distancias entre grupos y en el divisor esta medida no se necesita. En el divisor se utiliza una medida de distancia entre grupos y en el aglutinador esta medida no necesita. En ambas se hace necesaria una medida de distancia.

La neurona basica de una red neuronal artificial clasica es el perceptron y su funcion es. la de actuar como un discriminante lineal entre conjuntos de ejemplares de dos clases. la de actuar como un discriminante cuadratica entre conjuntos de ejemplares de dos clases. realmente un perceptron por si solo no tiene poder discriminante alguno. Solo una red de perceptrones tiene.

Señalar la unica afirmacion incorrecta sobre la regresion. regresion es cuando dado un punto de entrada se busca una salida numerica con ruido. una regresion es la forma natural de modelar series temporales. el objetivo es encontrar modelos g(x) que aproximen la funcion subyacente f(x) intentando minimizar el error empirico sobre un conjunto de entrenamiento.

El algoritmo Backpropagation para entrenamiento de una red multicapa. garantiza la convergencia a un minimo local pero a cambio de un coste computacional considerable. no garantiza la convergencia a un m nimo global aunque suele dar buenos resultados en problemas del mundo real. no garantiza la convergencia a un minimo global por lo que no suele usarse.

En general, un algoritmo de clustering: necesita que se inicialicen los centroides a los vertices extremos del span-tree minimo (hojas mas distantes). se puede utilizar como una forma de comprension (con perdida) de informacion, sustituyendo todos los miembros de un cluster por su centroide. el clustering jerarquico permite encontrar la mejor descripcion taxonmica posible de un conjunto de ejemplos.

La estrategia de busqueda de la hipotesis mas adecuada que usa ID3 es de tipo. voraz. voraz combinada con backtracking. gradiente descendente minimizando el error de clasificacion.

La validacion cruzada de k pliegues con un algoritmo A y un conjunto de datos D. genera k experimentos diferentes. En cada experimento se usa D para el aprendizaje de un modelo mediante A. Lo que diferencia a cada experimento del resto es la semilla aleatoria usada en A. genera k experimentos diferentes. D se dividen k partes disjuntas, {d_1, d_2, ... d_k}. En el experimento i-esimo, se utiliza D - d_1 para el aprendizaje y d_i para la evaluacion. genera k experimentos diferentes. D se dividen k partes disjuntas, {d_1, d_2, ... d_k}. En cada uno de los k experimentos, se utiliza d_k para el aprendizaje y una combinacion de los d_i, 1<_ i < k-1 para la evaluacion.

El problema del aprendizaje computacional se puede resumir, a grandes rasgos, en. la busqueda de una buena hipotesis h, dentro de un espacio H de hipotesis posibles, para estimar una funcion objetivo f, a partir de un conjunto de ejemplares entrenamiento. la busqueda de un espacio H de hipotesis posibles, para estimar una funcion objetivo a partir de un conjunto de entrenamiento. una definicion adecuada de la funcion objetivo f.

Respecto a los datos nulos indicar la unica afirmacion incorrecta . se puede usar la media global del atributo o la media del atributo entre los ejemplares de su misma clase. No obstante introduce un sesgo en los datos. ignorar la tupla (especialmente si el dato es la propia clase) o rellenar manualmente (obtener por otro lado) los datos no introducen un sesgo en los datos. siempre es significativo la aparicion de datos nulos y se debe intentar reparar dicha deficiencia obteniendo algun tipo de valor. Por supuesto cuanto mas se acerque dicho valor al real mucho mejor.

El algoritmo de clustering de las k- medias. es muy sensible a la inicializacion de los centroides ya que eso hara que el valor final de k calculado por el algoritmo sea mas o menos adecuado. es muy sensible al valor de k indicado en tiempo de configuracion. no suele usarse. En su lugar usaremos siempre clustering jerarquico.

La validacion cruzada tiene como objetivo. generar una estimacion del error buena cuando el conjunto de datos para el aprendizaje es pequeño. generar una estimacion del error muy buena, independientemente del tamaño del conjunto de datos. ser una alternativa al metodo leave-one-out, utilizado este ultimo cuando tenemos una cantidad grande de datos.

Señalar la unica afirmacion incorrecta sobre sesgos inductivos. un sesgo inductivo es un supuesto sobre los datos a la hora de hacer el aprendizaje. los algoritmos fuertemente sesgados son mucho mejores que los levemente sesgados. un sesgo facilita la busqueda de hipotesis utiles en el espacio de hipotesis de un algoritmo sesgado particular pero es catastrofica si los datos no siguen dicho sesgo.

El clasificador Bayer Naive (i.e. ingenuo). se denomina as porque hace una simplificaci n muy burda de la realidad; asume que P('alpha'_1, 'alpha'_2...'alpha'_n | v_j) = PI P(a_j | v_j) siendo los 'alpha'_i valores de entrada de instancias de aprendizaje y los v_j etiquetas de clase. De ah que solo tenga intereses desde el punto de vista docente; otras tecnicas como las redes neuronales y los rboles de decisi n se comportan significativamente mejor. esta a la altura de cualquier otra tecnica de aprendizaje automático en muchos problemas. consigue, en todo problema del mundo real, los mejores resultados. Sin embargo, no se usa porque es muy costoso computacionalmente.

Denunciar Test