Mis preguntas robotica
![]() |
![]() |
![]() |
Título del Test:![]() Mis preguntas robotica Descripción: Preguntas robotica |




Comentarios |
---|
NO HAY REGISTROS |
Son ejemplos de variables aleatorias discretas. Localization in a grid. Recognizing an object. Localization in a continuous plane. Measuring the distance to an object. The probability that the robot position (x,y) is in the rectangle [a,b] [c,d]. P(x∈[a,b],y∈[c,d])=a_∫^b c_∫^d p(x,y)dxdy. P(x∈[a,b],y∈[c,d])=a_∫^b c_∫^d p(x,y)dydx. P(x∈[a,b],y∈[c,d])=c_∫^d a_∫^b p(x,y)dxdy. Para el ejemplo tirar el dado y sea A="sale par" B="sale alguno de {4,5,6}". Selecciona las verdaderas. P(A)=1/2. P(B)=1/3. P(A∪B)=2/3. P(A∩B)=1/3. P(A∩B)=2/3. Para el ejemplo de considerar la probabilidad de que el robot este en la posicion x=5, y=3 dentro del grid. Siendo A="esta en la columna x=5" y B="esta en la fila y=3". Seleccione las correctas. P(A)=0.38, P(B)=0.19. P(A)=0.19, P(B)=0.38. P(A∪B)=0.1. P(A∩B)=0.1. P(A∪B)=0.47. Seleccione las correctas. P(x,y)=P(x|y)P(y)=P(y|x)P(x). P(x,y)=P(x|y)P(x)=P(y|x)P(y). En P(x|y) la variable es la y. P(x|y)=P(x,y)/P(y). P(x|y)=P(x)/P(x,y). Probabilidad marginal. P(x)=∫_y P(x,y)dy. P(x)=∫_x P(x,y)dy. P(x)=∫_y P(x,y)dx. P(x)=∫_y P(x|y)dy. Seleccione las correctas. La independencia hay que verla en la condicionada, no en la conjunta. La independencia hay que verla en la conjunta, no en la condicionada. Si se cumple: p(x)=p(x|y=4)=p(x|y=3) entonces x e y son independientes. Si se cumple: p(x)=p(x|y=4)=p(x|y=3) entonces x e y son dependientes. Dada una grafica podemos ver si son independientes si tomando filas y escalándolas son todas iguales. Sin saber nada sobre x e y1 se cumple que ∫P(x,y1)dx=P(y1), pero ∫P(x|y1) no tiene pq ser igual a 1. Sin saber nada sobre x e y1 se cumple que ∫P(x,y1)dx=P(y1), y ∫P(x|y1)=1. Law of total probability. P(X)=Σ_y P(X|Y)P(Y). P(Y)=Σ_x P(X|Y)P(Y). P(X)=Σ_y P(X,Y). P(X,Y)=P(Y|X)P(X). Marginalizacion. P(X)=Σ_y P(X|Y)P(Y). P(Y)=Σ_x P(X|Y)P(Y). P(X)=Σ_y P(X,Y). P(X,Y)=P(Y|X)P(X). Regla del producto. P(X)=Σ_y P(X|Y)P(Y). P(Y)=Σ_x P(X|Y)P(Y). P(X)=Σ_y P(X,Y). P(X,Y)=P(Y|X)P(X). Selecciona la correcta. p(x,y|z)=p(x|y,z)p(y|z). p(x,y|z)=p(x|y,z)p(x|z). p(x,y|z)=p(x,y,z)p(y|z). p(x,y|z)=p(x|y,z)p(y|x). Conditional Independence (CI). Son CI si P(x,y|z)=P(x|z)P(y|z), es decir P(x|z)=P(x|z,y) y P(y|z)=P(y|z,x). Son CI si P(x,y|z)=P(x|z)P(y|z), es decir P(x|z)=P(x,z|y) y P(y|z)=P(y,z|x). CI implica I. I no implica CI. Selecciona las correctas. Expectation is a linear function. E[f(x)g(x)]=E[f(x)]*E[g(y)]. var[x]=E[(x-mu)^2]. Σ=E[x_i x_j] - E[x_i]E[x_j]. Si x_i y x_j son independientes entonces x_i y x_j son incorrelados. Si x_i y x_j son incorrelados entonces x_i y x_j son independientes. Teorema de Bayes. p(x|z)= p(z|x)p(x) / p(z). p(x|z)= p(x) p(z|x) / Σ p(z|x)p(x). p(x|z)= p(z|x)p(z) / p(x). p(x|z)= p(z) p(z|x) / Σ p(x|z)p(z). p(z|x) es una función de probabilidad condicionada cuando la variable es z (p(z|x)=f_x(z) la integral vale 1). p(z|x) es un Likelihood cuando es una función de x (p(z|x)=f_z(x) la integral no tiene pq valer 1). p(z|x) es una función de probabilidad condicionada cuando es una función de x (p(z|x)=f_z(x) la integral no tiene pq valer 1). p(z|x) es un Likelihood cuando la variable es z (p(z|x)=f_x(z) la integral vale 1). p(x|z) siempre es menor que p(x). Seleccione las opciones correctas. p(a|b)+p(a|¬b) = 1. p(a|b)+p(a|¬b) != 1. p(a|b)+p(¬a|b) = 1. p(a|b)+p(¬a|b) != 1. Dado P(a|b)=0.6, P(a|¬b)=0.3 y P(b)=P(¬b)=0.5. Calcula aplicando Bayes P(b|a). 0.67. 0.38. 0.49. 0.4. Bayes con dos observaciones. P(x|z1,z2)= P(z2|x,z1)P(x|z1) / P(z2|z1). P(x|z1,z2)= P(z1|x,z2)P(x|z1) / P(z2|z1). P(x|z1,z2)= P(z2|x,z1)P(x|z2) / P(z2|z1). P(x|z1,z2)= P(z2|x,z1)P(x|z1) / P(z1|z2). A. B. C. D. E. F. Propiedades de la covariance matrix. simétrica. definida positiva. invertible. la traza (suma de los elementos de la diagonal) es positiva. puede ser descompuesta por la descomposición Cholesky. es siempre diagonal. todos sus valores son positivos. Los puntos 1, 2 y 3. están a la misma mahalanobis distance al centro mu. están a la misma euclidean distance al centro mu. no están a la misma mahalanobis distance al centro mu. have the same likelihood to come from the distribution. Teorema central del límite. La distribución de la suma de N variables aleatorias independientes e idénticamente distribuidas (i.i.d.) se aproxima cada vez más a una distribución gaussiana a medida que N crece. La media de las variables aleatorias debe ser cero para que el Teorema Central del Límite se aplique. El Teorema Central del Límite solo se aplica si las variables aleatorias tienen una distribución normal. Bayes Filter. applies for continuous RVs. applies for discrete RVs. applies for any kind of distribution. applies for only Normal distribution (Gaussian). When is not gaussian is called Kalman Filter. Vehicles. A vehicle is holonomic (can move in any arbitrary direction) if the number of its local degrees-of-freedom (dof) of movement equals the number of global dof (3 for planar motion, 6 in 3D space). A non-holonomic vehicle is that whose velocity vector vP is restricted to be tangent to the path → moves on a circular trajectory and cannot move sideways. A holonomic vehicle is that whose velocity vector vP is restricted to be tangent to the path → moves on a circular trajectory and cannot move sideways. A vehicle is non-holonomic (can move in any arbitrary direction) if the number of its local degrees-of-freedom (dof) of movement equals the number of global dof (3 for planar motion, 6 in 3D space). ICR. Solo puede haber un ICR para todas las ruedas. Las ruedas tienen misma velocidad angular pero distinta lineal. Pueden haber más de un ICR para todas las ruedas. Vehicle velocity is always perpendicular to the robot wheel axis. Vehicle velocity is always tangent to the robot wheel axis. Properties of poses. Closure. Associativity. Identity element. Inverse. Commutative. Distributive. En los Beacons. Absoluta posición. Algoritmos simples y eficientes. Costoso y flexibilidad limitada pues requiere cambios en el medio. Problemas con transparente, brillos y objetos. trabajan con pulse time of flight y phase shift. Un robot autónomo. Puede operar en entornos no totalmente conocidos. Realiza tareas repetitivas y preestablecidas. Consiste en un brazo articulado que mueve sus articulaciones de acuerdo con un programa informático. Emplea información sensorial para tomar decisiones. a=p (+) a'. a = p + a'. p = a (+) ((-)a'). a' = (-)p (+) a = a(-)p. A. B. C. D. 1/16. 1/24. 1/128. Cual es la expresion que describe probabilisticamente el modelo de movimiento. p(xt | ut, xt-1). p(ut | xt, xt-1). p(ut, xt | xt-1). p(xt, xt-1 | ut). Dado el modelo de observacion z=h(x,m)+w con w ~ N(0,Q). p(z|x,m) ~ N(h(x,m),Q^-1 ). p(z|x,m) ~ N(h(x,m),Q ). p(z|x,m) ~ N(0,Q). p(z|x,m) ~ N(h(x,m),Jh*Q*JhT ). zt. xt. m. m, xt, zt. Consideresé un robot equipado con un sensor de distancia (range) que toma mediciones z a marcas del entorno. Dicho robot realiza un recorrido localizándose globalmente mediante mínimos cuadrados por medio de una optimización iterativa de su pose mediante el algoritmo de Gauss-Newton, que se inicializa en la posición odométrica. Señala cual de las siguientes afirmaciones es correcta: La calidad de la odometría empleada influye en el número de iteraciones que emplea el algoritmo en converger a una solución. La orientación del robot puede obtenerse si contamos con distancias a tres o más marcas distintas. El Jacobiano del modelo de observación es de dimensión (grados de libertad de la pose)x(número de landmarks). La incertidumbre (varianza) de la medida (distancia) observada afecta al mínimo obtenido. |