option
Cuestiones
ayuda
daypo
buscar.php

Aprendizaje UNED Tema 5 (Parte 2)

COMENTARIOS ESTADÍSTICAS RÉCORDS
REALIZAR TEST
Título del Test:
Aprendizaje UNED Tema 5 (Parte 2)

Descripción:
Programas y Teorías del Reforzamiento

Fecha de Creación: 2023/08/15

Categoría: UNED

Número Preguntas: 79

Valoración:(3)
COMPARTE EL TEST
Nuevo ComentarioNuevo Comentario
Comentarios
NO HAY REGISTROS
Temario:

1. Una influencia no deseable que interviene en la elección de los sujetos entre respuestas instrumentales concurrentes es: El comportamiento de alternancia, caracterizado por el cambio intermitente de una alternativa de respuesta a otra en relación a los reforzadores asignados a cada alternativa. El comportamiento de alternancia, un fenómeno accidental, no natural en el mundo animal. El reforzamiento accidental de una respuesta de cambio cuando un animal recibe el reforzador tras la primera respuesta que da después de pasar de una alternativa a otra.

2. Para controlar la influencia del comportamiento alternante: Se añade la limitación de que no se refuerce la respuesta de cambio de alternativa por un tiempo, lo que se denomina demora por cambio (DPC). Se introduce un periodo temporal breve, de aproximadamente 2 ó 3 segundos, después de la primera respuesta a una de las alternativas donde no se obtiene reforzador tras el cambio. Ambas opciones son correctas.

3. La consecuencia normal de haber introducido la contingencia de DPC es: Que los sujetos enfrentados con una situación de elección continuen su comportamiento de alternancia. Que los sujetos realicen la elección en base a las contingencias de reforzamiento asociadas con cada una de las alternativas de respuesta. La dependencia de los operandos de la respuesta.

4. Los sesgos más frecuentes no deseables en los experimentos de elección son (señala la que NO proceda): La disposición temporal de las alternativas de respuesta. El color y la iluminación de las alternativas. La fuerza requerida para responder a las alternativas.

5. Baum presenta un método para corregir la influencia de los sesgos en los programas concurrentes: Que parte de la idea conceptual de que los sesgos influyen en la elección de forma idéntica a los factores de reforzamiento. Llamada la ley generalizada de la frecuencia. Que se describe como: Ra/Fb + Sa/Fb, donde S representa los sesgos.

6. En la ley generalizada de la igualación: Se han de equiparar los factores de reforzamiento (frecuencia, magnitud y demora del reforzador) entre las alternativas de respuesta. Se miden las preferencias relativas de los sujetos: si existe una desviación hacia una alternativa, no hay influencia de los sesgos. Una vez conocido el valor de los sesgos relativos, no se deben variar los factores de reforzamiento asociados con las alternativas de respuesta.

7. Que la valoración de una de las alternativas de respuesta dependa, no solo de su valor objetivo, sino del valor que se ofrece en otra alternativa, produce: Sobreigualación. Infraigualación. Ambas opciones son correctas.

8. Cuando la mejor alternativa es valorada por encima de la preferencia establecida por la igualación perfecta se produce: Sobreigualación. Infraigualación. Estimación.

9. Cuando la mejor alternativa es valorada por debajo de la preferencia establecida por la igualación perfecta se produce: Infraigualación. Sobreigualación. Estimación.

10. Señala la opción correcta: Es más común encontrar sobreigualación que infraigualación. El comportamiento de alternancia aumenta el ajuste perfecto a la igualación. Cuando se habla de sobreigualación e infraigualación se hace referencia a la tasa de respuesta en la alternativa más favorable, con lo que la distribución no puede ser igual en ambas alternativas.

11. Señala la opción correcta: Cuando una alternativa es más favorable que otra, la ley de la igualación hace unas predicciones cualitativas sobre las preferencias relativas de los sujetos basadas en la frecuencia relativa de reforzamiento. Dado un programa concurrente IV-30, IV-60, los organismos siguiendo la igualación responderán el doble al programa IV-60. Si la relación de igualación se desviara hacia valores superiores al doble, tendríamos un ejemplo de sobreigualación. Si entre dos alternativas igualmente favorables, los animales eligen más una que la otra, entonces esa aparente desviación de la ley de igualación puede ser debida a sesgos de respuesta, pero no podría concluirse que fuera un caso de sobreigualación o de infraigualación.

12. *Para entenderlo: Pincha aquí: El valor de 1 se corresponde con la situación en que ambas alternativas de respuesta ofrezcan el mismo reforzamiento. Derecha de la gráfica (NORMAL), donde (Fa/Fb)>1: Alternativa "a" ofrece un mejor reforzamiento que "b". Si existiese sobreigualación (azul) se elige la alternativa "a" más de lo que se predice por la igualación perfecta. Si existiese infraigualación (verde), "a" se elige menos de lo que se predice. Izquierda de la gráfica (INVERSA), donde (Fa/Fb)<1: Alternativa "b" ofrece un mejor reforzamiento que "a". Si existiese sobreigualación (azul) se elige la alternativa "b" más de lo que se predice por la igualación perfecta. Si existiese infraigualación (verde), "b" se elige menos de lo que se predice.

13. Si volvemos por un momento a los resultados originales de Herrnstein, ninguna de las palomas se ajustó realmente a la igualación perfecta. Por eso, Baum: Ambas opciones son correctas. Amplió la ley de igualación de Herrnstein para incorporar las desviaciones por sobreigualación o infraigualación. Amplió la ley de igualación de Herrnstein para incorporar la influencia multiplicativa de los sesgos de elección.

14. La ley de la igualación de Baum: Se define como: Ra/Rb = k x (Fa/Fb)^S. Incluye S como una constante que representa los sesgos relativos. Incluye k como una representación de la sensibilidad hacia los programas de reforzamiento.

15. En la ecuación de Baum: Cuando k y s sean igual a 1, la ecuación se reduce a la de Herrnstein (aunque en los denominadores solo se considera la tasa de respuesta y de reforzamiento de la alternativa b y no la de a y b). Los valores de k inferiores a 1 se corresponderían con la infraigualación y, los superiores a 1, con la sobreigualación. Ambas opciones son correctas.

16. En la ecuación de Baum: La sobreigualación solo es más frecuente que la infraigualación cuando se utilice una DPC relativamente larga o cuando resulte muy costoso el cambio de una a otra alternativa de respuesta. La infraigualación solo es más frecuente que la sobreigualación cuando se utilice una DPC relativamente larga o cuando resulte muy costoso el cambio de una a otra alternativa de respuesta. La infraigualación será tan frecuente como la sobreigualación.

17. En la ecuación de Baum, si s=0: Las tasas de respuesta entre las alternativas a y b serán siempre las mismas independientemente de sus tasas de reforzamiento correspondientes, reflejando una completa insensibilidad a las contingencias de reforzamiento. Puede que hubiese ocurrido la "estricta alternancia" o cualquier otro patrón de comportamiento que fuese totalmente independiente de los valores de los programas de reforzamiento. Ambas opciones son correctas.

18. Al igual que con los programas básicos de reforzamiento, en la igualación hay dos enfoques principales: La teoría molar, afirma que el cambio de una alternativa de respuesta a otra se realiza en el momento en que la probabilidad momentánea de reforzamiento sea mayor en la otra alternativa. La teoría molar afirma las respuestas se distribuyen de acuerdo a un cálculo global de las tasas relativas de reforzamiento entre las dos alternativas de respuesta, eligiendo más aquella alternativa que proporcione una mayor tasa de reforzamiento. Ambas opciones son correctas.

19. Señala la opción correcta: El mecanismo molecular explica bastante bien la distribución de respuestas en programas concurrentes de razón. La aproximación molar tiene problemas para explicar la preferencia casi exclusiva del programa de razón cuando se presenta un programa concurrente RV-IV. La teoría molar puede explicar la preferencia por reforzadores variables antes que fijos cuando la tasa de reforzamiento es igual.

20. Tercera teoría que puede considerarse una síntesis de las aproximaciones molecular y molar: Mejoramiento. Maximización. Compilación.

21. Según la teoría del mejoramiento: Los mecanismos eligen entre dos fuentes de premio para que se igualen las tasas relativas de reforzamiento, respondiendo a la alternativa que en un momento dado presente una mejor tasa relativa de reforzamiento. La mejora se establece en términos de tasa local de reforzamiento, más que en términos de probabilidad momentánea de reforzamiento. Los resultados tienen un alcance a más largo plazo que la teoría molecular, con lo que esta teoría se refiere a tasas globales (molares) de reforzamiento.

22. Señala la opción correcta: La igualación temporal es intrínseca a la teoría del mejoramiento, pues los sujetos, al elegir más la alternativa que proporcione un mejor reforzamiento, darán una mayor tasa de respuesta, obtendrán una mayor tasa de reforzamiento y permanecerán más tiempo en dicha alternativa de respuesta. La teoría de la mejora se deriva perfectamente de la igualación. Ambas opciones son correctas.

23. En el procedimiento de cadenas concurrentes de respuesta o "programa concurrente encadenado": Se mide la elección entre premios y entre respuestas instrumentales concurrentes de forma directa. Se mide la elección entre diferentes fuentes de premio. Hay, como mínimo, tres pasos.

24. Selecciona la opción que corresponde: 1. Programa concurrente simple 2. Programa concurrente encadenado. 3. EI inicial 4. Eslabón medial 5. Reforzamiento. Ambas opciones son correctas.

25. Señala la opción correcta: En el programa concurrente simple se da a elegir entre dos alternativas de respuestas (rojo o verde), cada una acompañada de un programa de reforzamiento (comida) particular. En el programa concurrente encadenado, en un eslabón inicial el sujeto tiene que elegir entre dos alternativas de respuesta idénticas (blanco o blanco), y en un eslabón terminal se proporcionan los reforzadores por responder en la alternativa elegida durante el eslabón inicial. Ambas opciones son correctas.

26. En el programa concurrente encadenado: Una vez transcurrido el tiempo predeterminado para el eslabón terminal, se vuelve a presentar el eslabón inicial para que el sujeto elija de nuevo. Los sujetos son menos consecuentes al decidir sus respuestas, por lo que no es un procedimiento demasiado limpio. No se separa el aprendizaje de responder para conseguir el reforzador del aprendizaje de elección, por lo que no es un procedimiento demasiado limpio.

27. Los programas concurrentes encadenados: Permiten que los sujetos igualen la tasa relativa de respuesta en los eslabones terminales con su tasa relativa de reforzamiento correspondiente, así como la tasa relativa de respuesta en el eslabón inicial con la tasa relativa de reforzamiento en los eslabones terminales. Se asemejan poco a las elecciones en la vida cotidiana, pues en la vida real optar por una alternativa te compromete por un tiempo hasta poder cambiar de opción. No fueron investigados por Rachlin y Green.

28. Rachlin y Green dieron a elegir a sus animales entre una opción que implicaba una recompensa pequeña inmediata y otra que implicaba una recompensa mayor, pero demorada; y observaron las diferencias en dos programas diferentes: En el programa concurrente encadenado, se prefería siempre el premio pequeño inmediato, pues la inmediatez del reforzador influía más en la elección que su magnitud. En el programa concurrente simple, con un tiempo constante de espera para poder acceder a la oportunidad de que las respuestas fuesen reforzadas dada la introducción del eslabón inicial de elección, los animales optaron más por la alternativa que llevaba al reforzador mayor pero más demorado. Al introducir una pequeña demora entre la elección y la respuesta reforzada, la fuerza de la inmediatez del reforzador se debilitó y la elección se guio más por la magnitud del reforzador.

29. La preferencia por una recompensa pequeña inmediata se llama __1__, la preferencia por una recompensa mayor demorada se denomina __2__: 1. Inmediatez 2. Espera. 1. Impulsividad 2. Autocontrol. 1. Inmediatez 2. Control del impulso.

30. Algunos estudios muestran que la ley de la igualación de Herrnstein no es del todo correcta, pues no todos los factores influyen de la misma forma en la distribución de las respuestas entre las alternativas de elección. Una forma de explicar los resultados de autocontrol a través de la ley de igualación es aceptar una extensión de la ley generalizada de la igualación que: Incorpore los parámetros de frecuencia y magnitud del reforzador. Se describa como: Ra/Rb = k x (Fa/Fb)^s x (Ma/Mb). Ambas opciones son correctas.

31. El valor de una alternativa de respuesta: Aumentará con la magnitud del reforzador y disminuirá con su demora. Se calcula dividiendo la demora del reforzador entre su magnitud. No nos permite estudiar el autocontrol ni la impulsividad.

32. Si se ofrece un programa concurrente de IV-30seg IV-20seg, pero el reforzador es el doble en el primer componente: Los sujetos elegirán la primera alternativa, es decir, mostrarán un comportamiento impulsivo. El valor de la alternativa IV-30seg es 2. El valor de la alternativa IV-20seg es 0,05.

33. Si tenemos un programa concurrente IV-40seg IV-15seg, con el doble de cantidad de reforzador en el primer componente: Los sujetos presentarán autocontrol. El valor de IV-40 será 0'5, mientras que el de IV-15 será 0'02. Los sujetos presentarán impulsividad.

34. Para entender mejor cómo funciona el autocontrol es necesario: Partir de una situación donde los animales elijan la alternativa que les ofrezca un premio mayor más demorado. Partir de una situación de impulsividad. Partir de una situación donde los animales elijan la alternativa que les ofrezca un premio menor más inmediato.

35. En un programa concurrente IV-5seg IV-10seg que suministre 1,5 veces más cantidad de reforzador en el segundo componente: El valor de IV-5 será 0'15. El valor de IV-5 será 0'5. Los animales preferirán el programa IV-5.

36. Señala la opción correcta: Añadir un retraso constante en la entrega de las dos recompensas, como en los programas concurrentes encadenados, invierte los comportamientos "impulsivos" en "autocontrolados". Mazur propone que el cambio de un comportamiento impulsivo a uno autocontrolado se puede explicar mediante esta ecuación: Va = Ma / kDa. Ambas opciones son correctas.

37. En la ecuación de Mazur: k es una constante que representa la tasa de descuento de la demora para cada individuo particular en una situación dada (hasta qué punto son apreciados los reforzadores demorados). El valor del reforzador sería mayor a medida que su magnitud fuese mayor y la demora para su obtención, menor; construyendo así una relación lineal. Cuando un reforzador grande y otro pequeño son demorados, el valor del reforzador pequeño será superior al del grande.

38. En la ecuación de Mazur: Cuando exista demora, el valor de un reforzador pequeño será mayor que el de un reforzador grande. El valor aversivo de un castigo cambia mediante una función hiperbólica. En el valor del castigo incide más su demora que la diferencia entre sus intensidades.

39. En el castigo: Tiende a incidir más la diferencia entre sus intensidades que entre sus demoras sin son castigos muy diferidos. Tiende a incidir más la diferencia entre sus intensidades si el menos intenso es relativamente inmediato. Ambas opciones son correctas.

40. Herrnstein acabó considerando que: Cualquier situación implica necesariamente una elección, incluso las situaciones con una única alternativa de respuesta. Los animales están confrontados por responder o quedarse quietos. Ambas opciones son correctas.

41. Tras la inclusión de los reforzadores no programados a la ecuación de Herrnstein, queda como Ra/(Ra+Ro) = Fa/(Fa+Fo): Donde Ra es la tasa de respuesta operante específica del programa; y Ro la tasa de las otras actividades del animal. Aunque posteriormente se teoriza que la tasa total de conducta (Fa + Fo) debería ser una constante, por lo que la ecuación es cambiada a: Ra = k x (Fa/(Fa+Fo)). Donde Fa es la frecuencia de reforzamiento implícito programado y Fo frecuencia de reforzamiento intrínseco a las otras actividades.

42. *Pregunta de ánimos: Pincha aquí :). Este tema es muy largo y complejo, sobre todo el final, así que os mando ánimos!.

43. Esta ecuación: Se denomina la "cuantificación del aprendizaje de prueba y error". Especifica cuantitativamente cómo las consecuencias afectan a la conducta y transforma una ley de igualación puramente descriptiva en una teoría. Ambas opciones son correctas.

44. Herrnstein Formuló la ley de la igualación y la teoría de la igualación basándose en: El constructo de fuerza de asociación. La fuerza de la respuesta como una variable interviniente, no tanto como un constructo hipotético. El constructo de la ley del efecto.

45. La fuerza de la R se desarrolla: Por la naturaleza asociativa de estímulos y respuestas (E-R) según las teorías más modernas y extendidas. Según Thorndike, por la ley del efecto, donde la respuesta se considera de naturaleza teórica. Según el paradigma E-E para Hull.

46. Thorndike: Hizo uso de cajas-problema cerradas por una puerta que el animal, normalmente una paloma hambrienta, podía abrir accionando un pestillo. No mantenía la comida a la vista de los animales mientras se encontraban en las cajas-problema. Conseguía que los animales en la caja-problema abrieran "por casualidad" un pestillo, con lo que a cada intento la rapidez con la que emitían la R iba aumentando.

47. La Ley del efecto de Thorndike indica, textualmente: "De las varias respuestas que se dan en la misma situación, aquellas que van acompañadas o estrechamente seguidas de satisfacción para el animal, siendo constantes otras condiciones, tenderán a conectarse más firmemente con la situación, de modo que, cuando esta se repita, tales respuestas tendrán mayor probabilidad de volver a ocurrir". "Cuando mayor sea la satisfacción o el malestar, mayor será el fortalecimiento o debilitamiento del vínculo". Ambas opciones son correctas.

48. La ley del efecto: Postula que la fuerza de la asociación E-R depende de los principios asociacionistas clásicos que explicaban el condicionamiento pavloviano. Postula que las asociaciones E-R dependen de la propia consecuencia de la acción. Reemplazó al principio Pavlov, según el cual cualquier acción espontánea seguida de sentimientos de placer o de disminución del dolor era más probable que volviese a ocurrir, marcando así el inicio del estudio del CO.

49. Durante los años 30 y 40: Surge la época de oro del condicionamiento y aprendizaje, especialmente en Rusia y Polonia. Guthrie, Hull y Toleman gozan de su época de esplendor. Sucede la "época oscura" del estudio del aprendizaje.

50. Guthrie: Es el continuador más directo del pensamiento de Skinner. Opina que la función del reforzador es facilitar la asociación entre un estímulo y su respuesta. Propone una aproximación únicamente teórica al estudio del aprendizaje.

51. Es el primero en distinguir entre actos y movimientos, indicando que todo comportamiento está formado de movimientos musculares discretos: Hull. Gothrie. Thorndike.

52. Guthrie y Horton (1946) realizaron experimentos en cajas-problema y descubrieron: Que los gatos habían aprendido formas distintas de realizar la respuesta. Que cada gato, dependiendo de factores como la edad o el sexo, presentaba mayor o menor rapidez de aprendizaje de la asociación E-R. Que las asociaciones no eran E-R sino E-E.

53. Hull: Sigue el paradigma E-E. Considera que la consecución del reforzador refuerza la formación de una asociación E-E debido a una reducción del impulso. Introduce los conceptos de motivación e incentivo en el estudio del condicionamiento.

54. Hull: Considera que para que los animales ejecuten una acción determinada es imprescindible que tengan una necesidad biológica a reducir por la consecución del reforzador, que a su vez refuerza la asociación E-R. Desarrolla la primera teoría formal sobre la formación de las motivaciones, convirtiéndose en el más clásico neoconductista. Introduce el concepto de motivación para explicar resultados como lo de los efectos de contraste que no se podían explicar únicamente en base a la noción de impulso.

55. Según Hull: La consecución del reforzador reduce las necesidades del organismo (impulso) al tiempo que incita a la acción (incentivo). La ejecución conductual se define como: E = H + D + I. La ejecución conductual depende del nivel de impulso (I) y del valor del incentivo (V).

56. Tolman: Sigue el paradigma E-R. Entrenó a un grupo de ratas para nadar por un pasillo con comida al final. Una vez realizado este aprendizaje, puso un suelo falso en el laberinto, de manera que las ratas podían llegar a la comida corriendo. Las ratas no supieron llegar al final del laberinto con el suelo falso, pues habían aprendido movimientos musculares concretos. Después de uno de sus experimentos con un laberinto, concluyó que las ratas aprendieron un “mapa cognitivo” del pasillo y se desplazaron en la forma más adecuada en cada momento.

57. Tolman: No distingue entre aprendizaje y ejecución. Considera que el reforzador no es necesario para el aprendizaje, pero sí para la ejecución. Considera que el reforzador es necesario para el aprendizaje, pero no para la ejecución.

58. Tolman realizó un experimento donde, en una primera fase, los sujetos recorren un laberinto, pero no se les recompensó. En una segunda fase, se les volvió a situar en el laberinto y se reforzó con comida la respuesta correcta. Señala la opción correcta: Tolman realizó un experimento de inhibición latente. Este experimento resultó en el aprendizaje de la respuesta correcta más lentamente que otros animales de control que no habían tenido la oportunidad de recorrer el laberinto en primera instancia. El resultado demostró que los animales experimentales habían aprendido a recorrer el laberinto antes de recibir el premio, pero no ejecutaban la respuesta porque faltaba el reforzador.

59. Señala la opción correcta: Tolman y Hull coinciden al indicar que aprendizaje y ejecución son aspectos separables. Los mecanismos asociativos E-R y E-E puedan estar ambos implicados en el aprendizaje instrumental, siendo el mecanismo E-E el más específico en cuanto que establece formas precisas para producir las respuestas, y no solo la adquisición de la asociación. El mecanismo E-E establece reglas de ejecución, no solo de aprendizaje.

60. Propuso que en el CO los reforzadores seleccionan las respuestas, no otorgando un papel necesario a la formación de ningún tipo de asociación concreta (ni E-R, ni E-E): Skinner. Vigotsky. Holliman.

61. Skinner: Considera los E ambientales como señalizadores, moduladores de una asociación respuesta-reforzador. Considera los E ambientales como elicitadores de una respuesta, pues es reflexólogo. Sigue la corriente del CC.

62. Premack (señala la opción que NO proceda): Señala que las respuestas que acompañan a los estímulos reforzadores son actividades bajamente probables, mientras que las actividades instrumentales son altamente probables. Indica: "Dadas dos respuestas en un procedimiento de CO, la respuesta más probable reforzará a la menos probable y la respuesta menos probable no reforzará a la más probable”. Indica que la razón de que una respuesta se convierta en reforzadora viene determinada por su probabilidad de ocurrencia en la línea de base.

63. El principio del reforzamiento de Premack: Considera que los reforzadores tienen características intrínsecas que derivan su efecto de sus relaciones de contingencia. Considera que cualquier evento, sea un estímulo o una respuesta, puede convertirse en un reforzador eficaz. Ambas opciones son correctas.

64. Según el principio de Premack, para que una actividad pueda convertirse en un reforzador: Debe ser menos preferida en la línea base. La probabilidad de ocurrencia de la actividad preferida debe restringirse y ocurrir de forma contingente con la realización de una actividad menos preferida, fruto de lo cual la actividad menos preferida se convierte en instrumental. La probabilidad de ocurrencia de la actividad preferida debe restringirse y ocurrir de forma contingente con la realización de una actividad menos preferida, fruto de lo cual la actividad menos preferida se convierte en reforzador.

65. Como resultado del principio de Premack: La actividad reforzadora ocurre con mayor probabilidad que en condiciones de libre acceso. La actividad instrumental aumenta su probabilidad de ocurrencia. Ambas opciones son correctas.

66. Señala la opción correcta. Las actividades con menor probabilidad de ocurrencia en las situaciones de libre acceso nunca podrán reforzar a las actividades con una mayor probabilidad de ocurrencia. Las actividades con menor probabilidad de ocurrencia en las situaciones de libre acceso pueden reforzar a las actividades con una mayor probabilidad de ocurrencia. Las actividades con mayor probabilidad de ocurrencia en las situaciones de libre acceso nunca podrán reforzar a las actividades con una menor probabilidad de ocurrencia.

67. Premack y cols. en un estudio con ratas privadas de agua, pero no de correr, obtuvieron como resultado: Que beber era más probable que correr y la oportunidad de beber pudo reforzar el correr. Que beber era más probable que correr, pero la oportunidad de beber no pudo reforzar el correr. Que beber era menos probable que correr y la oportunidad de correr pudo reforzar el beber.

68. En otro estudio, donde las ratas no fueron privadas de agua: Correr era más probable que beber, y podía usarse como reforzador de la conducta de beber. Se descubrió que correr y beber podían usarse indistintamente como respuestas reforzadoras e instrumentales, dependiendo del estado de privación de agua del animal. Ambas opciones son correctas.

69. En un experimento con niños, tras una línea base donde se midieron las preferencias individuales por comer golosinas o jugar a las maquinitas, se realizaron dos fases en las que cada actividad se hizo contingente a la otra: Los niños que preferían comer golosinas, aumentaron su tasa de jugar a las maquinitas para conseguir dulces, mientras que los que preferían jugar con las maquinitas no incrementaron su tasa de jugar por el hecho de que esta actividad fuera seguida de comer dulces. Cuando las contingencias se invirtieron haciendo dependiente el jugar a las maquinitas de haber comido una cantidad de dulces, solo los niños que prefirieron aquella actividad en la línea de base aumentaron su consumo de golosinas. Ambas opciones son correctas.

70. Premack completó el principio del reforzamiento con otro paralelo sobre el castigo: Donde argumentó que la actividad de más baja probabilidad puede castigar a la de mayor probabilidad siempre y cuando se aumente su probabilidad de ocurrencia y suceda contingentemente con la actividad más preferida, que como resultado disminuirá su frecuencia de aparición en relación con su ocurrencia en la línea de base. Donde determina que las actividades menos preferidas nunca podrán castigar a las actividades más preferidas. Ambas opciones son correctas.

71. Señala la opción correcta: La posición de Premack es plenamente conductual y deriva de la tradición pavloviana, cuyo eje central es la ley empírica del efecto. Premack es capaz de explicar la razón última de por qué los sujetos prefieren una actividad más que otra en la prueba de libre elección. La teoría de la probabilidad diferencial es simple y compleja a la vez.

72. La teoría de la probabilidad diferencial: Tiene un gran poder predictivo, pues para predecir si una conducta reforzará otra, simplemente basta con medir sus probabilidades bajo una condición de línea de base. Es compleja en cuanto a la medida de la probabilidad de respuesta. Ambas opciones son correctas.

73. Señala la opción correcta: Cuando comparamos respuestas diferentes, una posible medida de sus probabilidades es la frecuencia con la que ocurre dicha respuesta. Premack sugiere que la probabilidad de la respuesta debe considerarse en una dimensión temporal para que pueda definirse como el tiempo dedicado a una actividad particular sobre el tiempo total. Premack sugirió que la medida de la respuesta más apropiada es la probabilidad global.

74. Señala la opción correcta: En la mayoría de procedimientos de CO, la probabilidad momentánea de la respuesta reforzadora se mantiene en un nivel bajo al permitir la oportunidad de realizar la respuesta reforzadora. Premack se dio cuenta de que no basta con la probabilidad diferencial, la eficacia del reforzador depende de que estén limitadas las posibilidades de ejecutar la respuesta. Eisenberger, Karpman y Trattner indicaron que los programas de reforzamiento incrementarán la frecuencia de la respuesta operante por encima de su línea de base si, y solo si, dichos programas permiten al individuo realizar la respuesta reforzadora.

75. La direccionalidad en el principio del reforzamiento propuesta por Premack es cuestionada por: La hipótesis de privación de respuesta. La hipótesis del bienestar. La teoría de la actividad instrumental.

76. Según la hipótesis de privación de respuesta: Para que una actividad funcione como un reforzador eficaz, solo es necesario restringir la realización de dicha actividad en relación con su ocurrencia en el punto de bienestar. Es necesario que la actividad que queramos que funcione como reforzador sea preferida sobre la actividad instrumental. Puede esquematizarse como: I/R = Oi/Or, donde I es la respuesta instrumental, R la reforzadora, Oi la conducta en la línea base que luego será instrumental, y Or la conducta en la línea base que luego será reforzadora.

77. Señala la opción correcta: "I/R > Oi/or" refleja que la proporción entre una actividad instrumental y una reforzadora debe ser mayor que la proporción observada entre estas dos actividades en el punto de bienestar. El punto rojo en esta gráfica indica el punto de privación. En esta gráfica, para intentar restablecer su punto óptimo (de bienestar), el animal debe ejecutar la respuesta instrumental designada por debajo del nivel que existía cuando la respuesta era irrelevante para el reforzador.

78. Si la contingencia se desvía en dirección opuesta a uno de los ejes desde el punto de bienestar: La actividad representada en dicho eje se restringe, y por lo tanto constituye la actividad reforzadora. La actividad representada en dicho eje aumenta, y por lo tanto constituye la actividad reforzadora. La actividad representada en dicho eje aumenta, y por lo tanto constituye la actividad instrumental.

79. La hipótesis de privación de respuesta: Predice que la tasa de respuesta y la tasa de reforzamiento deben relacionarse en forma de recta ascendente. Indica que a medida que el requerimiento del programa es mayor, el número de respuestas debe aumentar inicialmente porque el beneficio de obtener el reforzador compensa el coste de responder más frecuentemente. Indica que si el requisito del programa aumenta demasiado, el coste de responder en exceso no compensa más la alta frecuencia de reforzamiento obtenido.

Denunciar Test