4 claves para entender nuestra extraña e incoherente moralidad

La investigación ayuda a explicar cómo pensamos sobre el bien y el mal.

Escrito por Rob Henderson y publicado en Psichology Today el 26 de diciembre de 2017

Image for post

¿A qué factores prestamos atención cuando hacemos juicios morales? Para la mayoría de nosotros, depende.

En primer lugar, los resultados definitivamente importan. Las investigaciones demuestran que incluso los bebés prefieren a los que son amables con los demás, en comparación con los que son neutrales o malos.

Además, los bebés prefieren a aquellos que se comportan de manera positiva con otros que son amables. Y los bebés evitan a aquellos que se comportan de manera positiva con otros que son malos. En palabras simples, los bebés prefieren a aquellos que son buenos con los buenos, y malos con los malos.

Desde temprana edad, entonces, juzgamos el comportamiento moral de otros y usamos esta información cuando decidimos quién nos gusta.

Pero para los adultos, no solo los resultados importan. Cuando hacemos veredictos morales, también prestamos mucha atención a las intenciones.

¿Intentaba el presidente dañar el medio ambiente?

La investigación intercultural sugiere que es un principio general de la moralidad, un “universal cognitivo”, que la gente considera tanto las intenciones como los resultados.

Pero la gente piensa de manera diferente sobre las intenciones y los resultados, dependiendo de la situación.

Por ejemplo, está el efecto Knobe. Aquí está el famoso escenario del trabajo original:

El vicepresidente de una empresa se dirigió al presidente de la junta directiva y le dijo: “Estamos pensando en iniciar un nuevo programa. Nos ayudará a aumentar los beneficios, pero también perjudicará al medio ambiente”.

El presidente de la junta respondió: “No me importa en absoluto dañar el medio ambiente. Solo quiero sacar el mayor provecho posible. Comencemos el nuevo programa’’. Comenzaron el nuevo programa.

Naturalmente, el medio ambiente fue dañado.

Cuando se preguntó si el presidente tenía la intención de dañar el medio ambiente, el 82% de los encuestados respondió que sí.

Pero algo extraño sucedió cuando una sola palabra fue cambiada.

En una versión diferente de la historia, los investigadores reemplazaron la palabra “daño” por “ayuda”. Todas las demás partes de la historia eran iguales, excepto esa palabra. Los investigadores preguntaron entonces a los participantes si el presidente tenía la intención de ayudar al medio ambiente.

El 77% dijo que el presidente no tenía intención de ayudar.

¿Qué significa esto? El resultado de una acción (dañina o útil) nos lleva a cambiar retroactivamente nuestra percepción de los hechos (en este caso, si una persona quería hacer algo o no).

Si algo malo sucede como efecto secundario, creemos que la persona lo hizo intencionadamente. Pero si algo bueno sucede como efecto secundario, no creemos que la persona lo haya hecho intencionadamente. ¿Por qué no?

Una explicación viene del filósofo Richard Holton. Holton afirma que la mejor manera de explicar el efecto Knobe es identificar si una persona viola o se ajusta a una norma. Por ejemplo, si una persona hace algo sabiendo que un efecto secundario de la acción violará una norma, lo consideramos intencionado. Pero si una norma se mantiene como un efecto secundario, no se considera intencionado.

Tendemos a ver a los demás como si estuviesen manteniendo normas de manera irreflexiva, y consideramos que violarlas surge de una intencionalidad consciente.

El libre albedrío y el el problema de la enfermedad de Asia

Además, no es sólo una intención. Somos inconsistentes sobre nuestra atribución de libre albedrío, también.

En una serie de experimentos, los investigadores presentaron a los participantes una versión adaptada del problema de la enfermedad de Asia. En el escenario, 600.000 personas están a punto de morir a causa de una enfermedad inminente.

A continuación, los participantes leen acerca de una persona que debe decidir entre dos opciones: la opción “arriesgada” y la opción “segura”.

La opción arriesgada ofrecía un tercio de posibilidades de salvar a todos y dos tercios de que todos murieran. La opción segura salvaría a un tercio de la gente, pero los otros dos tercios definitivamente morirían.

Los investigadores dijeron a los participantes que imaginasen que ellos o la persona en el escenario seleccionaron la opción arriesgada.

A la mitad de los participantes se les dijo que la persona que tomaba las decisiones en el escenario logró salvar a todos. A la otra mitad se le dijo que la persona que tomó la decisión fracasó y que las 600.000 personas murieron.

Luego se les preguntó cuánto libre albedrío tenía cada persona cuando tomó su decisión.

En general, los participantes asignaron más libre albedrío a la persona cuya decisión provocó la muerte de las 600.000 personas.

La idea de la violación de las normas de Holton también tiene sentido aquí. Si una persona logra ayudar a los demás, ha mantenido una norma. Pero si una persona no ayuda a los demás, ha violado una norma.

En suma, las personas asignan de manera selectiva el libre albedrío a otros dependiendo de los resultados de sus acciones. La gente asigna mayor intencionalidad y libre albedrío cuando suceden cosas malas.

Culpa y castigo

Investigaciones recientes sugieren que tenemos dos procesos cognitivos que chocan cuando hacemos veredictos morales. Uno de los procesos es el de los resultados. Otro proceso es el de la intención.

La fricción entre estos procesos nos lleva a asignar culpas y castigos de manera diferente.

Un proceso mental evalúa las intenciones. ¿Querían hacerlo? ¿O fue un accidente?

El segundo proceso mental se preocupa por los resultados. ¿Qué es lo que realmente pasó? ¿Quién hizo que ocurriera?

Supongamos que un conductor se salta un semáforo en rojo sin querer. El conductor choca contra otra persona, que muere como resultado.

Bajo el modelo de dos procesos, sufriríamos un conflicto entre la contabilidad de la intención del conductor y el resultado de la acción del conductor.

Sabemos que el conductor no quería hacer daño a nadie. La gente no le echaría mucha culpa. Pero mucha gente querría que el conductor fuera castigado de alguna manera.

Sin embargo, las intuiciones de la gente difieren para los casos en los que la persona tiene la intención de causar daño, pero no tiene éxito.

Imaginemos que un conductor quiere atropellar a otra persona, pero falla. No pasó nada malo en realidad.

Aquí, la gente está más dispuesta a culpar. Después de todo, la persona quería hacer algo malo. Pero la gente estaría menos dispuesta a castigar al segundo conductor, que no causó daño, que al primer conductor, que sí lo hizo.

En otras palabras, la gente piensa que aquellos que cometen daños accidentales deben ser castigados pero no culpados con tanta fuerza. Y la gente piensa que aquellos que intentan hacer daño pero no tienen éxito deben ser culpados aunque no castigados tan severamente. Nuestra compulsión por castigar depende en gran medida de si algo malo ocurrió realmente. Y nuestra compulsión por culpar depende en gran medida de la intención de la persona.

Creemos que el castigo debe basarse en los resultados, no en las intenciones. Y creemos que la culpa debe basarse en las intenciones, no en los resultados.

Los hacedores de ideas y los sentidores vulnerables

Sin embargo, el juicio moral no es tan sencillo como mirar los resultados y las intenciones. Otro factor es la percepción mental.

Según la teoría de la díada moral, para que un acto sea percibido como moral o inmoral debe contener dos individuos. Necesitamos un agente moral (un “hacedor de ideas”) y un paciente moral (un “sentidor vulnerable”).

Pero no es tan simple como señalar a un agente y a un paciente y de ahí concluir que se ha producido una violación moral. El proceso puede ir en la dirección opuesta.

En pocas palabras, cuando pensamos que algo malo ha sucedido, nos vemos obligados a identificar tanto a un agente moral como a un paciente moral. Por ejemplo, cuando vemos daño y sufrimiento, vemos pacientes morales. Para completar la díada moral, nos vemos obligados a encontrar un agente moral. “¿Quién es responsable de este sufrimiento?”.

En otras palabras, cuando la gente ve a alguien sufriendo, la teoría de la díada moral dice que intentará encontrar un agente, un “hacedor de ideas”.

Además, la gente tratará de encontrar pacientes morales cuando se enfrente a agentes que parecen intuitivamente inmorales. Incluso si las víctimas específicas no son inmediatamente obvias. Algunos ejemplos incluyen a un codicioso hombre de negocios, un ingeniero negligente o un político deshonesto. “Esta persona es obviamente mala, debe haber víctimas en alguna parte”.

Los delitos morales consensuados como el consumo de marihuana o la prostitución también pueden provocar un intento de identificar a un paciente moral. “¡Quizás no les hace daño, pero sí a la sociedad!”.

En pocas palabras, cuando las personas perciben un daño, tratan de completar la díada moral identificando a una víctima y a un perpetrador.

¿Qué es la moralidad?

Los investigadores de la teoría de la díada moral afirman que la moralidad no consiste en “fuerzas místicas que existen aparte de la humanidad, sino simplemente en lo que surge a través de las interacciones de los agentes y los pacientes”. Crear el mal, hacer de manera intencionada que otra mente sufra (por ejemplo, patear a un perro), y crear el bien, impedir de manera intencionada que otra mente sufra (por ejemplo, impedir que un perro sea pateado)”.

Una mayor voluntad de culpar en lugar de elogiar en situaciones en las que los estados mentales de los agentes y los pacientes difieren de acuerdo con el neurocientífico Joshua Greene, quien afirma, “En nuestros cerebros morales hay programas psicológicos automatizados que permiten y facilitan la cooperación”. Esta maquinaria moral opera implícitamente, permitiendo que los humanos lleguen a veredictos morales con poco pensamiento reflexivo.

Además, el psicólogo social Jonathan Haidt ha descrito los sistemas morales como “conjuntos interrelacionados de valores, virtudes, normas, prácticas, identidades, instituciones, tecnologías y mecanismos psicológicos evolucionados que trabajan juntos para suprimir o regular el interés propio y hacer posibles las sociedades cooperativas”. Tanto Greene como Haidt enfatizan las raíces tribales de la moralidad humana. La cooperación permitió que nuestros antepasados sobrevivieran.

Cómo tomar decisiones morales

De hecho, Greene ofrece una solución para cuando confiar en nuestra maquinaria moral automatizada y cuando deberíamos ser más reflexivos sobre los juicios morales. Claramente, cuando estamos tratando con miembros de nuestra tribu, nuestro grupo, confiar en el instinto está bien. Lo más probable es que nos lleve a hacer lo correcto. Pero cuando se trata de extraños, o del grupo externo, nuestra maquinaria automatizada no es de confianza. En este caso, debemos anular nuestros procesos automatizados y utilizar el pensamiento reflexivo para hacer lo correcto.

Dentro del grupo = Usar emociones morales. Fuera del grupo = Utilizar la deliberación moral.

El papel de la cooperación podría ser una de las razones subyacentes por las que los individuos están más dispuestos a culpar que a elogiar. La voluntad de condenar puede estar guiada por el objetivo de cambiar el mal comportamiento de una persona. Y podría servir como una señal de advertencia a otros para que se enderecen. El deseo de desalentar el mal comportamiento es más poderoso que la urgencia de fomentar un comportamiento positivo.

Una implicación es que la gente escudriña de cerca los casos en los que algo bueno ha ocurrido antes de dar elogios morales. Y la gente es más rápida en apresurarse al juicio moral y asignar la culpa moral cuando algo malo ha sucedido.

Referencias

Cushman, F., Sheketoff, R., Wharton, S., y Carey, S. (2013). «The development of intent-based moral judgment». Cognition, 127(1), 6–21.

Feldman, G., Wong, K. F. E., y Baumeister, R. F. (2016). «Bad is freer than good: Positive–negative asymmetry in attributions of free will». Consciousness and cognition, 42, 26–40.

Gray, K., Waytz, A., y Young, L. (2012). «The moral dyad: A fundamental template unifying moral judgment». Psychological Inquiry, 23(2), 206–215.

Gray, K., & Wegner, D. M. (2010). «Blaming God for our pain: Human suffering and the divine mind». Personality and Social Psychology Review, 14(1), 7–16.

Greene, J. (2014). Moral tribes: Emotion, reason, and the gap between us and them. Penguin.

Haidt, J. (2012). The righteous mind: Why good people are divided by politics and religion. Vintage.

Hamlin, J. K., Wynn, K., y Bloom, P. (2007). «Social evaluation by preverbal infants». Nature, 450(7169), 557–559.

Hamlin, J. K., Wynn, K., Bloom, P., y Mahajan, N. (2011). «How infants and toddlers react to antisocial others». Proceedings of the national academy of sciences, 108(50), 19931–19936.

Holton, R. (2010). «Norms and the Knobe effect». Analysis, 70(3), 417–424.

Saxe, R. (2016). «Moral status of accidents». Proceedings of the National Academy of Sciences, 113(17), 4555–4557.

Tversky, A., y Kahneman, D. (1981). «The framing of decisions and the psychology of choice». Science, 211(4481), 453–458.

Wegner, D. M., y Gray, K. (2017). The Mind Club: Who thinks, what feels, and why it matters. Penguin.

Rob Henderson es un estudiante de doctorado de la Universidad de Cambridge. Recibió una licenciatura en psicología de la Universidad de Yale y es veterano de las Fuerzas Aéreas de Estados Unidos. Recientemente fue galardonado con la beca Gates Cambridge. Sus textos han aparecido en el New York Times, USA Today y Yale Daily News, entre otros medios. En Twitter, @robkhenderson

Written by

Traducciones sobre los asuntos de los hombres, la izquierda liberal, las políticas de identidad y la moral. #i2 @Carnaina

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store