Moral Values Shape Knowledge and Beliefs About Science
Part of Moral Motives & STEM-informed Action
The comments and suggestions from science writers and theorists in the Moral Motives Workshop demonstrate that the behavioral outcome of increased “STEM-informed action” is unlikely to be achieved easily. The conversations also made apparent that psychological research on the effects of moral motives on STEM-informed action can proceed in several potentially fruitful directions, including research on access to, interpretation of, and correlates of attitudes about scientific information.
The Problem
Global coordination of action based on scientific evidence is required to address the problems humanity faces. Science-based solutions for threats to resources and health—such as disease-preventing vaccines, environmentally sustainable food and transportation options, technology in line with conservation efforts, and diversified energy sources—are ineffective without coordinated participation. A lack of cooperative STEM-informed action, as found in the US, represents a societal crisis in need of explanation and amelioration.
Moral Values
Could the lack of cooperation around STEM initiatives be related to differences in moral values? While most people morally value the well-being of humankind broadly (humans regularly do costly things to cause suffering to stop, e.g., Trivers, 1971; Crockett et al., 2014), the aversion to harm is not the only moral motive. A range of moral concerns beyond universal well-being and the reduction of suffering drive action. In fact, there is striking variability in the moral values purported to be relevant to keeping groups intact, such as loyalty and respect for authority (Haidt, 2007; Graham et al., 2011). Researchers have found that some of this variability maps onto individual differences in emotions including empathy and disgust, as well as political orientation, gender, and socioeconomic status (Graham et al., 2009; Haidt et al., 1993; Koleva et al., 2014). The work on moral values shows us that the moral landscape is layered and heterogenous; values reflect people’s psychological and social motivations.
Moral Circles
People’s moral values reflect broad differences in what exactly constitutes moral or immoral behavior (e.g., controversy around the moral importance of purity). They also reflect differences within individuals about how far one should extend their moral regard (Singer, 1981; Waytz et al., 2019). People have differently sized “moral circles”: some are relatively small, with moral concern focused on close others and the community; others extend broadly and even include distant strangers as deserving of moral regard (Waytz et al., 2019).1
The range in the size of moral circles has implications for the evaluation of STEM information. Although they both involve care, the moral concerns that hold together small moral circles are often at odds with moral concerns about broad, global-level challenges. When an individual’s perceived circle of moral responsibility is small—concerning just family, friends, and community—scientific advances meant to tackle global challenges may seem unimportant. In the next sections, I outline three social-moral psychological pathways by which moral values affect STEM-informed action:
- Values constrain access to scientific information.
- Values influence the interpretation of scientific information.
- Values interact with biases to further obscure STEM information.
Social-Moral Psychological Pathways
Values constrain access to scientific information: An important way that moral values wield their influence on STEM-informed action is by constraining access to scientific knowledge. People who share an ideological viewpoint tend to only encounter viewpoints similar to their own, and create “echo chambers.” They avoid contact with information that may undermine or challenge their beliefs (Flaxman et al., 2016; Frimer et al., 2017). This phenomenon results from people’s ubiquitous tendency to form “ingroups” in which people with shared features cluster together and compete with rival outgroups (e.g., Cikara et al., 2011). Ingroups not only vary in terms of identity features; they tend to have different access to resources. As a result, some groups built around moral worldviews may lack access to adequate, up-to-date scientific training, findings, and explanations.
Values influence the interpretation of scientific information: Values not only constrain access to science information; values shape the interpretation of science information. People with shared values are brought together (and driven apart) by shared interpretations of important scientific information. Consistent interpretations within groups involve positions on whether information counts as credible scientific knowledge, and whether it is consistent with moral values. The credence people give to scientific information rests on more than their understanding of the concrete takeaways. Beliefs about science are part of morality: Interpretations of scientific findings reflect the social-moral motives that keep people in their value-based ingroups.
Values interact with biases to further obscure STEM information: Moral values are more than the principles that motivate one to “do the right thing” —they interact with people’s biases, including racism and sexism. While it is important to independently study biases that reduce access to science education and information (such as the prejudice and discrimination that affect people of color and women), factoring in moral motives reveals a more complex, complete picture. On the one hand, the picture is orderly: there are stable correlations among religiosity, the moral valuation of authority, politics, and biased attitudes about women, for example (e.g., Graham et al., 2011). That is, people’s beliefs about these topics can be predicted fairly well if you know any one of them. On the other hand, patterns of beliefs are unstable; they undergo changes, as society changes. Furthermore, sometimes biases and moral values conflict within an individual—such as when respect for authority meets negative attitudes about women leaders. Ultimately, although it’s not parsimonious, the combined study of identity-based biases, moral motives, and how they interact, will paint the most accurate picture of value-based influences on access and interpretation of scientific information.
Conclusion
Moral values do more than bring people together and reduce self-interest; they also divide people into (often fractious) groups. How to bridge those divides? Here are three ideas. One, emphasize the benefits of science that are shared across moral worldviews, such as the experience of pleasure and wonder from conducting science, and the practical benefits of applying those findings to work and everyday life. Two, develop simple explanations of the scientific method, offer them to more populations (including younger and older adults), and help them see how the scientific method is a tool that can even be used to better understand what people deeply care about—such as the objects of their moral concerns. Make clear how science is an inherently impartial process that helps make sense of the truths behind people’s moral values and concerns, in addition to its practical benefits. Three, combat elitism and promote free and open discussions of science. Specialist methods and scientific jargon are not accessible to everyday people. Until science education, mentorship, and training are more equitable, such detailed understandings will remain among the elite. Free and open scientific discussion that reduces barriers to understanding is applicable across value-based groups, and necessary for the benefits of STEM to be realized.
1^ More politically liberal people are more likely to have wide moral circles, even reaching out to encompass the contents of the universe. By contrast, more politically conservative people have been found to have tighter moral circles, putting more value on close relationships with family and friends (Waytz et al., 2019)
Los valores morales conforman el conocimiento y las creencias sobre la ciencia
Laura Niemi
Los comentarios y las sugerencias del grupo dedicado a escribir y teorizar sobre la ciencia en el Taller de Motivos Morales demuestran que es poco probable que se consiga fácilmente el resultado conductual de una mayor "acción basada en STEM". Las conversaciones también pusieron de manifiesto que la investigación psicológica sobre los efectos de los motivos morales en la acción basada en STEM puede avanzar en varias direcciones potencialmente fructíferas, incluyendo las investigaciones sobre el acceso, la interpretación y los correlatos de las actitudes sobre la información científica.
El problema
Se necesita una coordinación global de la acción basada en pruebas científicas para abordar los problemas a los que se enfrenta la humanidad. Las soluciones basadas en la ciencia para las amenazas a los recursos y la salud—como las vacunas para prevenir enfermedades, las opciones de alimentación y transporte sostenibles desde el punto de vista ambiental, la tecnología en línea con los esfuerzos de conservación y las fuentes de energía diversificadas—son ineficaces sin una participación coordinada. La falta de una acción cooperativa basada en STEM, como la que se encuentra en los Estados Unidos, representa una crisis social que necesita ser explicada y mejorada.
Valores morales
¿La falta de cooperación en torno a las iniciativas de STEM podría estar relacionada con las diferencias de valores morales? Aunque la mayoría de la gente valora moralmente el bienestar de la humanidad en general (los seres humanos hacen regularmente cosas muy costosas para poner fin al sufrimiento, por ejemplo, Trivers, 1971; Crockett et al., 2014), la aversión al daño no es el único motivo moral. Una serie de preocupaciones morales que van más allá del bienestar universal y la reducción del sufrimiento también impulsan la acción. De hecho, hay una sorprendente variabilidad en los valores morales que se supone que son relevantes para mantener los grupos intactos, como la lealtad y el respeto a la autoridad (Haidt, 2007; Graham et al., 2011). Los grupos de investigación han descubierto que parte de esta variabilidad se corresponde con las diferencias individuales en las emociones, entre las que se incluyen la empatía y el asco, así como la orientación política, el género y el estatus socioeconómico (Graham et al., 2009; Haidt et al., 1993; Koleva et al., 2014). El trabajo sobre los valores morales nos muestra que el panorama moral es estratificado y heterogéneo; los valores reflejan las motivaciones psicológicas y sociales de las personas.
Círculos morales
Los valores morales de las personas reflejan amplias diferencias sobre lo que constituye exactamente un comportamiento moral o inmoral (por ejemplo, la controversia en torno a la importancia moral de la pureza). También reflejan las diferencias entre individuos respecto de hasta dónde se debe extender su consideración moral (Singer, 1981; Waytz et al., 2019). Las personas tienen "círculos morales" de distinto tamaño: algunos son relativamente pequeños, con una preocupación moral centrada en las personas cercanas y en la comunidad; otros son muy amplios e incluso comprenden a personas lejanas desconocidas como merecedoras de consideración moral (Waytz et al., 2019).1
La variedad en el tamaño de los círculos morales tiene implicaciones para la evaluación de la información de STEM. Aunque ambos implican cuidados, las preocupaciones morales que mantienen unidos a los pequeños círculos morales suelen estar en conflicto con las preocupaciones morales sobre los amplios desafíos a nivel global. Cuando el círculo de responsabilidad moral que percibe un individuo es pequeño—solo se refiere a la familia, las amistades y la comunidad —los avances científicos destinados a abordar los desafíos globales pueden parecer poco importantes. En las siguientes secciones, esbozo tres vías psicológicas sociomorales por las que los valores morales afectan a la acción basada en STEM:
- Los valores limitan el acceso a la información científica.
- Los valores influyen en la interpretación de la información científica.
- Los valores interactúan con los prejuicios para empañar aún más la información de STEM.
Vías psicológicas sociomorales
Los valores limitan el acceso a la información científica: una forma importante en que los valores morales ejercen su influencia en la acción basada en STEM es limitando el acceso al conocimiento científico. Las personas que comparten un punto de vista ideológico tienden a encontrar solo puntos de vista similares a los suyos, y crean "cámaras de eco". Evitan el contacto con información que pueda socavar o desafiar sus creencias (Flaxman et al., 2016; Frimer et al., 2017). Este fenómeno es el resultado de la tendencia omnipresente de las personas a formar "grupos de pertenencia" en los que las personas con características compartidas se agrupan y compiten con los grupos de no pertenencia rivales (por ejemplo, Cikara et al., 2011). Los grupos de pertenencia no solo varían en términos de rasgos de identidad, sino que suelen tener un acceso diferente a los recursos. Como resultado, algunos grupos formados en torno a visiones morales del mundo pueden carecer de acceso a hallazgos, explicaciones científicas y formación adecuados y actualizados.
Los valores influyen en la interpretación de la información científica: los valores no solo limitan el acceso a la información científica; los valores conforman la interpretación de la información científica. Las personas con valores compartidos se unen (y se alejan) por las interpretaciones compartidas de la información científica importante. Las interpretaciones uniformes dentro de los grupos implican posiciones sobre si la información cuenta como conocimiento científico creíble y si es coherente con los valores morales. La credibilidad que la gente da a la información científica se basa en algo más que su comprensión de las conclusiones concretas. Las creencias sobre la ciencia forman parte de la moralidad: las interpretaciones de los hallazgos científicos reflejan los motivos sociomorales que mantienen a las personas en sus grupos de pertenencia basados en valores compartidos.
Los valores interactúan con los prejuicios para empañar aún más la información de STEM: los valores morales son algo más que los principios que motivan a " hacer lo correcto", interactúan con los prejuicios de la gente , incluidos el racismo y el sexismo. Aunque es importante estudiar de forma independiente los prejuicios que reducen el acceso a la educación y la información científica (como los prejuicios y la discriminación que afectan a las personas de color y a las mujeres), si se tienen en cuenta los motivos morales se obtiene una imagen más compleja y completa. Por un lado, el panorama es ordenado: hay correlaciones estables entre la religiosidad, la valoración moral de la autoridad, la política y las actitudes sesgadas sobre las mujeres, por ejemplo (véase Graham et al., 2011). Es decir, las creencias de las personas sobre estos temas pueden predecirse bastante bien si se conoce a una de ellas. Por otro lado, los patrones de creencias son inestables; sufren cambios, dado que la sociedad cambia. Además, a veces los prejuicios y los valores morales entran en conflicto dentro de un individuo, como cuando el respeto a la autoridad choca contra actitudes negativas hacia las mujeres líderes. En última instancia, aunque no sea estricto, el estudio combinado de los prejuicios basados en la identidad, los motivos morales y la forma en que interactúan ofrecerá una imagen más precisa de las influencias basadas en los valores sobre el acceso y la interpretación de la información científica.
Conclusión
Los valores morales no solo unen a las personas y reducen el interés propio, sino que también dividen a las personas en grupos (a menudo díscolos). ¿Cómo salvar esas diferencias? Aquí se presentan tres ideas. Primera: enfatizar los beneficios de la ciencia que son compartidos por todas las visiones morales del mundo, como la experiencia del placer y el asombro de realizar ciencia y los beneficios prácticos de aplicar esos hallazgos al trabajo y a la vida cotidiana. Segunda: desarrollar explicaciones sencillas del método científico, ofrecerlas a más poblaciones (incluso a jóvenes y personas mayores) y ayudarlas a ver cómo el método científico es una herramienta que incluso puede utilizarse para comprender mejor lo que más le importa a la gente, o sea el objeto de sus preocupaciones morales. Dejar claro que la ciencia es un proceso intrínsecamente imparcial que ayuda a dar sentido a las verdades que subyacen a los valores y preocupaciones morales de las personas, además de sus beneficios prácticos. Tercera: combatir el elitismo y promover debates libres y abiertos sobre la ciencia. Los métodos especializados y la jerga científica no son accesibles para la gente corriente. Hasta que la educación, la tutoría y la formación científicas sean más equitativas, estos conocimientos profundos permanecerán entre la elite. Un debate científico libre y abierto que reduzca las barreras al entendimiento es aplicable a todos los grupos basados en valores y necesario para que los beneficios de STEM se hagan realidad.
1 ^ Las personas que siguen las políticas más liberales son más propensas a tener círculos morales amplios, que incluso llegan a abarcar el contenido del universo. Por el contrario, se ha descubierto que las personas que siguen las políticas más conservadoras tienen círculos morales más estrechos, dando más valor a las relaciones estrechas con la familia y las amistades (Waytz et al., 2019).
References | Referencias
Cikara, M., Botvinick, M. M., & Fiske, S. T. (2011). Us versus them: social identity shapes neural responses to intergroup competition and harm. Psychological Science, 22 (3), 306-313.
Crockett, M. J., Kurth-Nelson, Z., Siegel, J. Z., Dayan, P., & Dolan, R. J. (2014). Harm to others outweighs harm to self in moral decision making. Proceedings of the National Academy of Sciences, 111 (48), 17320-17325.
Flaxman, S., Goel, S., & Rao, J. M. (2016). Filter bubbles, echo chambers, and online news consumption. Public Opinion Quarterly, 80 (S1), 298-320.
Frimer, J. A., Skitka, L. J., & Motyl, M. (2017). Liberals and conservatives are similarly motivated to avoid exposure to one another’s opinions. Journal of Experimental Social Psychology, 72 , 1-12.
Graham, J., Nosek, B. A., Haidt, J., Iyer, R., Koleva, S., & Ditto, P. H. (2011). Mapping the moral domain. Journal of Personality and Social Psychology, 101 (2), 366.
Haidt, J. (2007). The new synthesis in moral psychology. Science, 316 (5827), 998-1002.
Graham, J., Haidt, J., & Nosek, B. A. (2009). Liberals and conservatives rely on different sets of moral foundations. Journal of Personality and Social Psychology, 96 (5), 1029.
Haidt, J., Koller, S. H., & Dias, M. G. (1993). Affect, culture, and morality, or is it wrong to eat your dog? Journal of Personality and Social Psychology, 65 (4), 613.
Koleva, S., Selterman, D., Iyer, R., Ditto, P., & Graham, J. (2014). The moral compass of insecurity: Anxious and avoidant attachment predict moral judgment. Social Psychological and Personality Science, 5 (2), 185-194.
Singer, P. (1981). The expanding circle. Clarendon Press.
Trivers, R. L. (1971). The evolution of reciprocal altruism. The Quarterly Review of Biology, 46 (1), 35-57.
Waytz, A., Iyer, R., Young, L., Haidt, J., & Graham, J. (2019). Ideological differences in the expanse of the moral circle. Nature Communications, 10 (1), 1-12.
Funding Statement
This material is based upon work supported by the National Science Foundation under Grant No. 2139278. Any opinions, findings, and conclusions or recommendations expressed in this material are those of the author(s) and do not necessarily reflect the views of the National Science Foundation.
Photo by Chris Lawton on Unsplash