Sesgos cognitivos y su influencia en la red

  • Ivanna Torrico Escobar
Hay algunos sesgos que influyen en una marcada polarización en la red

Polarización, grieta, discurso del odio, etc., son términos que escuchamos mucho en estos últimos años; y la tecnología también juega un papel importante en todo esto.

Un estudio de la Universidad de Jaén (UJA) ha demostrado que los mensajes emitidos en Twitter en las elecciones madrileñas y el referéndum catalán, vincula los insultos y el discurso del odio con unas mayores posibilidades de viralización, y si a esto sumamos que los usuarios de la red estamos atrapados en nuestros sesgos o filtros ideológicos dentro burbuja o filtro informativo, no podemos esperar otros resultados.

El cerebro humano es muy complejo y para intentar entender mejor el entorno en el que vivimos recurre a ciertos atajos denominados sesgos cognitivos, pero estos sesgos cognitivos tienen un componente muy fuerte de prejuicios o interpretaciones erróneas e ilógicas de la información disponible y todos somos víctimas de estos atajos.

Cuando abordamos la información o los comentarios que tienen que ver con política en redes sociales, la situación se agrava porque se juntan más elementos, como el componente emotivo, el sentimiento de pertenencia y el hecho de que desde el año 2009 Google decidió crear perfiles personalizados para cada usuario y desde entonces estamos atrapados en nuestra burbuja o cámara de eco.

Estos elementos hacen que cada día nos radicalicemos más y hoy las batallas sobre temas políticos se libran en redes sociales.

Algunos sesgos que influyen en esta marcada polarización en la red pueden ser los siguientes:

El sesgo de confirmación: Según Ethics Unwrapped es la tendencia de la mente de las personas a buscar información que respalde los puntos de vista que ya tienen. También lleva a las personas a interpretar la evidencia de manera que apoye sus creencias, expectativas o hipótesis preexistentes.

Y cuando se trata de política este sesgo puede ser la clave para entender la marcada polarización que vemos en la red. Michael Shermer en The Believing Brain, afirma que primero viene la creencia y después la racionalización y nuestro comportamiento en la red es más emocional que racional, además que los algoritmos nos recomiendan directamente información que confirme este sesgo, por lo que terminamos más que convencidos de nuestras creencias y no estamos dispuestos a escuchar otras posturas, teorías, datos, análisis que contradigan nuestras creencias.

Hay que entender que nuestro cerebro ya viene cargado en su memoria de almacenamiento de una posición política muchas veces heredada de nuestros padres, de nuestros grupos sociales, de nuestra educación, etc., por lo que la información que se vacía en nuestro cerebro viene a reforzar y a confirmar esta posición.

Nuestros comentarios, los contenidos que compartimos, las críticas que escribimos, nuestras interacciones, es decir, casi todos nuestros patrones de comportamiento en la red son especialmente emocionales y con una fuerte inclinación cargada de sesgos de confirmación y es a partir de esto que interpretamos la información que nos llega para que encaje en nuestro modelo de la realidad.

El efecto de encuadre: El efecto de encuadre o «framing» en Psicología y Comunicación según la revista especializada en ventas Axioma Sales Training establece que nuestra mente no percibe simplemente las cosas, sino que las construye de manera activa. Así, el significado de hechos u objetos no es algo fijo y objetivo, sino que depende del contexto.

Ahora, en la red podemos decir que interpretamos los temas políticos dependiendo de cómo nos lo presentan y cómo las construye nuestra mente.

Muchas veces los mensajes políticos pueden ser interpretados de diferentes maneras, en el caso del manejo de la gestión de la pandemia; por ejemplo, no interpretamos del mismo modo el número de personas contagiadas (un dato negativo) que la cifra de pacientes recuperados (un dato positivo).

La observación selectiva: Nos fijamos mucho más en lo que nos atañe de forma directa, además que los algoritmos hoy nos muestran solo una parte del todo y esa pequeña parte del todo por supuesto que tiene que tratar temas de nuestro interés.

Ahora bien, la tecnología hace más visible y recomienda más los mensajes negativos, según los resultados de un estudio de la Universidad de Jaén (UJA) denominado ‘análisis de sentimiento’, que demuestra que cuando se abordan temas políticos especialmente en Twitter y éstos contienen términos negativos, la probabilidad de ser compartidos es mucho mayor que cuando un tuit está escrito con buenas intenciones, aun tratándose del mismo tema.

El punto ciego: Hay un principio y es que no somos conscientes de nuestros propios sesgos. No importa el grado académico que uno tenga, ni cuanto haya leído sobre este tema, todos estamos atrapados en nuestros sesgos. Si tenemos la capacidad de ver los sesgos en los demás, pero no nos damos cuenta cuando nosotros caemos en uno.

Estos mecanismos que usamos en el día a día y que funcionan muy bien para tomar decisiones rápidas, siempre han formado parte de nuestras vidas, pero hoy la tecnología ha venido a reforzarlas.

 

Referencias

elpais.com “El tuit político, más viral cuanto más negativo”

verne.elpais.com “Votas mal: 15 sesgos que influyen en tu voto (aunque ni lo sospeches)”

Opinion para Interiores: 

Anteriores

Ivanna Torrico Escobar

Licenciada en Ciencias de la Comunicación Social Máster en Marketing Político 2.0 Columnista en Política Comunicada (Argentina), Revista Democrática (Brasil), Revista Quántica (Perú), e-Consulta (México) Conferencista