Algoritmos: espirales hacia el ensimismamiento

Algoritmos programablesOpinión, 27 de agosto de 2020. Fernando Francia. Hace unos meses un amigo me preguntó cómo me sentía con la pandemia. Él tenía una preocupación. Creía que podría estar cayendo en algún tipo de depresión o situaciones por el estilo. Como es lógico, buscó ayuda. Consultó en Google síntomas de depresión, ansiedad y otros estados de la mente de los que hoy se habla mucho.

En ese momento comenzó a darse cuenta de que no era la única persona. Me volvió a llamar. Insistió en preguntarme si estaba bien. ¿Qué le pasaba a mi amigo? Pues que de tanto preocuparse el tema lo inundó.

Me dijo: “¿en serio estás bien? Porque veo a todo el mundo preocupado por esto”. Y en efecto es una preocupación creciente, pero yo no veo a “todo el mundo” preocupado por eso. Por un momento parecía que mi amigo había caído en la famosa ley de la atracción, que de tanto buscar el tema de la depresión, esta lo había encontrado.

Luego, entré a Facebook y vi que me ofrecían una plataforma para dar cursos y se me prendió el bombillo. Si yo estoy concentrado en los cursos de narrativa en este momento, y tanto Facebook como los ads de Google me muestran lo que me interesa, a mi amigo le están mostrando lo que le preocupa, pues los algoritmos no pueden diferenciar lo que te interesa y lo que te preocupa.

En el siglo XVII la ciencia estaba lejos de conocer los impactos de las redes sociales como los conocemos hoy. Sin embargo, el doctor y filósofo John Locke ya nos adelantaba una alerta que podría ser muy actual. “Lo que te preocupa te controla” decía el inglés visionario.

Por estas mismas razones resulta que si un día buscaste el precio de una nueva televisión, todas las plataformas insistirán en mostrarte nuevos modelos y mil posibilidades de compra. Ya hasta parece que, ya casi que por pensar en nuevas tenis o ropa deportiva, al minuto nos están mostrando anuncios al respecto.

Es la mismísima Big Data en acción. Antes usaban las redes eran para mostrar lo que querían vender, luego sirvieron para que los públicos interactuaran, ahora sirven para conseguir datos. El 80% de la interacción en redes se busca con la finalidad de conseguir datos de potenciales clientes.

Cada vez que iniciamos la computadora, encendemos el teléfono y ponemos un dedo en una tecla en internet estamos proporcionando datos. Las grandes empresas utilizan esos datos para vender publicidad a cualquiera que compre esos bienes o servicios y así nosotros mismos somos una máquina de segmentación demográfica, socioeconómica y hasta por gustos musicales o de pasatiempos y demás.

Pero hay más, pasa lo mismo en nuestra selección de medios para informarnos, amistades en las redes sociales o cualquier interacción. Estamos acostumbrados leer a la persona o medio con el que tengamos visiones similares de la realidad. Incluso, a menudo, sucede que hasta nos gusta lo que coincide con lo que pensamos.

"¡Qué buen artículo!" decimos, generalmente, cuando el texto confirma lo que ya antes creíamos. "¡Esa investigación sí está bien hecha!" pensamos cuando coincide con lo que intuíamos. A esto le llaman sesgo de confirmación, nos gusta confirmar lo que ya sabemos y no que nos lleven la contraria. Parece lógico. Ahora combinémoslo con las "burbujas" de las redes sociales: resulta un espiral al auto convencimiento y a la polarización.

Cada vez más tus opiniones son confirmadas con lo que está a tu alrededor. Y está bien juntarse con quienes piensan igual, pero hay que tener cuidado de no convertirse en sectario y alejarse tanto de la realidad que al final haya una desconexión entre lo que uno percibe con lo que realmente sucede.

Y de nuevo, la combinación del sesgo de confirmación con el algoritmo de la inteligencia artificial de las redes sociales genera una nueva burbuja y más desconexión de la realidad.

Entonces, comenzamos a ver solo lo que ya sabemos, lo que ya creemos y nos vamos convenciendo de que así es el mundo. Y seguimos buscando, además, lo que nos preocupa y en poco rato ya solo nos aparecen anuncios, posteos y artículos relacionados con esos temas.

Es justo lo que le pasaba a mi amigo: al buscar asuntos relacionados con salud mental, los algoritmos entendieron que era un tema de su interés y comenzaron a brindarle más información y a saturarlo de sobreinformación. ¡Hasta te muestra posteos de Facebook de tus amigos relacionados con eso!

Por eso, una válida recomendación es, cada tanto, busquen en Google o facebook otras cosas, “felicidad”, por ejemplo, o “Paz mundial”, a ver si en algún momento la big data nos hace el favorcito.

Es bueno disentir, discutir, conversar con quienes no opinan como vos y encontrar algún punto válido en tu interlocutor que piensa distinto. Hacé la prueba, verás que crecerás más que rodeándote solamente de quienes piensan igual que vos.

La big data, la inteligencia artificial y todo lo que nos rodea en internet nos puede ayudar mucho, pero también puede hacernos caer en un espiral hacia el ensimismamiento y la exclusión.

 

 

banner columnas

Servicios

  • Estrategias de comunicación
  • Comunicación política
  • Relaciones públicas y vocerías
  • Producción audiovisual
  • Periodismo y corresponsalías
  • Diseño gráfico
  • Investigación

Contacto

Cosmovisiones Agencia Social de Comunicación

Cédula Jurídica 3-102-703764
San José, Costa Rica

contacto@cosmovisiones.com
Tel.: +506 83034501