¿Son los SEO responsables del sesgo de búsqueda de Google?

En 2016, la ONU declaró que el acceso a internet es un derecho humano.

Esta decisión se tomó en el entendimiento de que Internet es una herramienta para que todos puedan acceder a la información de manera asequible y expresarse.

Esta resolución suscitó la discusión sobre el acceso en términos de infraestructura, dónde se instalan o actualizan los cables de fibra, o si se permite el acceso ininterrumpido durante disturbios civiles y otras emergencias.

Si bien estos son puntos válidos e importantes, Internet no son solo cables y pantallas, y la información a la que se accede puede modificarse en función de algoritmos.

A medida que Internet se ha integrado en nuestras vidas, ahora es parte de nuestra infraestructura social (similar a los servicios médicos o educativos).

Está bien documentado que existen sesgos dentro de los espacios médicos y educativos, incluido el acceso a la atención y la calidad de la atención, pero ¿qué pasa con los resultados de búsqueda?

¿Son justos? ¿Son representativos del mundo que nos rodea? ¿O están causando más daño que bien?

¿Qué hay en un algoritmo?

En marketing digital, «algoritmo» es un término que se usa a diario, independientemente de si alguien entiende lo que significa. Cada plataforma tiene una (o varias), y nuestro trabajo es intentar satisfacerlas.

Un algoritmo es un procedimiento seguido cuando un sistema está realizando un cálculo.

Este proceso toma una entrada y utiliza fórmulas, reglas u otras operaciones de resolución de problemas para producir una salida.

Para la búsqueda, esto significa que las consultas ingresadas en un cuadro de búsqueda son la entrada y la SERP (página de resultados del motor de búsqueda) es la salida.

Esta es una explicación muy simplista de lo que está sucediendo. Google usa múltiples algoritmos en combinación con IA (Inteligencia Artificial) y aprendizaje automático.

Diseccionar todo el sistema estaría más allá de mi alcance y más allá del propósito de este artículo.

El canario en las SERPs

Como mujer, no soy ajena a los sesgos en los sitios web, las políticas y la sociedad en general.

Todos los días navego por el mundo con una pizca de sal. Investigar los posibles sesgos en los resultados de búsqueda es algo que me interesa desde hace algún tiempo y comencé a investigar el tema en 2021.

Un proyecto de investigación original (Divulgación completa: que ayudé a realizar) llamado Danos características, no flores examinó el sesgo de género del panorama social y de búsqueda de fotógrafos profesionales.

Se probaron varias consultas neutrales al género, como «mejores cuentas de fotografía de Instagram» o «mejores fotógrafos».

¿Los resultados?

Las mujeres aparecieron como fotógrafas profesionales mucho menos que los hombres en los resultados ricos y dentro del contenido de la página uno, a pesar de que componen el 50% de los profesionales.

¿Quién es el responsable de estos sesgos? ¿Los escritores que escribieron los artículos? ¿Motores de búsqueda por premiar esas páginas? ¿Profesionales de SEO por recomendar el artículo a su cliente?

Mi reacción visceral es culpar a quien haya creado el algoritmo.

Si bien esto es cierto hasta cierto punto, no es toda la historia y simplemente no es justo.

Los sesgos están arraigados en nuestras estructuras sociales existentes, entretejidos en nuestra cultura, gobierno y nuestras interacciones con el mundo que nos rodea.

¿Está sesgado el algoritmo de PageRank?

Investigación publicada en 2011 ya ha puesto en duda la equidad de PageRank.

Los modelos muestran que, a medida que la web ha crecido, la estabilidad de los sitios web mejor clasificados se vuelve más estable, lo que deja a los sitios web restantes luchando por los recortes.

Nature, una revista revisada por pares, publicó un artículo en febrero 2022 examinando el algoritmo PageRank para ver si introduce o amplifica sesgos.

Para poner esto en los términos más simples, los investigadores crearon cinco modelos sociales potenciales con diversos grados de homofilia («la tendencia a conectarse con otros similares»).

Cada modelo contiene 20 nodos, pero vamos a referirnos a ellos como sitios web. Luego, a cada sitio web se le asignó un rango de página y ya sea como parte de la mayoría o minoría dentro de la sociedad.

La desigualdad se midió utilizando el coeficiente de Gini (un análisis estadístico para medir la desigualdad) para ver cómo puntuaba un individuo frente a una distribución equitativa. La inequidad se midió calculando el porcentaje de minorías en los principales resultados de búsqueda.

Sus hallazgos muestran que el algoritmo de PageRank puede reducir, replicar o amplificar los sesgos según el modelo utilizado.

En modelos con un alto grado de homofilia, las voces dominantes perpetuaron esas perspectivas y sesgos mientras subrepresentaban a las minorías.

En cambio, cuando el grupo mayoritario es heterófilo (tendencia a agruparse en grupos diversos), hay una sobrerrepresentación de las minorías.

Esto sienta las bases para futuras investigaciones sobre posibles intervenciones o reducción de sesgos en los algoritmos.

La intersección de la cultura y los resultados de búsqueda de imágenes de Google

Muchas investigaciones han demostrado que los algoritmos pueden ser y que muchos están sesgados. Como se mencionó anteriormente, PankRank puede aprovechar estos sesgos para amplificarlos o disminuirlos, pero los algoritmos no actúan solos.

En el caso de Google, no solo hay múltiples algoritmos en juego, sino también inteligencia artificial y aprendizaje automático. Todos estos elementos están evolucionando continuamente a través de nuestras interacciones (humanas).

Otra pieza de investigación que se publicó este año investigó si las desigualdades sociales de género estaban presentes en los resultados de búsqueda de imágenes de Google (a través de algoritmos de búsqueda localizados).

Los investigadores trazaron la desigualdad de género por país (basado en el Índice Global de Brecha de Género) y el porcentaje de hombres que aparecían en los resultados de búsqueda de imágenes de Google al buscar «persona» en el idioma respectivo de cada país (usando una VPN para acceder a los resultados locales).

Los países con mayor desigualdad de género vieron más imágenes de hombres para la palabra clave neutra de género “persona”. Lo que afirman es un vínculo entre las normas sociales y la salida algorítmica.

La segunda parte del estudio analizó cómo estos resultados sesgados pueden influir en la toma de decisiones de las personas.

Los participantes miraron capturas de pantalla de los resultados de Google Image de países con baja y alta desigualdad y se les hicieron preguntas sobre género y ocupación.

Saltándose los detalles (aunque creo que vale la pena leer el artículo), los resultados mostraron que los sesgos culturales que están presentes en los algoritmos pueden (y lo hacen) influir en la toma de decisiones individuales.

Cuando los participantes vieron resultados de imágenes de naciones con baja desigualdad, sus resultados fueron más igualitarios en comparación con los resultados de naciones con alta desigualdad, donde los resultados reforzaron los sesgos de género.

El nivel de desigualdad de género social se refleja en el algoritmo de búsqueda, lo que me lleva a preguntarme cuánto. La combinación de estos elementos influye en la percepción individual a través de cada uso.

¿Quién es responsable de los sesgos en las SERP?

Comencé este viaje haciendo esta misma pregunta con la esperanza de una respuesta simple.

Desafortunadamente, no hay ninguno porque todos somos responsables de los sesgos en los resultados de búsqueda. Desde los codificadores originales hasta los escritores, los profesionales de SEO y los constructores de enlaces, y también la sociedad, la cultura y el entorno en el que existimos.

Imagina todos los algoritmos con los que interactúas a diario. Si la exposición a esos algoritmos influye en su percepción del mundo, entonces se complica, desenredando las cadenas de múltiples entradas.

¿Cómo podemos hacerlo mejor?

Como un optimista empedernido, no puedo dejarte con una carga tan pesada. Comencemos el debate sobre cómo podemos hacer que la búsqueda y el contenido sean un espacio más inclusivo.

Los investigadores que examinaron los sesgos en PageRank discutieron que, si bien las redes homófilas generaban desigualdades en la representación, las minorías pueden superar esto a través de redes estratégicas.

Esa no es una solución razonable, por lo que sugirieron implementar DPAH (¡No te preocupes, no voy a entrar en detalles!).

Este modelo eliminaría la necesidad de que las minorías estén obligadas a trabajar en red con las mayorías.

El otro estudio sugirió intervenciones basadas en la psicología, ya que concluyeron que la desigualdad de género social se reflejaba en el algoritmo. Piden una IA más ética que combine nuestra comprensión de la psicología y la sociedad.

Por lo general, la mayor preocupación de un profesional de SEO es cómo apelar al algoritmo en lugar de cuestionar la equidad o igualdad de ellos o cómo podríamos estar perpetuando sesgos dañinos.

Mediante el uso de software impulsado por IA para interpretar algoritmos impulsados ​​por IA, debería haber un momento en el que comencemos a cuestionar el componente ético de nuestro trabajo.

Actualmente, los resultados de búsqueda no son una representación precisa de un mundo equitativo cuando pueden serlo.

Como profesionales de SEO, creadores de contenido y especialistas en marketing, desempeñamos un papel importante en la reproducción de contenido no equitativo, aumentando la visibilidad de las voces que ya son importantes y perpetuando nuestros sesgos culturales locales.

Aquí hay algunas otras sugerencias que tuve para ayudar a crear un panorama de búsqueda más equitativo.

  • Deja de replicar contenido sesgado – comparte tu plataforma con diversas voces y crea nuevas narrativas en torno a tu nicho.
  • Auditar contenido de IA – No voy a decir que no a todo el contenido de IA, pero debería ser revisado por un humano, ya que corre el riesgo de caer en los mismos patrones.
  • Auditorías de algoritmos – de manera similar a cómo auditamos sitios web, los algoritmos pueden ser auditados. Hay recursos para auditar los posibles sesgos y auditar evaluaciones de impacto.
  • Apoyar la educación – apoyar u ofrecerse como voluntario en organizaciones que brindan codificación, software o capacitación técnica a mujeres, personas de color u otros grupos marginados. Preguntad por Mujeres en SEO tecnológico por ser uno de esos espacios.
  • Recursos multilingües – crear SEO y otros recursos de marketing en idiomas distintos al inglés para permitir diversas voces y perspectivas.
  • Cree algoritmos e IA menos sesgados – es más fácil decirlo que hacerlo, pero Google AI anunció KELM el año pasado, que tiene cierto potencial con respecto a la verificación de hechos y la reducción de sesgos
  • Detener la gentrificación de la búsqueda – Ser anticompetitivo es ser antiempresarial. Suprime voces nuevas y diversas, por lo que me gustaría ver más empresas en el panorama de búsqueda y más variedad en los resultados.

No pretendo tener la última palabra sobre este tema, ya que esta conversación debe continuar en los hilos de Twitter, en las conferencias, en los cafés y en nuestro trabajo diario.