¿Bien informados o más aislados? El conocimiento en el reino de los algoritmos

Autor: | Posteado en Noticias Sin comentarios

información en redes socialesinformación en redes sociales

Durante décadas, la información que recibíamos la decidían ejecutivos de periódicos, radios y televisiones. En el planeta digital, creemos que la elegimos nosotros mismos. Pero, en realidad, influyen suficiente los algoritmos.

información en redes sociales

Cada vez mas visitantes de internet(www) recibimos la información y las novedades a través de plataformas cuyo contenido esta seleccionado de forma mas o menos automatizada por un algoritmo. Un proceso que elige lo que vemos en función de nuestros antojos e ideas, pues su primordial objetivo es que nos agrade lo que consumimos y pasemos mas tiempo allí.

Este fenómeno, principalmente esquematizado para reforzar la personalización del contenido, ha tenido una lista de efectos mas o menos perversos. El mas popular es el llamado filtro burbuja, descrito por Eli Pariser en 2011. Como tendemos a interaccionar con aquello que nos gusta, al final los algoritmos solo nos mostrarán informaciones y comentarios que coinciden con nuestra visión del mundo. Como resultado, viviremos en una burbuja (de redes sociales) en la que parece que todos piensan como nosotros.

Los algoritmos de las plataformas premian el engagement por diseño. Es decir, como expone el creador de Algotransparency.org en esta conferencia en Nobbot, el objetivo primordial es que los visitantes pasen mas tiempo en la plataforma. ¿Es factible mantenernos bien reportados si los algoritmos deciden lo que leemos?

La realidad de los filtros burbuja

el filtro burbuja en internet

De los filtros burbuja han corrido ríos de tinta. Hilos de Twitter, libros, artículos sesudos y varios papers han estudiado el milagro durante los últimos diez años. Instituciones como el Nieman Lab de la Universidad de Harvard o el Knight Center de la Universidad de Texas han dedicado varios esfuerzos a aprender esta realidad. Pero la respuesta mas visual ha llegado desde el Instituto Tecnológico de Massachussets (MIT).

En un trabajo anunciado en agosto de 2018 mostraban de forma gráfica cómo se reparten las burbujas ideológicas en Twitter, al menos en Estados Unidos. Más allá de la visualización, el analisis del MIT ayudó a entender el comportamiento ideológico de las redes sociales. Las distintos maneras de visualizar el planeta se reparten mas o menos de forma equitativa. Es decir, no se aprecia una enorme polarización a nivel usuario. Sin embargo, los visitantes mas extremistas sí eran mucho mas activos que los moderados. Y, además, cuanto mas cerca de los extremos, mas uniformes eran las opiniones.

Por otro lado, el repaso del MIT muestra que, poco a poco, toda la empresa mediática ha ido cayendo en esta división, retroalimentándola. Además, los perfiles falsos y los troles aprovechan esta polarización para convertirse en voces influyentes y publicar sus mensajes, varias veces sesgados o falsos. Es decir, los filtros burbuja no solo nos llegaron aislados, sino que contribuyen a la desinformación.

En los últimos años, el milagro ha abandonado el ámbito académico. Hoy, las enormes compañías de redes sociales como Facebook® o Twitter, las operadoras, varias administraciones e instituciones, como la Unión Europea, y organizaciones periodísticas han deseando hallar una salida a este problema. De momento, sin demasiado éxito.

Pinchar la burbuja es posible

uso de redes sociales para informarse

Subsanar algunos de los aspectos que, a nivel de diseño, generan los filtros burbuja es posible. Sin embargo, no es menos cierto que esta en la mano de los visitantes trabajar para pinchar esas burbujas. Si la finalidad es estar bien informado en el reino de los algoritmos, existen una lista de buenos hábitos que logramos poner en práctica:

  • Abandonar nuestra zona de confort intelectual. Buscar contactos o individuos a las que continuar con opiniones multiples a las propias. Al equivalente que sucede en el planeta físico, rodearse de gama nos apoyará a tener una visión mas termina de las cosas.
  • Evitar bloquear a contactos porque no nos encanta como piensan. Leer sus comentarios desde la distancia, omitiendo los juicios emocionales y desafiando nuestras propias posturas.
  • Debatir con visitantes con visiones opuestas a las nuestras desde el respeto, demostrando e tratando que la conversación sea enriquecedora.
  • Eliminar con regularidad los códigos que aceptan la personalización en la web, es decir, las cookies. Al navegar en modo privado ya estaremos evitando la personalización de las busquedas en base a nuestras preferencias.
  • Seguir a las plataformas de fact checking, encargadas de contrastar documentos sesgados y fake news. Además, logramos tener en cuenta una lista de consejos para utilizar las redes sociales de forma adecuada y descubrir los bulos antes de colaborar cualquier información.

Por otro lado, existen una lista de tools digitales, como, por ejemplo, esta extensión de los fabricantes de AdBlocker para Chrome, que nos advierten de información sesgada, inexacta o falsa. Esta otra plataforma, Gobo, diseñada por el MIT Center for Civic Media, nos acepta centralizar en un único lugar todas nuestras redes y adaptar los filtros para que no sean los algoritmos los que decidan lo que vemos.

Internet nos iba a traer una comunidad mas y preferible informada que nunca. Por el acceso han surgido obstáculos, sin embargo el objetivo aún esta al alcance de nuestra mano.

Por Antonio Bret

Imágenes | Unsplash/camilo jimenez, Alex Alvarez, Austin Distel

The post(noticia) ¿Bien reportados o mas aislados? El conocimiento en el reino de los algoritmos appeared first on El blogger de Orange.

El blogger de Orange



El mejor truco del día para Android


Todo material (imágenes, texto y vídeo) para crear este artículo, pertenece a la Fuente Original que aparece arriba.

(No hemos eliminado ningún enlace original)

También puedes revisar estas noticias relacionadas.

Agrega tu comentario