Burbuja de filtro - Filter bubble

El término burbuja de filtro fue acuñado por el activista de Internet Eli Pariser , alrededor de 2010.

Una burbuja de filtro o marco ideológico es un estado de aislamiento intelectual que puede resultar de búsquedas personalizadas cuando el algoritmo de un sitio web adivina de forma selectiva qué información le gustaría ver a un usuario en función de la información sobre el usuario, como la ubicación, el comportamiento de clics anteriores y el historial de búsqueda. . Como resultado, los usuarios se separan de la información que no está de acuerdo con sus puntos de vista, aislándolos efectivamente en sus propias burbujas culturales o ideológicas. Las elecciones realizadas por estos algoritmos no son transparentes. Los principales ejemplos incluyen Google búsqueda personalizada resultados y Facebook 's noticias personalizadas-stream .

El término burbuja de filtro fue acuñado por el activista de Internet Eli Pariser alrededor de 2010 y se discutió en su libro de 2011 del mismo nombre. El efecto burbuja puede tener implicaciones negativas para el discurso cívico , según Pariser, pero las opiniones contrastantes consideran el efecto como mínimo y direccionable. Los resultados de las elecciones presidenciales de EE. UU. De 2016 se han asociado con la influencia de plataformas de redes sociales como Twitter y Facebook y, como resultado, han puesto en duda los efectos del fenómeno de la "burbuja de filtro" en la exposición de los usuarios a noticias falsas y eco. cámaras , despertando un nuevo interés en el término, y muchos están preocupados de que el fenómeno pueda dañar la democracia y el bienestar al empeorar los efectos de la desinformación.

(La tecnología como las redes sociales) “te permite salir con personas de ideas afines, por lo que no estás mezclando, compartiendo y entendiendo otros puntos de vista ... Es muy importante. Resultó ser un problema mayor de lo que yo, o muchos otros, hubiéramos esperado ".

-  Bill Gates 2017 en Quartz

Concepto

Las redes sociales, que buscan complacer a los usuarios, pueden desviar la información que creen que a sus usuarios les gustará escuchar, pero inadvertidamente aíslan lo que saben en sus propias burbujas de filtro , según Pariser.

Según Pariser, los usuarios se exponen menos a puntos de vista en conflicto y están aislados intelectualmente en su propia burbuja informativa. Relató un ejemplo en el que un usuario buscó "BP" en Google y obtuvo noticias de inversión sobre British Petroleum , mientras que otro buscador obtuvo información sobre el derrame de petróleo de Deepwater Horizon y señaló que las dos páginas de resultados de búsqueda eran "sorprendentemente diferentes".

Pariser definió su concepto de burbuja de filtro en términos más formales como "ese ecosistema personal de información que ha sido atendido por estos algoritmos". El historial de búsqueda y navegación anterior de un usuario de Internet se acumula con el tiempo cuando indica interés en temas al "hacer clic en enlaces, ver amigos, poner películas en [su] cola, leer noticias", etc. Luego, una empresa de Internet utiliza esta información para orientar la publicidad al usuario o hacer que ciertos tipos de información aparezcan de manera más prominente en las páginas de resultados de búsqueda .

Este proceso no es aleatorio, ya que opera bajo un proceso de tres pasos, según Pariser, quien dice: "Primero, averiguas quiénes son las personas y qué les gusta. Luego, les proporcionas el contenido y los servicios que mejor se adaptan a ellos. Finalmente, lo sintoniza para que encaje perfectamente. Su identidad da forma a sus medios ". Pariser también informa:

Según un estudio del Wall Street Journal , los cincuenta principales sitios de Internet, desde CNN hasta Yahoo y MSN, instalan un promedio de 64 cookies cargadas de datos y balizas de seguimiento personal cada uno. Busque una palabra como "depresión" en Dictionary.com, y el sitio instalará hasta 223 cookies de seguimiento y balizas en su computadora para que otros sitios web puedan dirigirse a usted con antidepresivos. Comparta un artículo sobre cocina en ABC News, y es posible que los anuncios de ollas recubiertas de teflón lo persigan en la Web. Abra, aunque sea por un instante, una página que enumere las señales de que su cónyuge puede estar engañando y prepárese para ser perseguido con anuncios de pruebas de paternidad de ADN.

El acceso a los datos de los clics en los enlaces que se muestran a través de las mediciones del tráfico del sitio determina que las burbujas de filtro pueden ser colectivas o individuales.

En 2011, un ingeniero le había dicho a Pariser que Google analizó 57 datos diferentes para personalizar personalmente los resultados de búsqueda de un usuario, incluidos datos que no son cookies, como el tipo de computadora que se usa y la ubicación física del usuario.

Se han utilizado otros términos para describir este fenómeno, incluidos " marcos ideológicos " y "la esfera figurativa que te rodea mientras buscas en Internet". Un término relacionado, "cámara de eco", se aplicó originalmente a los medios de comunicación, pero ahora también se aplica a las redes sociales.

La idea de Pariser de la burbuja de filtro se popularizó después de la charla TED que dio en mayo de 2011, en la que da ejemplos de cómo funcionan las burbujas de filtro y dónde se pueden ver. En una prueba que buscaba demostrar el efecto burbuja de filtro, Pariser pidió a varios amigos que buscaran la palabra "Egipto" en Google y le enviaran los resultados. Al comparar dos de las primeras páginas de resultados de los amigos, si bien hubo una superposición entre ellos en temas como noticias y viajes, los resultados de un amigo incluyeron de manera prominente enlaces a información sobre la revolución egipcia en curso en 2011 , mientras que la primera página de resultados del otro amigo no incluyó dichos enlaces.

En The Filter Bubble , Pariser advierte que una posible desventaja de la búsqueda filtrada es que "nos cierra a nuevas ideas, temas e información importante" y "crea la impresión de que nuestro estrecho interés propio es todo lo que existe". En su opinión, las burbujas de filtro son potencialmente dañinas tanto para los individuos como para la sociedad. Criticó a Google y Facebook por ofrecer a los usuarios "demasiados dulces y no suficientes zanahorias". Advirtió que la "edición algorítmica invisible de la web" puede limitar nuestra exposición a nueva información y estrechar nuestra perspectiva. Según Pariser, los efectos perjudiciales de las burbujas de filtro incluyen el daño a la sociedad en general en el sentido de que tienen la posibilidad de "socavar el discurso cívico" y hacer que la gente sea más vulnerable a la "propaganda y manipulación". El escribio:

Un mundo construido a partir de lo familiar es un mundo en el que no hay nada que aprender ... (ya que hay) autopropaganda invisible, que nos adoctrina con nuestras propias ideas.

-  Eli Pariser en The Economist , 2011

Mucha gente desconoce que incluso existen burbujas de filtro. Esto se puede ver en un artículo en The Guardian, que mencionó el hecho de que "más del 60% de los usuarios de Facebook desconocen por completo cualquier curación en Facebook, creyendo en cambio que cada historia de sus amigos y páginas seguidas aparecía en su noticias." Una breve explicación de cómo Facebook decide lo que sucede en el servicio de noticias de un usuario es a través de un algoritmo que tiene en cuenta "cómo ha interactuado con publicaciones similares en el pasado".

Se ha descrito que una burbuja de filtro exacerba un fenómeno que se ha llamado splinternet o cyberbalcanización , que ocurre cuando Internet se divide en subgrupos de personas de ideas afines que se aíslan dentro de su propia comunidad en línea y no logran exponerse a diferentes puntos de vista. Esta preocupación se remonta a los primeros días de Internet de acceso público, cuando se acuñó el término "ciberbalcanización" en 1996.

Conceptos similares

En los medios de comunicación , la cámara de eco es una descripción metafórica de una situación en la que las creencias se amplifican o refuerzan mediante la comunicación y la repetición dentro de un sistema cerrado. Al visitar una "cámara de resonancia", las personas pueden buscar información que refuerce sus puntos de vista existentes, potencialmente como un ejercicio inconsciente de sesgo de confirmación . Esto puede aumentar la polarización política y social y el extremismo. El término es una metáfora basada en la cámara de eco acústico, donde los sonidos reverberan en un recinto hueco. Las "cámaras de eco" refuerzan las creencias de un individuo sin apoyo fáctico. Están rodeados de quienes reconocen y siguen los mismos puntos de vista.

El discurso de despedida de Barack Obama identificó un concepto similar para filtrar burbujas como una "amenaza para la democracia [de los estadounidenses]", es decir, la "retirada a nuestras propias burbujas, ... especialmente nuestras redes sociales, rodeadas de personas que se parecen a nosotros y compartimos la misma perspectiva política y nunca desafiamos nuestras suposiciones ... Y cada vez más nos volvemos tan seguros en nuestras burbujas que comenzamos a aceptar solo información, sea cierta o no, que se ajuste a nuestras opiniones, en lugar de basar nuestras opiniones en la evidencia que es allí afuera."

Reacciones y estudios

Reacciones de los medios

Existen informes contradictorios sobre la medida en que se realiza el filtrado personalizado y si dicha actividad es beneficiosa o perjudicial. El analista Jacob Weisberg, que escribió en junio de 2011 para Slate , hizo un pequeño experimento no científico para probar la teoría de Pariser en el que participaron cinco asociados con diferentes antecedentes ideológicos que realizaron una serie de búsquedas: " John Boehner ", " Barney Frank ", " Plan Ryan ". y " Obamacare ", y enviando a Weisberg capturas de pantalla de sus resultados. Los resultados variaron solo en aspectos menores de persona a persona, y cualquier diferencia no parecía estar relacionada con la ideología, lo que llevó a Weisberg a concluir que una burbuja de filtro no estaba en efecto, y a escribir que la idea de que la mayoría de los usuarios de Internet estaban "alimentando en el comedero de un Daily Me "fue exagerado. Weisberg le pidió a Google que comentara y un portavoz declaró que se habían implementado algoritmos para "limitar la personalización y promover la variedad" deliberadamente. El crítico de libros Paul Boutin hizo un experimento similar al de Weisberg entre personas con diferentes historiales de búsqueda, y nuevamente encontró que los diferentes buscadores recibieron resultados de búsqueda casi idénticos. Al entrevistar a los programadores de Google, el periodista extraoficial Per Grankvist descubrió que los datos de los usuarios solían desempeñar un papel más importante en la determinación de los resultados de búsqueda, pero que Google, a través de pruebas, descubrió que la consulta de búsqueda es, con mucho, el mejor determinante sobre qué resultados mostrar.

Hay informes de que Google y otros sitios mantienen vastos "expedientes" de información sobre sus usuarios que podrían permitirles personalizar aún más las experiencias individuales de Internet si así lo desean. Por ejemplo, existe la tecnología para que Google realice un seguimiento de los antecedentes de los usuarios, incluso si no tienen una cuenta personal de Google o no han iniciado sesión en una. Un informe indicó que Google había recopilado "10 años" de información recopilada de diversas fuentes, como Gmail , Google Maps y otros servicios además de su motor de búsqueda, aunque un informe contrario era que intentar personalizar Internet para cada usuario era técnicamente desafiante para una empresa de Internet a pesar de la gran cantidad de datos disponibles. El analista Doug Gross de CNN sugirió que la búsqueda filtrada parecía ser más útil para los consumidores que para los ciudadanos y ayudaría a un consumidor que busca "pizza" a encontrar opciones de entrega local basadas en una búsqueda personalizada y filtrar adecuadamente las pizzerías distantes. Organizaciones como el Washington Post , The New York Times y otras han experimentado con la creación de nuevos servicios de información personalizada, con el objetivo de adaptar los resultados de la búsqueda a aquellos con los que es probable que a los usuarios les gusten o estén de acuerdo.

Estudios y reacciones de la academia

Un estudio científico de Wharton que analizó recomendaciones personalizadas también descubrió que estos filtros pueden crear puntos en común, no fragmentación, en el gusto musical online. Según se informa, los consumidores usan los filtros para expandir su gusto en lugar de limitarlo. El profesor de derecho de Harvard, Jonathan Zittrain, cuestionó hasta qué punto los filtros de personalización distorsionan los resultados de búsqueda de Google, diciendo que "los efectos de la personalización de la búsqueda han sido leves". Además, Google ofrece a los usuarios la posibilidad de desactivar las funciones de personalización si así lo desean, eliminando el registro de Google de su historial de búsqueda y configurando Google para que no recuerde las palabras clave de búsqueda y los enlaces visitados en el futuro.

Un estudio de Internet Policy Review abordó la falta de una definición clara y comprobable para las burbujas de filtro en todas las disciplinas; esto a menudo da como resultado que los investigadores definan y estudien las burbujas de filtro de diferentes maneras. Posteriormente, el estudio explicó la falta de datos empíricos para la existencia de burbujas de filtro en todas las disciplinas y sugirió que los efectos que se les atribuyen pueden deberse más a sesgos ideológicos preexistentes que a algoritmos. Se pueden encontrar puntos de vista similares en otros proyectos académicos que también abordan preocupaciones con las definiciones de burbujas de filtro y las relaciones entre los factores ideológicos y tecnológicos asociados con ellas. Una revisión crítica de las burbujas de filtro sugirió que "la tesis de la burbuja de filtro a menudo postula un tipo especial de humano político que tiene opiniones que son fuertes, pero al mismo tiempo altamente maleables" y que es una "paradoja que las personas tengan una agencia activa cuando seleccionan contenido, pero son receptores pasivos una vez que se exponen al contenido curado algorítmicamente que se les recomienda ".

Un estudio realizado por investigadores de Oxford, Stanford y Microsoft examinó los historiales de navegación de 1,2 millones de usuarios estadounidenses del complemento Bing Toolbar para Internet Explorer entre marzo y mayo de 2013. Seleccionaron 50.000 de esos usuarios que eran consumidores activos de noticias, luego clasificó si los medios de comunicación que visitaron eran de izquierda o derecha, basándose en si la mayoría de los votantes en los condados asociados con direcciones IP de usuarios votaron por Obama o Romney en las elecciones presidenciales de 2012. Luego identificaron si las noticias se leyeron después de acceder al sitio del editor directamente, a través del servicio de agregación de Google News, a través de búsquedas en la web o a través de las redes sociales. Los investigadores encontraron que si bien las búsquedas en la web y las redes sociales contribuyen a la segregación ideológica, la gran mayoría del consumo de noticias en línea consistía en usuarios que visitaban directamente sitios de noticias de izquierda o derecha y, en consecuencia, estaban expuestos casi exclusivamente a las vistas de un solo lado. del espectro político. Las limitaciones del estudio incluyeron problemas de selección como los usuarios de Internet Explorer que tienen una edad más alta que la población general de Internet; El uso de la barra de herramientas de Bing y el intercambio voluntario (o sin saberlo) del historial de navegación seleccionando a los usuarios que están menos preocupados por la privacidad; la suposición de que todas las historias en las publicaciones de izquierda son de izquierda, y lo mismo para las de derecha; y la posibilidad de que los usuarios que no son consumidores activos de noticias puedan obtener la mayoría de sus noticias a través de las redes sociales y, por lo tanto, experimenten efectos más fuertes de sesgo social o algorítmico que aquellos usuarios que esencialmente seleccionan por sí mismos su sesgo a través de su elección de publicaciones de noticias (asumiendo que son conscientes de los sesgos de las publicaciones).

Un estudio realizado por investigadores de la Universidad de Princeton y la Universidad de Nueva York, tuvo como objetivo estudiar el impacto de la burbuja de filtro y el filtrado algorítmico en la polarización de las redes sociales. Utilizaron un modelo matemático llamado " modelo de bloque estocástico " para probar su hipótesis en los entornos de Reddit y Twitter. Los investigadores midieron los cambios en la polarización en las redes sociales regularizadas y las redes no regularizadas, midiendo específicamente los cambios porcentuales en la polarización y el desacuerdo en Reddit y Twitter. Encontraron que la polarización aumentó significativamente en un 400% en las redes no regularizadas, mientras que la polarización aumentó en un 4% en las redes regularizadas y el desacuerdo en un 5%.

Estudios de plataforma

Si bien los algoritmos limitan la diversidad política, parte de la burbuja del filtro es el resultado de la elección del usuario. Un estudio realizado por científicos de datos en Facebook encontró que por cada cuatro amigos de Facebook que comparten ideología, los usuarios tienen un amigo con opiniones contrastantes. No importa cuál sea el algoritmo de Facebook para su News Feed , es más probable que las personas se hagan amigos / sigan a personas que comparten creencias similares. La naturaleza del algoritmo es que clasifica las historias basándose en el historial de un usuario, lo que resulta en una reducción del "contenido políticamente transversal en un 5 por ciento para los conservadores y un 8 por ciento para los liberales". Sin embargo, incluso cuando las personas tienen la opción de hacer clic en un enlace que ofrece vistas contrastantes, siguen utilizando sus fuentes más vistas de forma predeterminada. "La elección [del usuario] disminuye la probabilidad de hacer clic en un enlace transversal en un 17 por ciento para los conservadores y un 6 por ciento para los liberales". Un enlace transversal es aquel que presenta un punto de vista diferente al supuesto punto de vista del usuario, o lo que el sitio web ha definido como creencias del usuario. Un estudio reciente de Levi Boxell, Matthew Gentzkow y Jesse M. Shapiro sugiere que los medios en línea no son la fuerza impulsora de la polarización política. El documento sostiene que la polarización ha sido impulsada por los grupos demográficos que pasan menos tiempo en línea. La mayor brecha ideológica se experimenta entre los estadounidenses mayores de 75 años, mientras que solo el 20% informó haber usado las redes sociales en 2012. En contraste, el 80% de los estadounidenses de 18 a 39 años informó haber usado las redes sociales en 2012. Los datos sugieren que el grupo demográfico más joven no está más polarizado en 2012 de lo que había estado cuando los medios online apenas existían en 1996. El estudio destaca las diferencias entre los grupos de edad y cómo el consumo de noticias permanece polarizado a medida que la gente busca información que apele a sus ideas preconcebidas. Los estadounidenses mayores generalmente permanecen estancados en sus opiniones políticas, ya que los medios de comunicación tradicionales continúan siendo una fuente principal de noticias, mientras que los medios en línea son la fuente principal para el grupo demográfico más joven. Aunque los algoritmos y las burbujas de filtro debilitan la diversidad de contenido, este estudio revela que las tendencias de polarización política son impulsadas principalmente por puntos de vista preexistentes y la falta de reconocimiento de fuentes externas. Un estudio de 2020 de Alemania utilizó el modelo Big Five Psychology para probar los efectos de la personalidad individual, la demografía y las ideologías en el consumo de noticias de los usuarios. Basando su estudio en la noción de que la cantidad de fuentes de noticias que consumen los usuarios afecta su probabilidad de verse atrapados en una burbuja de filtro, con una mayor diversidad de medios que reduce las posibilidades, sus resultados sugieren que ciertos datos demográficos (mayor edad y hombres) junto con cierta personalidad los rasgos (alta apertura) se correlacionan positivamente con el número de fuentes de noticias consumidas por los individuos. El estudio también encontró una asociación ideológica negativa entre la diversidad de los medios y el grado en que los usuarios se alinean con el autoritarismo de derecha. Más allá de ofrecer diferentes factores de usuario individuales que pueden influir en el papel de la elección del usuario, este estudio también plantea preguntas y asociaciones entre la probabilidad de que los usuarios se vean atrapados en burbujas de filtro y el comportamiento de voto de los usuarios.

El estudio de Facebook encontró que era "inconcluso" si el algoritmo desempeñaba un papel tan importante en el filtrado de las fuentes de noticias como la gente suponía. El estudio también encontró que la "elección individual", o el sesgo de confirmación, también afectaba lo que se filtraba de News Feeds. Sin embargo, algunos científicos sociales criticaron esta conclusión, porque el objetivo de protestar contra la burbuja del filtro es que los algoritmos y la elección individual trabajan juntos para filtrar las fuentes de noticias. También criticaron el pequeño tamaño de la muestra de Facebook, que es aproximadamente "el 9% de los usuarios reales de Facebook", y el hecho de que los resultados del estudio "no son reproducibles" debido a que el estudio fue realizado por "científicos de Facebook" que tenían acceso a datos que Facebook no pone a disposición de investigadores externos.

Aunque el estudio encontró que solo alrededor del 15-20% de los amigos de Facebook del usuario promedio se suscriben al lado opuesto del espectro político, Julia Kaman de Vox teorizó que esto podría tener implicaciones potencialmente positivas para la diversidad de puntos de vista. Estos "amigos" son a menudo conocidos con los que probablemente no compartiríamos nuestra política sin Internet. Facebook puede fomentar un entorno único en el que un usuario ve y posiblemente interactúa con el contenido publicado o vuelto a publicar por estos amigos de "segundo nivel". El estudio encontró que "el 24 por ciento de las noticias que vieron los liberales eran de tendencia conservadora y el 38 por ciento de las noticias que vieron los conservadores eran de tendencia liberal". "Los liberales tienden a estar conectados con menos amigos que comparten información del otro lado, en comparación con sus contrapartes conservadoras". Esta interacción tiene la capacidad de proporcionar información y fuentes diversas que podrían moderar las opiniones de los usuarios.

De manera similar, un estudio de las burbujas de filtro de Twitter realizado por la Universidad de Nueva York concluyó que "las personas ahora tienen acceso a una gama más amplia de puntos de vista sobre eventos noticiosos, y la mayor parte de esta información no proviene de los canales tradicionales, sino directamente de los actores políticos. oa través de sus amigos y familiares. Además, la naturaleza interactiva de las redes sociales crea oportunidades para que las personas discutan eventos políticos con sus pares, incluidos aquellos con los que tienen vínculos sociales débiles ". Según estos estudios, las redes sociales pueden estar diversificando la información y las opiniones con las que los usuarios entran en contacto, aunque existe mucha especulación sobre las burbujas de filtro y su capacidad para crear una polarización política más profunda .

Un impulsor y una posible solución al problema es el papel de las emociones en el contenido en línea. Un estudio de 2018 muestra que las diferentes emociones de los mensajes pueden conducir a la polarización o convergencia: la alegría prevalece en la polarización emocional, mientras que la tristeza y el miedo juegan un papel importante en la convergencia emocional. Dado que es relativamente fácil detectar el contenido emocional de los mensajes, estos hallazgos pueden ayudar a diseñar algoritmos más socialmente responsables al comenzar a enfocarse en el contenido emocional de las recomendaciones algorítmicas.

Visualización del proceso y crecimiento de dos bots de redes sociales utilizados en el estudio de Weibo de 2019 . Los diagramas representan dos aspectos de la estructura de las burbujas de filtro, según el estudio: grandes concentraciones de usuarios en torno a temas únicos y una estructura unidireccional en forma de estrella que impacta los flujos de información clave.

Diferentes investigadores han utilizado bots sociales para probar la polarización y los efectos relacionados que se atribuyen a las burbujas de filtro y las cámaras de eco. Un estudio de 2018 utilizó bots sociales en Twitter para probar la exposición deliberada de los usuarios a puntos de vista partidistas. El estudio afirmó que demostró diferencias partidistas entre la exposición a diferentes puntos de vista, aunque advirtió que los hallazgos deberían limitarse a los usuarios de Twitter estadounidenses registrados en el partido. Uno de los principales hallazgos fue que después de la exposición a diferentes puntos de vista (proporcionados por los bots) los republicanos autoregistrados se volvieron más conservadores, mientras que los liberales autoregistrados mostraron menos cambios ideológicos, si es que ninguno. Un estudio diferente de la República Popular de China utilizó bots sociales en Weibo , la plataforma de redes sociales más grande de China, para examinar la estructura de las burbujas de filtro en lo que respecta a sus efectos sobre la polarización. El estudio establece una distinción entre dos concepciones de polarización. Uno es donde las personas con puntos de vista similares forman grupos, comparten opiniones similares y se bloquean de puntos de vista diferentes (polarización de opinión) y el otro es donde las personas no acceden a diversos contenidos y fuentes de información (polarización de la información). Al utilizar bots sociales en lugar de voluntarios humanos y centrarse más en la polarización de la información que en la opinión, los investigadores concluyeron que hay dos elementos esenciales de una burbuja de filtro: una gran concentración de usuarios en torno a un solo tema y una estrella unidireccional. -como estructura que impacta los flujos de información clave.

En junio de 2018, la plataforma DuckDuckGo realizó un estudio de investigación sobre la plataforma del navegador web de Google. Para este estudio, 87 adultos en varios lugares de los Estados Unidos continentales buscaron en Google tres palabras clave al mismo tiempo: inmigración, control de armas y vacunas. Incluso en el modo de navegación privada, la mayoría de las personas vieron resultados exclusivos para ellos. Google incluyó ciertos enlaces para algunos que no incluyó para otros participantes, y los cuadros de información de Noticias y Videos mostraron una variación significativa. Google disputó públicamente estos resultados diciendo que la personalización de la página de resultados del motor de búsqueda (SERP) es principalmente un mito. El enlace de búsqueda de Google, Danny Sullivan, afirmó que “a lo largo de los años, se ha desarrollado un mito de que la búsqueda de Google se personaliza tanto que para la misma consulta, diferentes personas pueden obtener resultados significativamente diferentes entre sí. Este no es el caso. Los resultados pueden diferir, pero generalmente por razones no personalizadas ".

Cuando las burbujas de filtro están en su lugar, pueden crear momentos específicos que los científicos denominan momentos "¡Guau!". Un momento 'Whoa' es cuando un artículo, anuncio, publicación, etc. aparece en su computadora en relación con una acción actual o el uso actual de un objeto. Los científicos descubrieron este término después de que una joven realizaba su rutina diaria, que incluía tomar café, cuando abrió su computadora y notó un anuncio de la misma marca de café que estaba tomando. "Me senté y abrí Facebook esta mañana mientras tomaba mi café, y allí estaban dos anuncios de Nespresso . Fue un momento de 'espera' cuando el producto que estás bebiendo aparece en la pantalla frente a ti". Los momentos "Whoa" ocurren cuando las personas son "encontradas". Lo que significa que los algoritmos publicitarios se dirigen a usuarios específicos en función de su "comportamiento de clic" para aumentar sus ingresos por ventas.

Varios diseñadores han desarrollado herramientas para contrarrestar los efectos de las burbujas de filtro (ver § Contramedidas ). La estación de radio suiza SRF votó la palabra filterblase (la traducción alemana de filter bubble) palabra del año 2016.

Contramedidas

Por individuos

En La burbuja del filtro: lo que Internet le oculta , el activista de Internet Eli Pariser destaca cómo la aparición cada vez mayor de burbujas de filtro enfatiza aún más el valor del capital social puente tal como lo define Robert Putman. De hecho, si bien la vinculación de capital corresponde, por un lado, al establecimiento de fuertes lazos entre personas de ideas afines, reforzando así cierto sentido de homogeneidad social, la vinculación de capital social, por otro lado, representa la creación de vínculos débiles entre personas con intereses potencialmente divergentes y puntos de vista, lo que introduce una heterogeneidad significativamente mayor. En ese sentido, es mucho más probable que un capital puente alto promueva la inclusión social al aumentar nuestra exposición a un espacio donde abordamos los problemas que trascienden nuestros nichos y nuestros estrechos intereses personales. Por lo tanto, fomentar el capital puente de uno, como conectarse con más personas en un entorno informal, puede ser una forma eficaz de reducir la influencia del fenómeno de la burbuja de filtro.

De hecho, los usuarios pueden tomar muchas acciones para romper sus burbujas de filtro, por ejemplo, haciendo un esfuerzo consciente para evaluar a qué información se exponen y pensando críticamente sobre si están interactuando con una amplia gama de contenido. Este punto de vista sostiene que los usuarios deberían cambiar la psicología de cómo se acercan a los medios, en lugar de depender de la tecnología para contrarrestar sus prejuicios. Los usuarios pueden evitar conscientemente fuentes de noticias que no sean verificables o débiles. Chris Glushko, vicepresidente de marketing de IAB, aboga por el uso de sitios de verificación de datos para identificar noticias falsas. La tecnología también puede desempeñar un papel valioso en la lucha contra las burbujas de los filtros.

Algunos complementos adicionales , como Media Bias Fact Check, tenían como objetivo ayudar a las personas a salir de sus burbujas de filtro y hacerlas conscientes de sus perspectivas personales; así, estos medios muestran contenido que contradice sus creencias y opiniones. Por ejemplo, Escape Your Bubble pide a los usuarios que indiquen un partido político específico sobre el que quieren estar más informados. El complemento luego sugerirá artículos de fuentes bien establecidas para leer relacionados con ese partido político, alentando a los usuarios a ser más informados sobre la otra parte. Además de los complementos, existen aplicaciones creadas con la misión de alentar a los usuarios a abrir sus cámaras de eco. UnFound.news ofertas una IA ( Inteligencia Artificial ) curada aplicación de noticias a los lectores les presentan noticias de diversas y distintas perspectivas, ayudando a formar justificación y opinión informada en lugar de sucumbir a sus propios prejuicios. También empuja a los lectores a leer diferentes perspectivas si su patrón de lectura está sesgado hacia un lado / ideología. Read Across the Aisle es una aplicación de noticias que revela si los usuarios están leyendo o no de diversas fuentes nuevas que incluyen múltiples perspectivas. Cada fuente está coordinada por colores, lo que representa la inclinación política de cada artículo. Cuando los usuarios solo leen noticias desde una perspectiva, la aplicación se lo comunica al usuario y anima a los lectores a explorar otras fuentes con puntos de vista opuestos. Aunque las aplicaciones y los complementos son herramientas que los humanos pueden usar, Eli Pariser afirmó que "ciertamente, existe una cierta responsabilidad individual aquí para buscar realmente nuevas fuentes y personas que no sean como tú".

Dado que la publicidad basada en la web puede promover el efecto de las burbujas de filtro al exponer a los usuarios a más del mismo contenido, los usuarios pueden bloquear gran parte de la publicidad eliminando su historial de búsqueda, desactivando anuncios dirigidos y descargando extensiones de navegador. Las extensiones como Escape your Bubble para Google Chrome tienen como objetivo ayudar a seleccionar el contenido y evitar que los usuarios solo estén expuestos a información sesgada, mientras que las extensiones de Mozilla Firefox como Lightbeam y Self-Destructing Cookies permiten a los usuarios visualizar cómo se están rastreando sus datos, y permite ellos eliminan algunas de las cookies de seguimiento . Algunos utilizan motores de búsqueda anónimos o no personalizados como YaCy , DuckDuckGo , Qwant , Startpage.com , Disconnect y Searx para evitar que las empresas recopilen sus datos de búsqueda web. El diario suizo Neue Zürcher Zeitung está probando una aplicación de motor de noticias personalizada que utiliza el aprendizaje automático para adivinar qué contenido le interesa a un usuario, mientras que "siempre incluye un elemento sorpresa"; la idea es mezclar historias que es poco probable que un usuario haya seguido en el pasado.

La Unión Europea está tomando medidas para disminuir el efecto de la burbuja del filtro. El Parlamento Europeo está patrocinando investigaciones sobre cómo las burbujas de filtro afectan la capacidad de las personas para acceder a diversas noticias. Además, introdujo un programa destinado a educar a los ciudadanos sobre las redes sociales. En los EE. UU., El panel de CSCW sugiere el uso de aplicaciones de agregación de noticias para ampliar la ingesta de noticias de los consumidores de medios. Las aplicaciones de agregación de noticias escanean todos los artículos de noticias actuales y lo dirigen a diferentes puntos de vista con respecto a un tema determinado. Los usuarios también pueden usar un balanceador de noticias con conciencia diversa que muestra visualmente al consumidor de medios si se inclina hacia la izquierda o hacia la derecha cuando se trata de leer las noticias, indicando inclinarse hacia la derecha con una barra roja más grande o inclinarse hacia la izquierda con una barra azul más grande. Un estudio que evaluó este balanceador de noticias encontró "un cambio pequeño pero notable en el comportamiento de lectura, hacia una exposición más equilibrada, entre los usuarios que ven la retroalimentación, en comparación con un grupo de control".

Por empresas de medios

A la luz de las preocupaciones recientes sobre el filtrado de información en las redes sociales, Facebook reconoció la presencia de burbujas de filtro y ha dado pasos para eliminarlas. En enero de 2017, Facebook eliminó la personalización de su lista de Trending Topics en respuesta a problemas con algunos usuarios que no veían eventos muy comentados allí. La estrategia de Facebook es revertir la función de artículos relacionados que había implementado en 2013, que publicaría noticias relacionadas después de que el usuario lea un artículo compartido. Ahora, la estrategia renovada cambiaría este proceso y publicaría artículos desde diferentes perspectivas sobre el mismo tema. Facebook también está intentando pasar por un proceso de investigación en el que solo se mostrarán artículos de fuentes confiables. Junto con el fundador de Craigslist y algunos otros, Facebook ha invertido $ 14 millones en esfuerzos "para aumentar la confianza en el periodismo en todo el mundo y para informar mejor la conversación pública". La idea es que incluso si las personas solo están leyendo publicaciones compartidas de sus amigos, al menos estas publicaciones serán creíbles.

Del mismo modo, Google, a 30 de enero de 2018, también ha reconocido la existencia de una burbuja de filtro de dificultades dentro de su plataforma. Debido a que las búsquedas actuales de Google extraen resultados clasificados algorítmicamente en función de la "autoridad" y la "relevancia" que muestran y ocultan ciertos resultados de búsqueda, Google está tratando de combatir esto. Al entrenar su motor de búsqueda para que reconozca la intención de una consulta de búsqueda en lugar de la sintaxis literal de la pregunta, Google está intentando limitar el tamaño de las burbujas de filtro. A partir de ahora, la fase inicial de esta capacitación se introducirá en el segundo trimestre de 2018. Las preguntas que involucren sesgos y / o opiniones controvertidas no se abordarán hasta más adelante, lo que generará un problema mayor que aún existe: si el motor de búsqueda actúa como árbitro de la verdad o como guía con conocimientos para tomar decisiones.

En abril de 2017 surgió la noticia de que Facebook, Mozilla y Craigslist contribuyeron a la mayor parte de una donación de $ 14 millones a la "Iniciativa de integridad de las noticias" de CUNY , preparada para eliminar las noticias falsas y crear medios de comunicación más honestos.

Más tarde, en agosto, Mozilla, creadores del navegador web Firefox , anunció la formación de Mozilla Information Trust Initiative (MITI). El + MITI serviría como un esfuerzo colectivo para desarrollar productos, investigación y soluciones basadas en la comunidad para combatir los efectos de las burbujas de filtro y la proliferación de noticias falsas. El equipo de Innovación Abierta de Mozilla lidera la iniciativa, esforzándose por combatir la información errónea, con un enfoque específico en el producto con respecto a la alfabetización, la investigación y las intervenciones creativas.

Implicaciones éticas

A medida que aumenta la popularidad de los servicios en la nube , se espera que los algoritmos personalizados utilizados para construir burbujas de filtro se generalicen más. Los académicos han comenzado a considerar el efecto de las burbujas de filtro en los usuarios de las redes sociales desde un punto de vista ético , particularmente en las áreas de libertad personal , seguridad y sesgo de información . Las burbujas de filtro en las redes sociales populares y los sitios de búsqueda personalizados pueden determinar el contenido particular que ven los usuarios, a menudo sin su consentimiento o conocimiento directo, debido a los algoritmos utilizados para seleccionar ese contenido. El contenido creado por uno mismo que se manifiesta a partir de patrones de comportamiento puede conducir a una ceguera parcial a la información. Los críticos del uso de burbujas de filtro especulan que las personas pueden perder la autonomía sobre su propia experiencia en las redes sociales y que sus identidades se construyan socialmente como resultado de la omnipresencia de las burbujas de filtro.

Tecnólogos, ingenieros de redes sociales y especialistas en informática también han examinado la prevalencia de las burbujas de filtro. Mark Zuckerberg , fundador de Facebook, y Eli Pariser, autor de The Filter Bubble , han expresado su preocupación por los riesgos de la privacidad y la polarización de la información. La información de los usuarios de los motores de búsqueda personalizados y las plataformas de redes sociales no es privada, aunque algunas personas creen que debería serlo. La preocupación por la privacidad ha dado lugar a un debate sobre si es moral o no que los tecnólogos de la información tomen la actividad en línea de los usuarios y manipulen la exposición futura a información relacionada.

Algunos académicos han expresado su preocupación por los efectos de las burbujas de filtro en el bienestar individual y social, es decir, la difusión de información sanitaria al público en general y los posibles efectos de los motores de búsqueda en Internet para alterar el comportamiento relacionado con la salud. Un libro multidisciplinario de 2019 informó investigaciones y perspectivas sobre el papel que juegan las burbujas de filtro en lo que respecta a la desinformación sobre la salud. A partir de diversos campos como el periodismo, el derecho, la medicina y la psicología de la salud, el libro aborda diferentes creencias controvertidas sobre la salud (por ejemplo, medicina alternativa y pseudociencia), así como posibles remedios a los efectos negativos de las burbujas de filtro y las cámaras de eco en diferentes temas de salud. discurso. Un estudio de 2016 sobre los efectos potenciales de las burbujas de filtro en los resultados de los motores de búsqueda relacionados con el suicidio encontró que los algoritmos juegan un papel importante en si las líneas de ayuda y resultados de búsqueda similares se muestran a los usuarios y discutieron las implicaciones que su investigación puede tener para las políticas de salud. Otro estudio de 2016 de la revista médica croata propuso algunas estrategias para mitigar los efectos potencialmente dañinos de las burbujas de filtro en la información de salud, como: informar al público más sobre las burbujas de filtro y sus efectos asociados, los usuarios que eligen probar motores de búsqueda alternativos [a Google] y más explicación de los procesos que utilizan los motores de búsqueda para determinar los resultados que se muestran.

Dado que el contenido que ven los usuarios individuales de las redes sociales está influenciado por algoritmos que producen burbujas de filtro, los usuarios de las plataformas de redes sociales son más susceptibles al sesgo de confirmación y pueden estar expuestos a información sesgada y engañosa. La clasificación social y otras prácticas discriminatorias no intencionales también se anticipan como resultado del filtrado personalizado.

A la luz de las elecciones presidenciales estadounidenses de 2016, los académicos también han expresado su preocupación por el efecto de las burbujas de filtro en la democracia y los procesos democráticos, así como por el surgimiento de los "medios ideológicos". Estos académicos temen que los usuarios no puedan "[pensar] más allá de [su] estrecho interés propio", ya que las burbujas de filtro crean canales sociales personalizados, aislándolos de diversos puntos de vista y de las comunidades circundantes. Por esta razón, se discute cada vez más la posibilidad de diseñar redes sociales con más serendipia, es decir, recomendar de forma proactiva contenido que se encuentre fuera de la burbuja de filtro de uno, incluida la información política desafiante y, eventualmente, proporcionar filtros y herramientas de empoderamiento a los usuarios. Una preocupación relacionada es, de hecho, cómo las burbujas de filtro contribuyen a la proliferación de " noticias falsas " y cómo esto puede influir en la inclinación política, incluida la forma en que votan los usuarios.

Las revelaciones en marzo de 2018 de la recolección y el uso de datos de usuarios por parte de Cambridge Analytica de al menos 87 millones de perfiles de Facebook durante las elecciones presidenciales de 2016 destacan las implicaciones éticas de las burbujas de filtro. El cofundador y denunciante de Cambridge Analytica, Christopher Wylie, detalló cómo la empresa tenía la capacidad de desarrollar perfiles "psicográficos" de esos usuarios y utilizar la información para moldear su comportamiento de voto. El acceso a los datos del usuario por parte de terceros, como Cambridge Analytica, puede exasperar y amplificar las burbujas de filtro existentes que los usuarios han creado, aumentando artificialmente los sesgos existentes y dividiendo aún más a las sociedades.

Peligros

Las burbujas de filtro provienen de un aumento en la personalización de los medios, lo que puede atrapar a los usuarios. El uso de IA para personalizar las ofertas puede llevar a que los usuarios vean solo contenido que refuerce sus propios puntos de vista sin desafiarlos. Los sitios web de redes sociales como Facebook también pueden presentar contenido de una manera que dificulta a los usuarios determinar la fuente del contenido, lo que los lleva a decidir por sí mismos si la fuente es confiable o falsa. Eso puede hacer que las personas se acostumbren a escuchar lo que quieren escuchar, lo que puede hacer que reaccionen de manera más radical cuando vean un punto de vista opuesto. La burbuja de filtro puede hacer que la persona vea los puntos de vista opuestos como incorrectos y, por lo tanto, podría permitir que los medios impongan opiniones a los consumidores.

Las investigaciones explican que la burbuja de filtro refuerza lo que uno ya está pensando. Por eso es extremadamente importante utilizar recursos que ofrezcan varios puntos de vista.

Extensiones de concepto

El concepto de burbuja de filtro se ha extendido a otras áreas, para describir sociedades que se auto-segregan según puntos de vista políticos, pero también situaciones económicas, sociales y culturales. Ese burbujeo da como resultado una pérdida de la comunidad en general y crea la sensación de que, por ejemplo, los niños no pertenecen a los eventos sociales a menos que esos eventos se hayan planeado especialmente para que sean atractivos para los niños y desagradables para los adultos sin niños.

Ver también

Notas

Referencias

Otras lecturas

enlaces externos