Facebook: la dolorosa carta de un padre que perdió a su hija

Ian Russell, creador de la Fundación Molly Rose, analiza el riesgo que implica la aparición de contenidos depresivos en las redes sociales. Facebook debe dar la cara ante estas acusaciones, pero cada vez más plataformas se encuentran bajo el foco.

Redacción

Por Redacción

La noche del 20 de noviembre de 2017 fue perfectamente normal: nuestra familia se sentó a ver televisión y a reírnos un poco antes de irnos a nuestras habitaciones y decirnos nuestro habitual “nos vemos mañana por la mañana”.


Más tarde esa misma noche, sola en su habitación, mi hija Molly, de 14 años, se conectó a internet por última vez -entre otras cosas, inició sesión en Instagram, donde había sido empujada a una espiral descendente de contenido depresivo- y luego se quitó la vida.

Menos de dos semanas después de que hiciéramos pública la historia de Molly, el director de Instagram, Adam Mosseri, escribió un artículo de opinión en el que prometió “hacer todo lo posible para mantener a salvo a las personas más vulnerables que utilizan nuestra plataforma”.

Hoy, más que nunca, no puedo evitar pensar en la promesa que hizo. “Estamos comprometidos a compartir con el público lo que aprendamos. Deseamos profundamente hacer esto de la manera correcta y haremos todo lo posible para que eso suceda”. No me alegra decirlo, pero ya es evidente que esas palabras demostraron ser vacías.

Es posible que la historia de mi hija Molly no sea conocida para muchos fuera del Reino Unido, pero ayudó a inspirar la Ley de Seguridad en Línea. La “denunciante de Facebook”, Frances Haugen, testificó el lunes 25 ante el Comité Parlamentario Conjunto que la redactó.


Haugen y los documentos que ha compartido han dejado en evidencia cómo, incluso al mismo tiempo que Facebook (propietario de Instagram) pregonó repetidas veces su compromiso con el bienestar de la población joven, ha estado encubriendo investigaciones internas sobre cuán tóxico puede llegar a ser Instagram para ese público, en especial para las adolescentes que pasan por momentos difíciles, como mi amada hija Molly.

Siendo honesto, fue difícil leer las presentaciones internas que demostraron precisamente cómo “aspectos de Instagram se exacerban entre sí para crear una tormenta perfecta” que envía a los jóvenes usuarios con problemas a una “espiral descendente” en la que “las consecuencias concernientes a la salud mental… pueden ser graves”. Todo me sonó terriblemente cierto.

Enterarme de que Facebook sabía que sus plataformas causaban un trauma único en las adolescentes -y que no compartió esos datos con los legisladores ni actuó de acuerdo a las recomendaciones de sus propios investigadores para mitigar estos graves daños- simplemente me horrorizó.

“Facebook se convirtió en una empresa valorada en un billón de dólares gracias a que pagó sus ganancias con nuestra seguridad y también con la de nuestros hijos. Eso es inaceptable”, ha dicho Haugen. Tiene razón. Es hora de que Facebook deje de monetizar la miseria.

Facebook sigue siendo puesto bajo el foco, pero -afortunadamente- la situación se está haciendo extensiva también a otras redes.


Haugen explicó en su testimonio ante el Senado de Estados Unidos cómo los algoritmos de Facebook utilizan clasificaciones basadas en la captación de audiencia para adaptar el contenido a cada usuario, por lo que a menudo termina mostrando contenido cada vez más extremo en función de los tópicos que cada usuario frecuenta.

En el caso de Molly, esto se tradujo en un feed de Instagram repleto de ideas suicidas y autolesiones. Y nadie fuera de Facebook sabe cómo está diseñado el algoritmo ni cuáles son sus efectos en las y los usuarios. No hay ningún medio por el cual los gobiernos o reguladores independientes puedan revisar las políticas y datos de la empresa para garantizar que su producto no esté conduciendo a mayor daño o incluso la muerte.

Mientras las empresas de redes sociales como Facebook -o Tik Tok (ver recuadro)- sigan sin ser reguladas, sin supervisión de sus sistemas de clasificación algorítmica ni acceso a los datos internos, la salud y seguridad pública seguirán en riesgo.

Me vi a mí mismo en Haugen cuando dijo: “Decidí revelar todo esto porque creo que todo ser humano merece la dignidad de la verdad”. No soy un experto en salud pública ni en políticas sobre tecnología. Solo soy un padre afligido convocado a utilizar mi voz con la esperanza de evitar que otros padres se unan a esta terrible comunidad. Fui reclutado de forma involuntaria a este largo y arduo movimiento cuyo objetivo es la rendición de cuentas.


El tiempo es esencial. Cada semana que se le permite a empresas como Facebook obstruir y ofuscar, es otra semana en la que niños como Molly perderán la vida innecesariamente. Lo aprendí de mi experiencia personal: ya no podemos darnos el lujo de aceptar las palabras de Facebook al pie de la letra, o pedirle de forma amable que mejore.

Ya ha quedado más que claro que Mosseri y Mark Zuckerberg en realidad no “harán todo lo posible” para mantener seguras a las personas más vulnerables en sus plataformas. Así que ahora le corresponde a los legisladores hacerlo por ellos.

El Congreso estadounidense y el Parlamento británico deben utilizar todas las herramientas disponibles para obtener toda la investigación y documentos internos relacionados con la salud y el bienestar de nuestros niños, y aprobar leyes que protejan a las familias que representan. Es lo que merecen Molly y muchos otros jóvenes que han sufrido como ella.

Por Ian Russell; The Washington Post.-


TikTok se defiende ante su impacto en niños



TikTok, la red que declaró en septiembre tener mil millones de usuarios activos y es muy popular entre los más jóvenes, compareció por primera vez ayer en el Congreso de Estados Unidos para defender su impacto en los niños. La plataforma fue convocada por un panel del Senado junto a Snapchat y YouTube, para hablar sobre la influencia que tienen en sus seguidores.

“TikTok, Snapchat y YouTube juegan todas un papel importante en exponer a los niños a contenido dañino”, dijo la senadora Marsha Blackburn, copresidente de la audiencia. Aunque 13 años es la edad mínima oficial para participar en la mayoría de las redes sociales, tanto TikTok como YouTube tienen versiones para niños más pequeños.


Michael Beckerman, jefe de políticas públicas de TikTok en las Américas, aseguró que la empresa “se preocupa profundamente por la seguridad y el bienestar de los menores”. Aún cuando ya era popular antes de la pandemia del Covid-19, principalmente debido a sus coreografías con canciones pop que se volvieron virales, TikTok captó muchos seguidores nuevos en medio de los cierres los cierres de escuelas y el teletrabajo. Allí comenzaron a trascender los “challenges” (desafíos en inglés), las bromas y varios videos muy identificables de la plataforma.

La filial de ByteDance, cuyo equivalente en China se llama Douyin, sigue sin embargo muy por detrás de YouTube, que se atribuyó 2.300 millones de usuarios activos mensuales en 2020.


Certificado según norma CWA 17493
Journalism Trust Initiative
Nuestras directrices editoriales
<span>Certificado según norma CWA 17493 <br><strong>Journalism Trust Initiative</strong></span>

Formá parte de nuestra comunidad de lectores

Más de un siglo comprometidos con nuestra comunidad. Elegí la mejor información, análisis y entretenimiento, desde la Patagonia para todo el país.

Quiero mi suscripción

Comentarios

Registrate gratis

Disfrutá de nuestros contenidos y entretenimiento

Suscribite por $2600 ¿Ya estás suscripto? Ingresá ahora