Miércoles 15 de Enero de 2025

08/09/2024

Cuando el algoritmo de TikTok se vuelve mortal

Fuente: telam

El desafío del apagón está matando a personas. Los tribunales finalmente están prestando atención

>Pocas veces leerás sobre un caso con hechos más desgarradores. En 2021, una niña de 10 años llamada Nylah Anderson estaba viendo videos en TikTok, como hacen millones de personas todos los días, cuando el algoritmo de la aplicación mostró un video del llamado desafío del apagón en su página “Para ti”. La página sugiere videos para que los usuarios los vean. El desafío del apagón alienta a las personas a grabarse mientras participan en la autoasfixia, a veces hasta el punto de perder el conocimiento. Nylah vio el desafío, lo intentó ella misma y murió. Se ahorcó accidentalmente.

En el centro de la disputa legal hay una sola pregunta: ¿quién es responsable de la muerte de Nylah? Culpar a una niña de 10 años es absurdo. Ella apenas era capaz de comprender el riesgo. ¿Deberíamos culpar a la persona que creó el video que ella vio? Por supuesto. Una analogía fuera de línea podría ser útil. Imaginemos que una persona se acercara a Nylah en la escuela y le sugiriera que se asfixiara. Reconoceríamos inmediatamente la culpabilidad de esa persona.

En esas circunstancias, ¿no sería aún más responsable el adulto que le presentó el video a Nylah que la persona que lo hizo? El mero hecho de que la recomendación viniera de un adulto puede hacer que Nylah sea más susceptible al mensaje del video.

En el mundo real, el adulto que le mostró el video a Nylah podría ser considerado responsable de homicidio culposo, y ninguna objeción que se le haga a la niña por haberle mostrado un video hecho por otra persona lo libraría de responsabilidad. Después de todo, se acercó a la niña por su propia voluntad y le ofreció el video sin que ella se lo pidiera. Ese fue el discurso del propio adulto, y los adultos son responsables de lo que dicen.

Para entender mejor el caso de Nylah, es necesario dar una breve lección de historia jurídica. Desde el comienzo mismo de la era de Internet, los tribunales han lidiado con la cuestión de quién es responsable cuando una persona publica contenido problemático. ¿La culpa recae únicamente en la persona que publicó, por ejemplo, material potencialmente difamatorio? ¿O la responsabilidad es compartida con la plataforma que alojó la sala de chat o el foro de comentarios?

Pero una plataforma de Internet en la que todo vale se vuelve rápidamente prácticamente inutilizable para la gente decente. Las secciones de comentarios y los foros de mensajes se inundan con el contenido más vil imaginable. Incluso los primeros proveedores de Internet reconocieron esto, y uno de ellos, Prodigy, decidió crear una plataforma más familiar moderando el contenido para eliminar las peores publicaciones.

Sin embargo, en 1995, un juez del Tribunal del Estado de Nueva York dictaminó que Prodigy podía ser considerada responsable del contenido de las publicaciones de sus usuarios. Al moderar el contenido, ejercía cierto grado de control sobre el discurso de los usuarios y, por lo tanto, era corresponsable de sus palabras.

El Congreso de Estados Unidos respondió a este dilema aprobando la Sección 230 de la Ley de Decencia en las Comunicaciones en 1996. Resultó ser el motor de la Internet moderna. Tenía dos disposiciones clave. La primera establecía que “Ningún proveedor o usuario de un servicio informático interactivo será tratado como el editor o portavoz de ninguna información proporcionada por otro proveedor de contenido informativo”. Esto significa que mi discurso es mi discurso. El hecho de que publique mis pensamientos en Facebook no significa que también sean el discurso de Facebook.

Esta parte de la ley dio a las empresas de Internet (incluidas las empresas de medios como The New York Times) la capacidad de abrir comentarios públicos sin correr el riesgo de una responsabilidad legal catastrófica. Esto es lo que permite a Yelp permitir a los usuarios publicar reseñas de restaurantes sin preocuparse de que el restaurante demande a Yelp si un dueño de restaurante se enoja porque un usuario con un nombre como @JarJarRules difamó sus burritos.

Pero eso no es todo. La Sección 230 también habilitó la moderación de contenidos, ya que establece que los proveedores de servicios de Internet pueden “restringir el acceso o la disponibilidad de material que el proveedor o el usuario considere obsceno, lascivo, obsceno, excesivamente violento, acosador o de otro modo objetable” sin asumir responsabilidad por el contenido del usuario.

Es difícil imaginar un mundo digital sin la Sección 230. Sin protecciones contra la responsabilidad por la libertad de expresión de los usuarios, las empresas volverían a encontrarse en los primeros años de la década de 1990, frente a un enfoque de moderación de todo o nada que las pondría en un peligro legal extremo si se involucraran en cualquier tipo de moderación de contenido. Se volvería inaceptablemente riesgoso administrar incluso un sitio web de críticas cinematográficas o abrir un sitio de deportes a los comentarios sin enfrentar la posibilidad de una avalancha de demandas.

Pero a medida que Internet avanzaba, sus arquitectos e ingenieros comenzaron a perfeccionar algo que transformó la experiencia del usuario en línea: el algoritmo. En su opinión en el caso de Nylah, el tribunal de apelaciones definió un algoritmo como “un conjunto de instrucciones digitales que realizan una tarea”. En el contexto de las redes sociales, el algoritmo es el conjunto de instrucciones digitales que, entre otras cosas, sugieren contenido nuevo que podría gustarle.

Estos algoritmos pueden ser extraordinariamente sofisticados y demostrar un nivel de conocimiento sobre los usuarios casi aterrador, y el algoritmo de TikTok es más sofisticado que la mayoría. Como escribió Ben Smith en The Times en 2021, el año en que murió Nylah, “es asombrosamente bueno para revelar los deseos de las personas, incluso a ellas mismas”.

(Aquí es donde confieso que soy prácticamente propiedad total del algoritmo de libros de Amazon. Se ha convertido en un experto en recomendarme nuevos libros sobre la Primera Guerra Mundial y los compro todos.)

En Moody, el tribunal estaba considerando la legalidad de la legislación aprobada tanto por Florida como por Texas para regular la moderación de las redes sociales. Si bien el tribunal no decidió el caso sobre el fondo, su opinión dejó muy en claro que la moderación de las redes sociales y la curación algorítmica eran ambas actividades expresivas, protegidas por la Primera Enmienda.

El Tribunal del Tercer Circuito dijo que sí. Un designado de Obama y dos designados de Trump sostuvieron que TikTok podría ser considerado potencialmente responsable por promover el desafío del apagón, sin que nadie lo solicitara, en la página de Nylah. No podría ser considerado responsable simplemente por alojar contenido del desafío del apagón (eso está claramente protegido por la Sección 230) ni por proporcionar contenido del desafío del apagón en respuesta a una búsqueda específica.

El caso de Nylah podría convertirse en uno de los más importantes en la historia de Internet. Como señala la opinión del tribunal de apelaciones, varios otros tribunales han otorgado a las empresas de redes sociales y a otros proveedores de servicios de Internet un margen de maniobra mucho mayor. Pero esos casos fueron anteriores a Moody y, por lo tanto, anteriores a su declaración clara de que la curación algorítmica es expresiva. Y si la curación algorítmica es expresiva, ¿por qué TikTok no debería enfrentarse al mismo tipo de responsabilidad que cualquier otro orador en la esfera pública?

© The New York Times 2024.

Fuente: telam

Compartir