/ análisis

LA CENSURA POR ALGORITMO

La censura del futuro la harán los algoritmos y deben dejar de ser imparciales

Damos por supuesto que la censura la deben supervisar seres humanos pero ya son casi innecesarios para supervisar los elementos y contenidos que se criban

Yago Rosa Fernández

07 de Abril de 2017

La censura no es nada nuevo, decenas de gobiernos han hecho todo tipo de censuras a todos los medios de comunicación en todo el mundo en muchos momentos de la historia, especialmente en los siglos XX y XXI. Esto es debido al control que debe hacerse en todo tipo de casos, desde los más claros y criticables como eliminar toda queja sobre instituciones o tapar sucesos para limitar el alcance del conocimiento de ciertos eventos comprometidos. Sin embargo incluso en las democracias actuales se siguen sucediendo lo que algunos grupos consideran censura si bien en muchos casos se hace por para defender un estado de bienes común y no poner en peligro un estado social que ha tardado mucho tiempo en conseguir y nunca está seguro del todo. Casos como lo que se consideran incitación al odio, discursos que aboguen por discriminar a minorías son del tipo de contenido que pocos dudarían en censurar, mayormente por incitación a la violencia, pero sin embargo también estamos viendo cómo en otros países se llega a lo contrario promoviendo estos discursos.

Si intención más que la de detallar la situación anterior, ahora mismo estas medidas son mucho más complejas debido a la masificación como nunca de Internet (Ya van muchas veces que digo esto pero realmente es uno de sucesos que más cambiaron el mundo) se ha vuelto algo más complicado. Si bien antes dichos controles se podían hacer fácil con censuras antes de publicación de periódicos y emisión de contenidos en televisión y radio con Internet no es tan sencillo y menos cuando es la propia gente la que sube los contenidos que ellos mismos quieren hacer.

La censura del futuro la harán los algoritmos y deben dejar de ser imparciales


El más claro ejemplo es Youtube y nos servirá para casi toda la compleja situación de control de contenidos que hay y no hay mejor manera que tomar contexto que el máximo exponente de contenido generado por usuarios. A diferencia de otros medios, un contenido en Youtube puede ser los más improvisado del mundo, casi sin necesidad de hacer un guión previo y no hay que pasar una criba previa teniendo un gran presupuesto o con un permiso que ofrezca el gobierno a cambio de concesiones específicas en el contenido o de pagar unas tasas. Alguien en Youtube puede estar preparado de hace meses o estar hecho con una idea que surge a los cinco minutos de empezar a grabar con cero edición más allá de darle dos veces al botón para grabar pero eso conlleva unos riesgos para la plataforma. Aunque Youtube tiene unas normas básicas casi unánimemente aceptadas, el hecho de que sean los propios usuarios suban el contenido sin ningún tipo de aviso previo a Youtube hace que perfectamente se puedan saltar las reglas de forma casis sistemática sin que ningún humano lo revise. Esto hizo necesario el denominado modo restringido de Youtube que con su renovación hace unas semanas se consiguió uno de los golpes más duro que sirvió como una forma de censura a contenido LGTBIQ+ aunque no violase ninguna de las normas básicas de Youtube.

¿Qué ocurrió en este caso? Normalmente se dice que un algoritmo que contemple todo tipo de situaciones va a ser lo menos partidista, lo cual tiene bastante base, pero se cometió un fallo grave. En este caso se trata de la forma en la que basaba los reportes que potencialmente daba la posibilidad de usar los reportes de usuarios, una teoría en principio infalible al utilizar datos de miles de personas que quieren mejorar la comunidad pero dejan de lado el hecho que debido a que hay mucha gente que no lo considera apropiados ( o siquiera que debieran existir) son más vulnerables a que el contenido se quede fuera de un modo restringido necesario para difundir Youtube en sitios públicos.

Esto nos demuestra que nos guste o no tomar a la gente y sus opiniones como una forma de conseguir un relativo control de contenidos no es sencillo. Aún los algoritmos no son capaces de contextualizar todo por completo de la misma manera que no son capaces de predecir la virabilidad de un vídeo no son capaces de saber exactamente qué es lo que contiene un vídeo.

El auténtico dilema viene de la hora de poner excepciones al algoritmo, esto es contenido que por X razón es más susceptible a ser marcado como inadecuado cuando no lo es o contenido que aunque no se marque como peligroso sí que realmente sea algo que necesiten ocultar de cierta manera. Esto hace una situación que muchos ingenieros han querido evitar y es el hecho de hacer un algoritmo de censura partidista, pues le hecho de posicionarse para proteger ciertos contenidos ya les hace dar una idea sobre un tema polémico que puede suponer el total rechazo de ciertos sectores de la población.

No es algo que le pase a Youtube, si no que tanto Google como Facebook se encuentran en una posición similar con el tema de las noticias falsas. Aunque por el momento se han quedado en un camino a medias de dar un aviso diciendo que la página puede porducir a engaño ya solo eso les hace relativamente partidistas en algunos temas, desde cosas bastante unánimes como si la tierra es plana o a cosas más delicadas como citas de políticos y los datos que dicen pudiendo ser potencialmente falsos.

Todo ello debe estar en un algoritmo porque no hay ninguna posibilidad que usando humanos se pueda conseguir ese nivel de control de calidad que se espera. En el futuro no serán humanos los que acaben regulando el contenido, será un algoritmo ya predefinido con algunas excepciones el que decidirá tanto lo que te recomienda por tus gustos como el que impide que nadie pueda ver un vídeo que para bien o para mal no case con los preceptos básicos de libertad de expresión de una página. En el futuro tu contenido puede ser censurado y nadie de la web pueda saberlo, pero decir que es en el futuro sería engañarnos, porque ya ha pasado y ya están sucediendo esos algoritmos y ahora la pregunta que se hacen dichas webs es cuáles son los criterios que les harán perder menos visitantes con la mínima repercusión negativa.
0

Positivo:

Negativo: