Radio

¿Reconoces el odio? Una plataforma busca detectarlo en discursos de Twitter

En el sitio web Odioelodio, creado por dos estudiantes uruguayos de ingeniería, las personas pueden votar si un tuit contiene o no discursos de odio. Por ejemplo, hacia una raza, religión, género o nación. El objetivo es perfeccionar los algoritmos de detección de este tipo de mensajes en las redes sociales.
Lea en Sputnik

¿Reconoces el odio? Es la primera interrogante que aparece al ingresar a esta plataforma. Debajo figuran varios tuits y la pregunta: ¿el tuit profesa discurso de odio? Las opciones para votar son: "Sí", "Sí, además es grosero", "No" y "No, aunque es grosero".

La manipulación política de las redes sociales se ha convertido en un problema de alcance global
Antes de elegir se puede leer la definición de discurso de odio proporcionada en el sitio: "Según John T. Nockleby, discurso de odio es cualquier expresión de animosidad o menosprecio hacia un individuo o grupo basada en una característica compartida por un grupo como raza, color de piel, origen nacional, género, discapacidad, religión u orientación sexual".

La campaña Odioelodio empezó como un proyecto de grado de Lucas Kunk y Manuel Saravia, dos estudiantes uruguayos de ingeniería en computación.

"El objetivo es que la gente clasifique tuits que nosotros buscamos usando palabras clave en discursos de odio. La idea es que luego se guarden esos datos y se puedan utilizar para mejorar los algoritmos de detección basados en aprendizaje automático. Cuanto más ejemplos hayan, mejor funcionan", dijo Saravia.

Pueden votar personas de todas partes del mundo mientras sepan español dado que todos los tuits están en este idioma. Hasta ahora hay unas 50.000 publicaciones y 33.000 votos. Los ingenieros resaltan la importancia de diferenciar discurso de odio que lenguaje grosero, un tuit puede contener solo una de estas opciones o ambas.

¿Reconoces el odio? Una plataforma busca detectarlo en discursos de Twitter

"Fue un problema que vimos cuando hicimos la investigación de estudios que se habían hecho antes. En muchos casos, a los algoritmos les costaba diferenciar un tuit que tuviera discurso de odio de uno que solo tuviera lenguaje ofensivo", concluyeron.

Esto y más en Zona Violeta.

Discutir