Uno de los problemas a los que se enfrentan los medios de comunicación y las diferentes redes sociales en tiempos de posverdad y de noticias falsas son los comentarios tóxicos, despectivos y negativos que suelen aparecer en sus páginas. Este tipo de comentarios restan credibilidad a los medios y por ende, a toda la sociedad que en muchos casos, acaba creyéndose auténticos bulos.
Los riesgos van más allá de del simple comentario. Tal y como informa Google, un 72% de los usuarios de Internet en EE.UU ha sido testigo de acosos en la Red y casi la mitad los ha sufrido directamente en algún momento. Asimismo, casi un tercio de los usuarios se autocensura cuando envía mensajes en redes sociales, por miedo a ser objeto de represalias. De acuerdo con el mismo estudio, el acoso online ha afectado a más de 140 millones de personas en EEUU y muchas otras, en el resto del mundo.
Perspective analiza los comentarios y los evalúa basándose en el parecido que tienen con los comentarios que las personas han indicado como comentarios tóxicos
El contenido abusivo, además hace perder dinero y reduce la productividad de los que trabajan en los diferentes medios, pues se tienen que dedicar a bucear en sus respectivas webs para detectar este tipo de comentarios y eliminarlos. Para paliar esta situación muchos medios han decidido cerrar los comentarios a los usuarios.
Perspective
La nueva creación de Google, junto con Jigsaw, pretende que estas situaciones dejen de suceder. Se llama Perspective y se basa en una tecnología y que utiliza el Machine Learning para identificar esos comentarios tóxicos y eliminarlos. A través de una API, editores (incluyendo los miembros Europeos de la Digital News Initiative) y desarrolladores, pueden acceder a esta tecnología y utilizarla en sus sitios web.
Perspective analiza los comentarios y los evalúa basándose en el parecido que tienen con los comentarios que las personas han indicado como comentarios tóxicos o que, probablemente, pueden hacer que alguien abandone una conversación. Para aprender a detectar un lenguaje potencialmente tóxico, Perspective examina decenas de miles de comentarios etiquetados por personas dedicadas a revisarlos. Cada vez que Perspective encuentra nuevos ejemplos de comentarios tóxicos o recibe correcciones por parte de los usuarios, mejora su capacidad para evaluar los futuros comentarios. Los editores pueden decidir lo que desean hacer con la información que reciben de Perspective. Por ejemplo, pueden elegir marcar comentarios para que sean revisados por sus propios moderadores y decidir si los incluyen en una conversación. También pueden ofrecer herramientas para ayudar a su comunidad a entender el impacto de lo que escriben permitiendo, por ejemplo, que la persona que está escribiendo vea la toxicidad potencial de sus comentarios justo cuando los está escribiendo. Los editores incluso podrían permitir a los lectores clasificar los comentarios según su toxicidad, facilitándoles la búsqueda de grandes debates escondidos en conversaciones tóxicas.