En el último intento de Instagram por convertirse en una de las redes sociales menos tóxicas, la plataforma ha decidido lanzar una función que advierte a los usuarios antes de que publiquen algo que podría ser ofensivo.
La compañía anunció ayer en su blog que había comenzado a introducir una nueva herramienta que avisará a las personas si su comentario “puede considerarse ofensivo”, en un esfuerzo por alentar a los usuarios a que “se detengan y reconsideren sus palabras antes de publicar”.
La función utiliza una IA que detecta ciertas frases y palabras que se han marcado como ofensivas. Cuando esa IA detecta comentarios “potencialmente ofensivos”, advierte al usuario con un mensaje en el que aparece una opción para “editar el comentario”, otra de “aprender más” y una última que dice “compartir de todos modos”. Así que, aunque no censura el contenido de los usuarios, les informa de que están comportándose como unos imbéciles.
Instagram ha dicho que esta función está pensada para frenar el acoso escolar en su plataforma, y que es una extensión de la herramienta que lanzaron en julio para notificar a los usuarios si sus comentarios pueden ser ofensivos.
Ahora, Instagram afirma que los resultados han sido “prometedores”, ya que la vergüenza ha animado a muchos usuarios a “reconsiderar sus palabras cuando se les ha dado esa oportunidad”.
Instagram ha dicho que esta nueva herramienta ya ha dado comienzo en ciertos países y que se expandirá al resto del mundo durante los próximos meses.
Fuente: gizmodo.com