StarterDaily

Jueves 18 de julio de 2019

Instagram utilizará Inteligencia Artificial para impedir comentarios abusivos

Instagram utilizar Inteligencia Artificialpara impedir comentarios abusivos

El abuso en línea siempre ha sido un tema complicado debido a su escala y matices. Lo que cuenta como digno de censura es un debate perpetuo: filtrar demasiado es infringir la autoexpresión; Filtrar muy poco, crea un ambiente hostil. Agrega a eso la complejidad de diferentes idiomas, culturas, normas, etc., y el desafío se vuelve realmente difícil de manejar.

Es por eso que las plataformas de medios sociales como Facebook han recurrido a la inteligencia artificial para ayudarles a clasificar el gran volumen de publicaciones y comentarios. Pero el lenguaje siempre ha sido particularmente difícil para que la IA lo analice: las cosas simples como los dobles sentidos, el sarcasmo o incluso las faltas de ortografía pueden hacer que un sistema se confunda con un significado. Para sortear eso, Facebook emplea a miles de moderadores de contenido para que avancen cuando sus algoritmos no puedan emitir un juicio final. Sin embargo, las investigaciones han encontrado que esos trabajos son a menudo brutales y agotadores.

Instagram, ahora está intentando un nuevo enfoque. En lugar de depender únicamente de sus algoritmos para censurar material ofensivo, también recurrirá a la autocensura de los usuarios. Mientras se publica un comentario, si el modelo de AI de la plataforma lo señala como dañino, el usuario verá una ventana emergente que pregunta "¿Está seguro de que desea publicar esto?"

En las primeras pruebas, Instagram encontró que la función alentaba a muchas personas a rescindir sus comentarios, de acuerdo con el anuncio publicado en su blog. Es una táctica inteligente tratar de aliviar parte de la carga de la moderación del contenido humano sin ser demasiado restrictivo.

Esta no es la primera vez que Instagram utiliza AI para limpiar el lenguaje. En junio de 2017, también lanzó un filtro de comentarios ofensivos utilizando el aprendizaje automático para ocultar el abuso más obvio. Desde entonces, la plataforma ha seguido mejorando su modelo de aprendizaje automático, probablemente haciendo uso de los millones de puntos de datos generados por los usuarios cuando informaron comentarios en el pasado. La última característica también les pide a los usuarios que notifiquen a Instagram si ha marcado su comentario como ofensivo por error, otro bucle de comentarios que podría generar datos de entrenamiento más útiles.

Vía: technologyreview.com


Comentarios

StarterDaily Presenta

Utilizamos cookies propias y de terceros para mejorar nuestros servicios y mostrarte publicidad relacionada con tus preferencias mediante el análisis de tus hábitos de navegación. Si continúas navegando, consideramos que aceptas su uso. Puedes cambiar la configuración u obtener más información aquí.

Acepto