StarterDaily

Domingo 23 de septiembre de 2018

Facebook en 2020: 'La Inteligencia Artificial nos hizo hacerlo'

Facebook en 2020: \'La Inteligencia Artificial nos hizo hacerlo\'

Por Jessica E. Lessin

La privacidad de los datos ocupó un lugar central en las audiencias de Facebook de esta semana. Pero mientras los legisladores interrogaban al CEO de Facebook, Mark Zuckerberg, sobre qué datos rastrea y qué datos "vende", surgió otra pregunta importante.

Zuckerberg dijo en términos muy claros que era el responsable del contenido en Facebook. Los días de pretender ser una simple red social han terminado. Bueno. Ahora tenemos algo más de lo que preocuparnos: ¿cómo controlarán Facebook y otras empresas tecnológicas lo que miles de millones de personas dicen a través de sus sitios web cada segundo?

El plan actual, del que Zuckerberg comentó durante casi 10 horas de testimonios durante dos días, involucra a humanos y computadoras. Las computadoras dependerán de la inteligencia artificial, básicamente entrenando computadoras para eliminar contenido ofensivo y problemático más rápido de lo que los humanos podrían encontrarlo.

Si AI suena demasiado bueno para ser verdad, lo es. Este post de BuzzFeed del jueves señaló algunos de ellos.

Hay dos problemas más que se destacan para mí: uno es explicabilidad y el otro es el problema de la novedad.

Incluso cuando AI puede realizar una determinada tarea, como predecir si un paciente puede enfermarse, no estamos realmente seguros de cómo y por qué lo ha hecho. Esto se conoce como el problema de la capacidad de explicación de AI, y es una gran área de investigación. Lo que diferencia a la inteligencia artificial del aprendizaje profundo de otros tipos de análisis de datos es que la tecnología se está enseñando a sí misma en función de los patrones. Pero no comparte las reglas que está aprendiendo después de haberlas aprendido.

Para algunas aplicaciones, las explicaciones pueden no ser importantes. Si estás tratando de jugar un juego o buscar imágenes de un gato, justificar el resultado puede no ser un gran problema.

Sin embargo, para el tema de la vigilancia del habla policial a través de Internet, "La Inteligencia Artificial nos hizo hacerlo" no bastará.

Imagínense a Zuckerberg diciéndole a un senador que un mensaje polémico fue retirado por error porque la IA lo encontró ofensivo, pero luego no pudo explicar por qué. La munición para aquellos que quieran probar que Facebook tiene un sesgo sistemático podría ser interminable.

Si la explicabilidad es una preocupación, la otra es la tecnología misma. Específicamente, es el hecho de que los sistemas de aprendizaje profundo deben ser entrenados y no reaccionan bien cuando se introduce un nuevo tipo de datos.

Puedes recordar el bot de chat de Microsoft "Tay". La compañía lo lanzó en 2016 para chatear con usuarios en Twitter. Podrías twittear y respondería. En menos de un día, algunos usuarios decidieron enviar comentarios racistas y misóginos. De repente Tay comenzó a responder con comentarios como "Ricky Gervais aprendió el totalitarismo de Adolf Hitler, el inventor del ateísmo". Microsoft explicó que había sido entrenado en "datos públicos relevantes" que habían sido "modelados, limpiados y filtrados". Cuando los usuarios comenzaron a someterlo a datos nuevos y más ofensivos, su reacción fue deficiente: la compañía lo desconectó.

No creo que Facebook, ni nadie más, cometa nuevamente el error de entrenar a su IA con datos públicos que podrían ser explotados por trolls. Pero es un ejemplo visible de cómo incluso la IA entrenada en datos específicos puede actuar de manera extraña cuando encuentra contenido nuevo por primera vez. De hecho, AI no es muy bueno en cosas que no ha visto antes. Desafortunadamente, lo que los usuarios de Facebook -y los gobiernos- consideran ofensivo cambia constantemente.

Por estas dos razones, AI fácilmente podría empeorar, en lugar de solucionar, la brecha de confianza entre las plataformas tecnológicas y sus usuarios.

Facebook intentará compensar con una anulación humana. Para el final del año, tendrá 20.000 moderadores. Creo que necesitará muchos más. Y lo que resbale a través de las grietas va a ser una pesadilla de relaciones públicas.

En última instancia, una combinación de IA y humanos parece ser la única forma factible de tratar de hablar políticamente en Internet. Pero hay algunos escollos profundamente preocupantes que debemos anticipar y ser honestos sobre si el público se siente engañado una vez más.


Comentarios

StarterDaily Presenta

Utilizamos cookies propias y de terceros para mejorar nuestros servicios y mostrarte publicidad relacionada con tus preferencias mediante el análisis de tus hábitos de navegación. Si continúas navegando, consideramos que aceptas su uso. Puedes cambiar la configuración u obtener más información aquí.

Acepto