Por Carlos Turdera, Sao Paulo, Brasil
Además de los «likes» (me gusta) y los contenidos compartidos, otra actividad frecuente en Facebook son los «reportes», esos casos en los que los usuarios envían a la compañía avisos de que algo puede no estar funcionando correctamente en la red social.
Motivados por contenidos ofensivos, ilegales o contrarios a sus convicciones, los usuarios se valen de este recurso en diversas situaciones, aunque hasta ahora tenían apenas una vaga idea de cómo funciona este servicio.
Facebook dio a conocer este martes en su blog oficial un detallado mapa que revela el proceso entero que se pone en marcha cuando alguien reporta un contenido.
Vigilancia permanente
«Mantenemos una robusta infraestuctura que le permite a los más de 900 millones de miembros de nuestra comunidad ayudarnos a cumplir nuestras políticas mediante los botones de reporte que se encuentran en todo el sitio», explica el post.
Luego de destacar que cuenta con oficinas en diversos países, Facebook informa que en las mismas existe una estructura llamada User Operations (UO, operaciones del usuario). Esta unidad atiende todo tipo de cuestiones relacionadas con seguridad, odio y acoso, acceso y contenido abusivo. Cuando alguien reporta algún contenido, va directamente a alguna de estas divisiones de acuerdo con la naturaleza de la denuncia. Sus empleados cumplen un sistema de horarios que le permite a Facebook atender las 24 horas, los 7 días de la semana.
«Por ejemplo, cuando el equipo de Menlo Park (central, en California) está terminando el día, los colegas de Hyderabad se están preparando para continuar la guardia. Con usuarios en todo el mundo, debemos enfrentarnos a reportes en más de 24 idiomas. Estructurarnos de esta manera nos permite brindar una amplia cobertura de las demandas», detalla el post.
Qué pasa con la denuncia
Una vez que el reporte ha llegado a la sección correspondiente, el Equipo de Seguridad lo evalúa y actúa en consecuencia. Para hacer un seguimiento del estado en que se encuentra el reporte, FB recuerda que existe el Panel de Apoyo (Support Dashboard)
Si el equipo determina que un contenido denunciado realmente ha violado alguna de las políticas de la red social, FB dice que procede a «eliminarlo y a advertir a la persona que lo envió». La compañía también podrá impedir que el usuario comparta determinados tipos de contenidos, le bloqueará ciertas funciones, deshabilitará su cuenta, o si es necesario, «remitir el caso para la aplicación de la ley».
FB especifica también que cuenta con equipos especiales «sólo para los casos en los que pudo haber un error». A veces el contenido denunciado no viola las normas de la empresa, pero el usuario, de cualquier manera, quiere eliminar la publicación.
«Antes, si el contenido no violaba nuestras normas, no se hacía nada. El contenido quedaba allí», explica el post. «Desde el año pasado habilitamos un mecanismo que le permite a los usuarios resolver por sí sus conflictos más allá del simple bloqueo o la ‘desamistad’. Es nuestra herramienta de ‘reporte social’, que le permite al usuario encontrar otras personas o amigos de confianza que le ayuden a resolver la cuestión o a abrir una instancia de diálogo».
Ayuda externa
FB dice que hay más personas también en la tarea de brindar seguridad a los usuarios, como es el caso de los ingenieros que desarrollan herramientas y procesos para ayudar en la resolución autónoma de problemas. La red pone como ejemplo el centro de asistencia www.facebook.com/hacked, al que se puede recurrir cuando se sospecha que la propia cuenta está comprometida o cuando se cree que hay un impostor en línea.
Pero además de los propios empleados de FB, la compañía declara trabajar «en estrecha colaboración» con una amplia variedad de expertos y grupos externos que participan de su Consejo Asesor de Seguridad. Entre estos, cita a más de 20 agencias de prevención de suicidios, una red de apoyo a los usuarios GLBT (gays, lesbianas, bisexuales y travestis) y el centro ASAARA, recientemente inaugurado en India, entre otros.
Fuente: Terra México