Vida Sana
En tiempo real

Facebook recurre a la inteligencia artificial para prevenir suicidios



Facebook anunció nuevos recursos y herramientas de inteligencia artificial (IA) en su servicio de transmisión en vivo (Facebook Live) y de mensajería (Messenger) para prevenir casos de suicidio y así "ayudar a construir una comunidad más segura tanto fuera como dentro de la plataforma".

La red social incorporará herramientas de prevención en tiempo real en Facebook Live, soporte online por parte de organizaciones especializadas a través de Messenger, y patrones de reconocimiento asistidos por IA para identificar publicaciones que incluyan "expresiones de suicidio", enumeró este miércoles Facebook en su blog para los medios de comunicación.

La plataforma ya ofrece la posibilidad de que un usuario reporte a su equipo especializado (disponible las 24 horas) la publicación de uno de sus contactos, si considera que es preocupante porque se trata de su salud o estado de ánimo.

Asimismo, sugiere una línea de ayuda y da consejos y recursos para las personas que expresen pensamientos suicidas dentro de la plataforma.

La novedad es que ahora las herramientas de prevención de suicidio para publicaciones serán integradas a Facebook Live, de manera tal que quienes miren un video en vivo tendrán la opción de contactarse directamente con la persona y reportar ese contenido al equipo especializado de la plataforma.

Asimismo, la red social proveerá recursos a las personas que reporten el video en vivo para asistirlas en la ayuda que puedan darle a su amigo.

Los usuarios que compartan un video en vivo tendrán una serie de recursos en sus pantallas: podrán elegir contactarse con un amigo, acudir a una línea de ayuda o ver consejos.

En relación con la inteligencia artificial, Facebook está probando un proceso de reporte que usa patrones de reconocimiento previamente reportados por suicidio, basados también en la experiencia de su equipo de especialistas.

Este enfoque de inteligencia artificial hará que la opción de reportar una publicación sobre "suicidio o lesión de uno mismo" sea más prominente para mensajes preocupantes de este estilo.

Además, está probando patrones de reconocimiento para identificar publicaciones que incluyan "expresiones de suicidio".

En este plano, un equipo de operaciones está revisando esas publicaciones y, si es apropiado, proveerá recursos a la persona que publicó el contenido, incluso si aún no ha sido reportada por otro contacto.

Facebook indicó que estas pruebas las está realizando de forma preliminar en Estados Unidos y luego las irá ampliando en otros países.

Las herramientas de prevención -indicó la red social- fueron desarrolladas en colaboración con organizaciones de cuidado mental como Save.org, National Suicide Prevention Lifeline, Forefront, así como de personal especializado.

Facebook también aclaró que es muy importante recurrir a un servicio de emergencia si una persona conoce a alguien que está en una situación de crisis.