Facebook enseña a su IA a encontrar personas en riesgo de suicidio

Foto del autor

En Beez Publicamos una serie de artículos y tutoriales sobre cómo usar Internet, con guías Explicativas.

En los últimos meses, Facebook se ha enfrentado a una reacción violenta de sus propios cofundadores y ex empleados. Sean Parker dijo que, junto con Mark Zuckerberg, creó conscientemente la red social para explorar un “vulnerabilidad en psicología humana” y expresó su preocupación por lo que le está haciendo a los cerebros de nuestros hijos. Mientras que el inventor del botón Me gusta, Justin Rosenstein, admitió De repente por ayudar a que la gente se obsesione con las redes sociales.

En un intento por deshacer parte de este daño a la reputación y ayudar genuinamente a sus usuarios, Facebook ha anunciado planes para expandir sus herramientas de prevención del suicidio.

LEA LO SIGUIENTE: ¿Sentirse deprimido? Cómo obtener ayuda y soporte en línea

No es una iniciativa completamente nueva: las herramientas de prevención del suicidio han sido parte de Facebook durante más de una década, pero la compañía está intensificando su juego con el uso de la IA. Según una prueba reciente en los Estados Unidos, Facebook está utilizando el aprendizaje de patrones en publicaciones previamente marcadas como suicidio, con la esperanza de que el sitio pueda intervenir incluso sin un informe manual. Claramente, es una línea difícil de tomar en términos de privacidad versus seguridad, por lo que Facebook tiene algunos sabores para ello.

El primero tiene la forma de un pequeño empujón para los amigos de los usuarios. Si la IA detecta un patrón de texto que coincide con los informes de suicidio anteriores, es probable que la opción de denunciar la publicación por «suicidio o autolesión» aparezca de forma más destacada. junto a él, facilitando la intervención de los amigos.facebook_suicide_prevention

También está probando una función que marcaría automáticamente estas publicaciones para que las revise el equipo de operaciones comunitarias de la empresa. Si las sospechas de la IA son confirmadas por un ojo humano, el sitio proporcionará recursos para la persona incluso sin la intervención de sus amigos. En una publicación en su pagina personal de facebookZuckerberg explicó: “A partir de hoy, estamos actualizando nuestras herramientas de inteligencia artificial para identificar cuándo alguien está expresando pensamientos sobre el suicidio en Facebook, para que podamos ayudarlos a obtener el apoyo que necesitan rápidamente. Solo en el último mes, estas herramientas de IA nos han ayudado a conectarnos rápidamente con los socorristas más de 100 veces.

LEER  Cómo acelerar las descargas de Microsoft Store

«Con todo el temor sobre cuán dañina podría ser la IA en el futuro, es bueno recordar cómo la IA realmente está ayudando a salvar la vida de las personas hoy».

El suicidio es una de las principales causas de muerte entre los jóvenes y Facebook dijo que está trabajando en estrecha colaboración con guardar.org, Línea Nacional de Prevención del Suicidio ‘1-800-273-TALK (8255)’, Vanguardia Suicide Prevent y con socorristas para mejorar continuamente el software.

Cómo reaccionarán las personas en riesgo ante una intervención de IA es una pregunta abierta, y una que simplemente podría evitar las señales de advertencia de comportamiento de las miradas indiscretas de Facebook. El equilibrio entre la privacidad y la urgencia de actuar es claramente una fuente interna de debate. Gerente de Producto de Facebook Vanessa Callison-Burch dijo al BBC la empresa necesita equilibrar las respuestas efectivas con ser demasiado intrusivo, por ejemplo, informar directamente a amigos y familiares. “Somos sensibles a la privacidad y no creo que siempre conozcamos la dinámica personal entre las personas y sus amigos de esa manera, así que estamos tratando de hacer algo que ofrezca apoyo y opciones”, explicó.

Si bien la IA no se ha integrado previamente en los servicios en tiempo real de Facebook, la compañía también ha intentado hacer que Facebook Live y Messenger sean más útiles para las personas en crisis. Las herramientas existentes para contactar o informar se han integrado en el servicio de transmisión en vivo de Facebook, y Messenger ahora tiene la opción para que los usuarios se conecten a servicios de soporte en tiempo real que incluyen Crisis Text Line, National Eating Disorders Association y National Suicide Prevention. Línea de vida.facebook_prevent_suicide

En un entrada en el blog al anunciar el juicio reciente, la empresa explicó sus motivaciones: principalmente, que tiene el poder de marcar la diferencia. “Los expertos dicen que una de las mejores maneras de prevenir el suicidio es que las personas en peligro escuchen a las personas que se preocupan por ellos”, se lee en la publicación del blog. “Facebook se encuentra en una posición única, a través de amistades en el sitio, para ayudar a conectar a una persona en apuros con personas que pueden apoyarla”.

LEER  la mejor manera de obtener Sky TV sin contrato

Eso puede muy bien ser cierto, pero sería una tontería ignorar el clima más amplio en el que han llegado estas actualizaciones. Este año ya ha visto un número del reportado transmisiones de suicidio en Facebook Live, y aunque es posible que estas herramientas adicionales no hayan hecho nada para evitarlos, no es una buena idea que se vea que la red social ignora el problema.

LEA LO SIGUIENTE: Aumento en encuestas de suicidio vinculado a 13 Reasons Why

No es la primera vez que Facebook utiliza la inteligencia artificial para intentar convertirlo en un lugar más acogedor: de vuelta en abril En 2016, el sitio anunció que estaba utilizando IA para describir el contenido de las imágenes a sus usuarios con discapacidad visual. Con tres laboratorios dedicados a la investigación de IA y casi dos mil millones de usuarios de IA para aprender, es poco probable que esta sea la última vez que Facebook intente resolver un problema con el aprendizaje automático.

Tampoco es la primera vez que la IA se usa de esta manera en un intento de identificar a las personas en riesgo. Usando un decodificador neuronal previamente entrenado para identificar emociones y pensamientos complejos, los investigadores de la Universidad de Pittsburgh y la Universidad Carnegie Mellon desarrollaron recientemente un algoritmo que puede detectar signos de ideación y comportamiento suicida.

LEA LO SIGUIENTE: Suicidio, depresión y la industria tecnológica

Los investigadores aplicaron su algoritmo de aprendizaje automático Los escáneres cerebrales y el software identificaron correctamente si una persona estaba en un grupo de riesgo con un 91 % de precisión utilizando cambios en sus patrones de activación cerebral.

En una prueba de seguimiento, la IA se entrenó específicamente en los escáneres cerebrales de las personas del grupo vinculadas a pensamientos suicidas para ver si el software podía identificar a quienes ya habían intentado suicidarse. Fue correcta en el 94% de los casos.

Si usted o un ser querido se ha visto afectado por los problemas planteados en esta historia, puede obtener apoyo y asesoramiento. en nuestra guía de ayuda y soporte en línea. También puedes llegar a samaritanos gratis las 24 horas en el 1116 123 o grupo de apoyo Campaña Contra Vivir Miserablemente (CALM) específicamente para hombres jóvenes en 0800 585858.

Deja un comentario