Buenas noticias para niños y padres: Microsoft anunció ayer (Jan. 9) que perseguirá a los depredadores sexuales en línea utilizando inteligencia artificial para escanear los chats en busca de un posible cuidado infantil.

El cuidado infantil es un método utilizado para atraer a posibles víctimas. El depredador simplemente habla con un niño objetivo durante un largo período de tiempo para que el niño se sienta seguro y cómodo. Si tiene éxito, la preparación puede conducir al abuso sexual en línea, lo que puede implicar obligar a los niños a enviar videos sexuales y conocerlos físicamente.

¿Cómo funciona el enfoque de Microsoft?

Project Artemis utiliza inteligencia artificial para monitorear continuamente las conversaciones con los niños para detectar conversaciones que podrían interpretarse como acicaladoras.

La técnica, dice Microsoft, “evalúa y califica las características de la conversación y asigna una calificación de probabilidad general.

"Esta calificación se puede utilizar como un factor determinante, establecido por empresas individuales que implementan la técnica, en cuanto a cuándo una conversación marcada debe enviarse a moderadores humanos para su revisión".

Los moderadores humanos podrían entonces evaluar el contenido e identificar “amenazas inminentes para su remisión a la policía, así como incidentes de sospecha de explotación sexual infantil a la Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) ”.

Según Microsoft, el "NCMEC, junto con ECPAT Internacional, EN ESPERANZA y el Fundación Internet Watch (IWF), brindó comentarios valiosos a lo largo del proceso de colaboración ".

Preocupaciones sobre la privacidad

Por supuesto, este factor de moderación humana plantea una preocupación por la privacidad. No sería la primera vez que las herramientas supuestamente utilizadas para nuestra seguridad se utilizan de forma incorrecta. Por otro lado, asuntos tan sensibles no pueden dejarse en manos de un algoritmo de IA.

Pruebas durante años

Microsoft dice que la nueva herramienta, llamada Proyecto Artemis, se ha desarrollado durante los últimos 14 meses en colaboración con The Meet Group, Roblox, Kik y Thorn, a partir de noviembre de 2018 Microsoft "360 Cross-Industry Hackathon", un evento copatrocinado por la Alianza global WePROTECT y el Alianza de dignidad infantil.

El gigante del software dice que ha utilizado con éxito las técnicas subyacentes de Project Artemis en Xbox Live "durante años". Ahora busca incorporar el conjunto de herramientas Project Artemis en Skype, su sistema de chat multiplataforma.

Aún mejor, Project Artemis ahora está disponible para cualquier empresa que desee incorporar su software. Los desarrolladores que estén interesados ​​en obtener una licencia de esta tecnología pueden comunicarse con Espina a partir de hoy, 10 de enero.

'De ninguna manera una panacea'

Microsoft advirtió que Project Artemis no acabaría con el abuso infantil en línea.

“El Proyecto Artemis es un paso significativo hacia adelante, pero de ninguna manera es una panacea”, dijo la compañía en su anuncio. “La explotación y el abuso sexual infantil en línea y la detección del acoso infantil en línea son problemas importantes. Pero no nos desanima la complejidad y la complejidad de estos problemas ".

A principios de esta semana, Apple anunció en un CES 2020mesa redonda de privacidad que escanea las cuentas de los usuarios en busca de imágenes conocidas de pornografía infantil y abuso infantil. La directora de privacidad de Apple, Jane Horvath, dijo que si Apple encuentra tales imágenes, las cuentas de usuario se marcan automáticamente, el (Londres) Telegraph informó.

Apple no especificó exactamente cómo lo hace, pero su propia descripción del proceso parece coincidir con una tecnología desarrollada conjuntamente por Microsoft y Dartmouth College llamada PhotoDNA, que según The Telegraph también es utilizado por Google, Facebook y Twitter. (PhotoDNA también se utiliza para rastrear contenido relacionado con el terrorismo.)

PhotoDNA compara nuevas imágenes con una base de datos de imágenes conocidas de abuso infantil que ya han sido detectadas y marcadas por las autoridades. También funciona con audio y video hasta cierto punto. Pero PhotoDNA no puede prevenir la preparación y el abuso futuro, como está diseñado para hacer el Proyecto Artemis.

Obtenga acceso instantáneo a noticias de última hora, las mejores críticas, grandes ofertas y consejos útiles.

Gracias por registrarse en Tom's Guide. Recibirá un correo electrónico de verificación en breve.

Había un problema. Actualice la página y vuelva a intentarlo.

Sin spam, lo prometemos. Puede darse de baja en cualquier momento y nunca compartiremos sus datos sin su permiso.