Informe insta a solucionar CyberTipline, el sistema para denunciar la explotación infantil en línea

0
18

Un sistema de denuncias creado hace 26 años para combatir la explotación infantil en internet no ha estado a la altura de su potencial y necesita mejoras tecnológicas y de otro tipo para ayudar a las autoridades a perseguir a los abusadores y rescatar a las víctimas, encontró un informe del Stanford Internet Observatory, un programa de investigación, enseñanza y compromiso político para el estudio del abuso en tecnologías de la información e internet.

Las soluciones a lo que los investigadores describen como un servicio “enormemente valioso” también deben llegar con urgencia, ya que las nuevas capacidades de la inteligencia artificial (IA) amenazan con empeorar sus problemas.

“Es casi seguro que, en los próximos años, CyberTipline se verá inundado de contenido (realizado) con IA de aspecto muy realista, lo que va a dificultar aún más que las fuerzas del orden identifiquen a niños reales que necesitan ser rescatados”, dijo la investigadora Shelby Grossman, una autora del informe.

El servicio fue establecido por el Congreso estadounidense como el principal frente de defensa para los niños que son explotados en internet. Por ley, las empresas de tecnología deben reportar cualquier material de abuso sexual infantil que encuentren en sus plataformas al sistema centralizado, que es operado por el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC, por sus siglas en inglés), la organización de protección infantil más grande de Estados Unidos. Después de recibir los informes, el NCMEC intenta encontrar a las personas que enviaron o recibieron el material, así como a las víctimas, si es posible. Estos informes se envían luego a las autoridades.

Si bien la gran cantidad de informes que llegan al CyberTipline abruma a las autoridades, los investigadores dicen que el volumen es solamente uno de varios problemas centrales del sistema. Por ejemplo, muchos de los informes enviados por empresas de tecnología —como Google, Amazon y Meta— carecen de detalles importantes, como información suficiente sobre la identidad del delincuente, según el informe. Esto dificulta que la policía sepa qué informes priorizar.

“Hay problemas importantes con todo el sistema en este momento, y esas grietas se convertirán en abismos en un mundo en el que la IA está generando CSAM completamente nuevos”, dijo Alex Stamos, profesor de Stanford y experto en ciberseguridad. Las iniciales CSAM (child sexual abuse materials) significan materiales de abuso sexual infantil.