La policía noruega está dando un paso significativo en la lucha contra el abuso infantil en línea. La herramienta de IA que captó la atención internacional tras ayudar a identificar a cerca de 200 víctimas en el llamado caso Omegle está ahora en fase de despliegue nacional y será utilizada por todos los distritos policiales del país, según Digi.no.
El avance en el caso Omegle
El caso Omegle, que involucró el abuso sexual de menores facilitado a través del ahora desaparecido servicio de chat Omegle, se convirtió en un punto de referencia internacional sobre cómo se puede utilizar la tecnología avanzada en la investigación de este tipo de delitos. La herramienta noruega desempeñó un papel central en el análisis de grandes cantidades de material digital y su vinculación con víctimas concretas, algo que de otro modo habría requerido un enorme trabajo de investigación manual.
El hecho de que se identificaran casi 200 víctimas en una sola investigación ilustra el potencial que conlleva esta tecnología.
La herramienta de IA que identificó a casi 200 víctimas en el caso Omegle se está implementando ahora en todos los distritos policiales de Noruega.

Suecia mira hacia Noruega
Según Digi.no, la policía sueca carece de herramientas similares. Esto sitúa a Noruega en una posición inusual como país pionero tecnológico en el trabajo policial en este campo, y subraya que el entorno de desarrollo noruego en torno a Griffeye y herramientas asociadas ha entregado algo que marca la diferencia en la práctica, no solo en la teoría.
Sin embargo, cabe destacar que los detalles sobre qué algoritmos y conjuntos de datos sustentan exactamente la herramienta no están disponibles públicamente. Por lo tanto, los requisitos de rendimiento y la precisión deben evaluarse en función de los resultados documentados de investigaciones reales, más que en las afirmaciones de marketing de los fabricantes.

Una batalla tecnológica global contra un problema creciente
El despliegue noruego se produce en un contexto global donde la lucha contra el material de abuso digital es cada vez más exigente. Actores internacionales como Microsoft (PhotoDNA), Thorn y Google llevan tiempo trabajando tanto con el cotejo de hashes como con clasificadores basados en aprendizaje automático para detectar material conocido y desconocido.
La solución "Safer" de Thorn reporta una precisión de alrededor del 99 por ciento para imágenes de abuso conocidas. Meta afirma que el 99 por ciento de todo el material de este tipo que eliminan es detectado automáticamente por sistemas de IA. No obstante, estas cifras son proporcionadas por las propias empresas y deben leerse con cierta distancia crítica.
Material generado por IA: Un nuevo panorama de amenazas
Quizás el desafío global más grave es el crecimiento explosivo del material de abuso generado por IA (AIG-CSAM). La organización británica Internet Watch Foundation (IWF) informó de un total de 3.440 vídeos de abuso generados por IA en 2025, un aumento de más del 26.000 por ciento respecto al año anterior, cuando solo se registraron 13 vídeos de este tipo. Más de la mitad fueron clasificados en la categoría más grave.
Esto es problemático porque las herramientas tradicionales basadas en hashes no reconocen el material generado sintéticamente que no ha sido registrado previamente en bases de datos. Esto impulsa la necesidad de nuevos métodos de detección y hace que la apuesta noruega por herramientas basadas en ML sea más relevante que nunca.
¿Qué sigue ahora?
Con el despliegue nacional en todos los distritos policiales, la pregunta ahora es cómo se integrará la herramienta en la práctica investigativa diaria y qué formación recibirá el personal. La carga psicológica de los investigadores que manejan este material es un problema internacional conocido, algo que los investigadores en criminología australianos han señalado como un beneficio clave de la clasificación y el análisis asistidos por IA: los humanos no tienen que verlo todo.
La policía noruega no ha comentado públicamente el plan de implementación concreto, pero el despliegue en sí mismo indica que la tecnología se considera lo suficientemente viable y fiable para su uso operativo en todo el país.
