INTELIGENCIA ARTIFICIAL: IMPACTO EN LA SEGURIDAD PÚBLICA, CIBERDELINCUENCIA Y CIBERSEGURIDAD

Esta documento ofrece una visión clara y práctica del impacto de la Inteligencia Artificial (IA) en la labor policial. Comienza explicando qué es la IA y por qué es clave que los cuerpos de seguridad la comprendan, sin tecnicismos pero con rigor. Se analizan casos reales donde la IA ya ayuda a la policía (predicción delictiva, análisis de redes, reconocimiento biométrico, automatización de tareas). A continuación, se detallan las principales amenazas: deepfakes, desinformación, suplantaciones, delitos sexuales digitales y los riesgos de sesgos algorítmicos. Para cada riesgo, se presentan herramientas de detección y mitigación accesibles, junto con buenas prácticas operativas. Repasamos el marco legal vigente en España y la UE, destacando las últimas reformas del Código Penal y la nueva Ley Europea de IA (RIA), que establecen qué usos están permitidos y qué prácticas están prohibidas o controladas. Finalmente, se exponen propuestas prácticas para la Policía: formación continua, uso responsable de herramientas tecnológicas, colaboración con otras instituciones y estrategias de participación comunitaria. Todo con un enfoque pedagógico y aplicable al trabajo diario de los agentes.

6/8/202538 min read

1. Introducción: ¿Qué es la IA y por qué debe entenderla la policía? La Inteligencia Artificial (IA) se refiere a sistemas informáticos capaces de realizar tareas que normalmente requieren inteligencia humana, como analizar datos, reconocer patrones, tomar decisiones simples e incluso aprender de la experiencia. En términos sencillos, la IA imita ciertas funciones del pensamiento humano mediante algoritmos y modelos matemáticos entrenados con grandes cantidades de datos. Por ejemplo, una IA puede reconocer rostros en una foto, traducir automáticamente una frase o predecir tendencias a partir de datos históricos, todo ello gracias a que ha “aprendido” patrones a partir de muchos ejemplos. Entender cómo funciona la IA es cada vez más importante para la policía. ¿Por qué? Algunas razones clave: ● Los delincuentes están aprovechando la IA para nuevas formas de crimen. Por ejemplo, hoy es posible falsificar videos o voces de personas (“deepfakes”) para engañar o extorsionar, o automatizar ataques cibernéticos. La policía debe conocer estas amenazas para identificarlas y combatirlas eficazmente. ● La IA ofrece herramientas útiles que pueden mejorar el trabajo policial. Desde sistemas que ayudan a analizar grandes volúmenes de datos (ej. miles de horas de CCTV) hasta programas que priorizan recursos policiales según probabilidades de delito, la tecnología bien usada puede hacer a la policía más efectiva y proactiva. ● Decisiones informadas: Si los agentes entienden las bases de la IA, podrán tomar decisiones informadas sobre su uso (o no uso) en el día a día. Esto incluye saber sus limitaciones y riesgos (por ejemplo, sesgos o errores que pueda tener un algoritmo) y no confiar ciegamente en “lo que diga la máquina”. ● Protección de derechos y legalidad: La policía, como garante de la ley, debe asegurarse de que las aplicaciones de IA respeten los derechos de las personas y las leyes vigentes. Para ello es necesario comprender al menos de forma básica cómo funcionan estas tecnologías, qué datos utilizan y qué implicaciones tienen en privacidad, ética y legalidad.

2. Aplicaciones útiles de la IA para cuerpos policiales A pesar de los desafíos, la IA ofrece oportunidades muy interesantes para apoyar la labor policial. Repasemos algunas aplicaciones reales (ya en uso) y futuras, adaptadas al contexto de la seguridad pública. Estas aplicaciones abarcan desde la predicción de delitos antes de que ocurran, hasta la mejora de la atención al ciudadano. Veamos cada caso: ● Policía predictiva y análisis delictivo: Una aplicación emergente es el uso de IA para analizar datos históricos de delincuencia y detectar patrones que ayuden a prevenir delitos futuros o asignar mejor los recursos. Un ejemplo es el desarrollo en España de sistemas de patrullaje predictivo: en 2015 se creó una herramienta piloto para la Policía Nacional capaz de pronosticar “puntos calientes” de criminalidad a Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad

3 partir de patrones espacio-temporales, orientando dónde conviene reforzar la vigilancia. Asimismo, el sistema VioGén (de la Secretaría de Estado de Seguridad) incorporó en 2019 algoritmos que predicen el riesgo en casos de violencia de género – uno calcula la probabilidad de reincidencia del agresor y otro la probabilidad de feminicidio. Según el nivel de riesgo que estima la IA en VioGén, se indican medidas de protección policial apropiadas en cada caso. Estos sistemas ilustran cómo la IA puede ayudar a anticiparse al delito y priorizar la actuación policial. ● Atención al ciudadano y emergencias: La IA también se está usando para mejorar la comunicación con la ciudadanía. Un caso reciente es chatbots inteligentes que asisten a víctimas o denunciantes. Por ejemplo, la Policía Local de Valencia participa en un proyecto europeo con un chatbot llamado Aino enfocado en víctimas de violencia de género. Aino es un “agente virtual” capaz de mantener un diálogo natural con las víctimas, orientarlas e incluso detectar casos de maltrato no denunciados, ofreciendo una vía de comunicación no intrusiva. Importante: Aino no solicita datos personales ni requiere instalar nada; basta con acceder a una web para chatear de forma anónima. Esta herramienta, en fase piloto, busca ayudar al ~80% de víctimas que no se atreven a denunciar, ofreciéndoles apoyo inmediato y confidencial. Es un ejemplo de cómo la IA (procesamiento de lenguaje natural) puede mejorar la atención ciudadana en ámbitos sensibles. En el futuro, podríamos ver asistentes virtuales en comisarías o en páginas web municipales, resolviendo dudas frecuentes de los vecinos (horarios, trámites) o recogiendo avisos de forma automatizada para agilizar la respuesta policial. ● Automatización de tareas administrativas: Un beneficio práctico de la IA es reducir la carga burocrática de los agentes, liberando tiempo para labores en la calle. En algunas policías de EE.UU. ya prueban sistemas de IA que redactan borradores de informes a partir de dictados de voz de los agentes, acelerando la elaboración de atestados y papeleo rutinario. Imaginemos terminar una intervención y que un asistente de IA nos genere el informe básico en segundos, listo para revisar y firmar. Esto es posible con tecnologías de procesamiento del lenguaje que entienden la voz del agente y generan texto estructurado. Otra tarea que la IA puede automatizar es la revisión de video vigilancia: en vez de que un policía deba mirar horas de grabaciones, un software inteligente puede detectar eventos (p. ej. una pelea, un objeto abandonado, una intrusión en zona restringida) y alertar solo cuando ocurre algo relevante. Esto optimiza la vigilancia 24/7 sin fatigar al personal. ● Análisis de redes e inteligencia: Las herramientas de Big Data e IA permiten a las Fuerzas de Seguridad examinar grandes volúmenes de datos en busca de amenazas. Por ejemplo, ya es factible analizar publicaciones en redes sociales mediante algoritmos para detectar indicios de delitos o riesgos. Un sistema de IA puede rastrear palabras clave, patrones de interacción o imágenes sospechosas que apunten a, digamos, un caso de ciberacoso o la planificación de un acto violento. De hecho, se está investigando el uso de IA para alerta temprana contra terrorismo: identificar en foros y RRSS comportamientos que sugieran radicalización o preparación de atentados. Del mismo modo, la IA puede ayudar en el análisis de redes criminales: dada información de llamadas telefónicas intervenidas (con orden judicial), correos electrónicos o transacciones, un algoritmo puede extraer conexiones entre personas, detectar patrones de comunicación inusuales y básicamente Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad DAVID TEJEDOR RODRIGUEZ

4 “mapear” una organización delictiva más rápido que un analista humano. Por último, en investigaciones digitales (informática forense), la IA puede clasificar automáticamente miles de archivos incautados (imágenes, chats), priorizando aquellos más relevantes (por ejemplo, identificando imágenes potencialmente ilícitas como pornografía infantil para su revisión urgente). ● Biometría e identificación: Uno de los campos de IA más útiles para la policía es el reconocimiento de patrones biométricos, como rostros, huellas dactilares o voces. En España, la Policía Nacional ha implementado recientemente un sistema automático de reconocimiento facial llamado ABIS (Automated Biometric Identification System). Desde agosto de 2023, ABIS emplea algoritmos de IA para comparar en segundos una foto o vídeo de un sospechoso con una base de datos de 4,4 millones de fichas policiales (rostros de detenidos). En sus primeros meses se ha usado en más de 400 investigaciones, logrando identificación positiva de implicados en ~40% de los casos. ¿Cómo funciona? El agente carga la imagen desconocida y el sistema le devuelve una lista ordenada de posibles coincidencias (los rostros más parecidos en la base). Luego, peritos humanos verifican manualmente las primeras coincidencias para confirmar la identidad. Importante: ABIS no decide por sí solo, siempre requiere la confirmación de dos operadores expertos que coincidan en la identificación. Además de rostros, la IA lleva años ayudando en identificación de huellas dactilares y ADN, acelerando comparativas en bases de datos. También existen sistemas de reconocimiento de matrículas y características de vehículos mediante vídeo, útiles para localizar coches sospechosos en la vía pública en tiempo real. Ejemplo: La IA ya se utiliza en España para vigilar espacios públicos y prevenir el vandalismo. Granada fue la primera ciudad en implantar un sistema de visión artificial que detecta pintadas grafiteras casi al instante de producirse. Desarrollado por la startup local Innovasur, este sistema analiza en tiempo real las imágenes de cámaras de vigilancia urbanas, reconociendo cambios característicos de una pintada (aerosol sobre muros). En cuanto el algoritmo detecta un graffiti, envía una alerta con la ubicación y hora exacta a los agentes de Policía Local en patrulla, permitiendo pillarlos in fraganti o limpiar rápidamente la pintada. Incluso puede avisar de merodeos sospechosos (personas rondando donde no deberían) que suelen preceder actos vandálicos. Este caso muestra cómo la IA puede multiplicar la eficacia de la vigilancia urbana: más ojos electrónicos cuidando la ciudad y avisando al policía solo cuando pasa algo. En general, la visión artificial con IA está empezando a utilizarse para detectar conductas anómalas en espacios públicos (riñas, abandonos de objetos, intrusiones), lo que en un futuro cercano será un apoyo valioso para las policías en el control del entorno urbano. En síntesis, las aplicaciones de IA al servicio policial son muy variadas. Podemos resumir su utilidad principal en tres áreas: (1) Aumentar la capacidad analítica – la máquina procesa datos masivos y encuentra lo que importaría años detectar manualmente; (2) Automatizar tareas repetitivas – agilizando papeleo, búsquedas de información, vigilancia rutinaria, etc., para que el agente se enfoque en lo crítico; y (3) Anticipar y prevenir – dando herramientas para actuar antes de que ocurra el delito o escale un problema, en lugar de solo reaccionar después. Todo esto, por supuesto, complementando (no sustituyendo) la labor humana: la Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad DAVID TEJEDOR RODRIGUEZ 5 última palabra y la interpretación final siguen siendo del policía. Veamos ahora el reverso de la moneda: ¿qué riesgos y amenazas trae la IA en el terreno de la seguridad?

3. Riesgos y amenazas asociados al auge de la IA Así como la IA ofrece ventajas, también abre la puerta a nuevos riesgos y formas de delincuencia. Es vital que los agentes conozcan estas amenazas para reconocerlas en la calle o en Internet. A continuación, detallamos los principales riesgos ligados a la IA en seguridad pública: ● Deepfakes y desinformación audiovisual: El término deepfake alude a contenidos audiovisuales (videos, audios o imágenes) ultrafalsificados mediante IA, de tal modo que presentan a una persona haciendo o diciendo algo que nunca ocurrió. La calidad de algunos deepfakes actuales es asombrosamente alta: pueden poner palabras en la boca de un líder político imitando su voz y gestos, o hacer que la imagen de una persona realice actos que jamás hizo. Esto obviamente se presta a campañas de desinformación y engaño masivo. Por ejemplo, en 2023 aparecieron videos falsos del presidente de Ucrania ordenando rendirse (propaganda bélica) y audios sintéticos que hundieron la reputación de un candidato en unas elecciones europeas. Los deepfakes se usan para difundir noticias falsas de gran impacto visual, erosionando la confianza pública en la información. Un ciudadano podría ver en redes un vídeo de nuestro Alcalde anunciando una falsa emergencia y creerlo auténtico. ¿Imaginen el caos?. Por eso, las fake news potenciadas con IA son un desafío para el orden público. La policía debe estar alerta ante contenidos virales sospechosos, especialmente si provocan reacciones peligrosas (pánico, violencia). Distinguir un video real de uno falso será cada vez más difícil a simple vista, requiriendo técnicas forenses especializadas (que veremos más adelante). En resumen, la IA hace más fácil y barata la creación de desinformación convincente, lo que puede amenazar procesos democráticos, agravar conflictos sociales o generar alarmas infundadas. ● Contenido sexual sintético no consentido: Uno de los usos más perversos de los deepfakes es la creación de pornografía falsa con la imagen de personas reales sin su consentimiento. Mediante IA, un delincuente puede tomar fotos de la cara de una mujer (por ejemplo obtenidas de redes sociales) y superponerlas en videos pornográficos, logrando que parezca auténtico. Estas montajes sexuales sintéticos, al viralizarse, destruyen la intimidad y el honor de la víctima, provocando un grave daño psicológico. Lamentablemente se ha reportado un incremento de este tipo de violencia digital, muchas veces contra mujeres jóvenes, celebridades o incluso compañeras de trabajo, a modo de venganza o coacción. En España, hasta ahora se perseguían estos hechos con figuras genéricas (como delitos contra la integridad moral, amenazas o revelación de secretos, según el caso). Conscientes del vacío legal, las autoridades están actuando: el Gobierno ha propuesto reformar el Código Penal para tipificar expresamente como delito la difusión de deepfakes sexuales sin consentimiento. Este proyecto de ley (marzo 2025) califica estas ultrafalsificaciones con rostro o cuerpo de persona como delito, siendo una iniciativa pionera en Europa. En la práctica policial, esto significa que pronto quien genere o comparta un video sexual falso de otra persona podrá ser acusado de delito, Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad

6 facilitando la persecución penal. Mientras tanto, como agentes debemos tomar muy en serio las denuncias de este tipo: son una forma de violencia sexual digital, a menudo acompañadas de acoso o extorsión (sextorsión) – p.ej. “pago para que no publique este video tuyo”. Ninguna víctima debe sentir vergüenza de reportarlo; la culpa es del agresor que creó el contenido falso. Además, con menores de edad es directamente pornografía infantil, aunque sea sintética, y está gravemente penado (art. 189 CP). ● Suplantaciones de identidad y fraudes con IA: Más allá de los vídeos espectaculares, la IA también permite falsificar identidades de forma silenciosa. Por ejemplo, hoy existe software de clonación de voz: con apenas unos minutos de grabación de la voz de alguien, se entrena un modelo que puede luego hablar cualquier frase imitando ese timbre y entonación. Esto ya se ha empleado en fraudes telefónicos (“el timo del CEO”): los estafadores clonan la voz de un directivo y llaman a un empleado para que realice una transferencia urgente, creyendo que obedece órdenes legítimas. También se pueden generar fotos falsas muy realistas de una persona inexistente (o de alguien suplantando a otro). Imaginemos un delincuente creando una identidad ficticia por IApara ganarse la confianza de una víctima en redes sociales (casos de grooming o estafas románticas) o para cruzar un control con documentación falsa. La IA facilita estos engaños sofisticados: un chatbot podría simular ser una persona real chateando, con estilo convincente. Para la policía, esto significa que tradicionales delitos de estafa, usurpación de identidad o falsificación adquieren nuevas formas digitales. Tendremos que evolucionar en técnicas de verificación: ya no basta con “oír la voz” para confirmar que es nuestro jefe por teléfono, ni con ver una foto en un DNI aparentemente normal. Un riesgo añadido es la dificultad probatoria: ¿cómo demostrar que una grabación de audio fue generada por IA y no es real? Son retos periciales importantes. Conviene que los agentes sepamos que estas herramientas existen, para desconfiar de pruebas que puedan haber sido manipuladas y para asesorar al ciudadano sobre nuevas modalidades de engaño (por ejemplo, un vecino nos cuenta que recibió una videollamada extraña de un familiar pidiendo dinero – podría ser un deepfake en vivo). ● Sesgos algoríticos y discriminación: No todos los riesgos vienen de los delincuentes; a veces el propio uso institucional de la IA puede generar problemas si no se hace bien. En particular, los sesgos en los algoritmos son una amenaza a los derechos fundamentales. Un sistema de IA aprende de datos del pasado: si esos datos reflejan prejuicios o desigualdades, la IA puede perpetuarlos o incluso agravarlos. En el contexto policial, esto es crítico. Por ejemplo, si un algoritmo de “policía predictiva” se entrena con historiales de detenciones que están sobrerrepresentadas en ciertos barrios (quizá por prejuicios previos o factores socioeconómicos), podría predecir más delito en esos mismos barrios, justificando mayor vigilancia allí en un ciclo vicioso. Es decir, sin quererlo se podría discriminar a comunidades desfavorecidas o minorías, enfocando desproporcionadamente la acción policial sobre ellas debido a un bias en la IA. Un caso real: la herramienta VeriPol que mencionamos antes – implementada en todas las comisarías españolas en 2018 para detectar denuncias falsas – mostró indicios de sesgo. Este algoritmo analizaba el texto de la denuncia y marcaba probabilidad de falsedad. Sin embargo, expertos independientes criticaron que no consideraba Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad DAVID TEJEDOR RODRIGUEZ 7 variaciones lingüísticas o culturales, lo que podría perjudicar a denunciantes extranjeros o de distinto nivel educativo, cuyos relatos quizás no encajaban en el patrón “típico” de una denuncia veraz que el algoritmo había aprendido. De hecho, se detectó que el uso de ciertas palabras como “navaja” desencadenaba sospecha automática de falsedad, sesgo posiblemente nacido de los casos de entrenamiento. Este tipo de fallos ponen en peligro la igualdad ante la ley. Otro ejemplo: los sistemas de reconocimiento facial suelen tener menor precisión con personas de piel oscura o mujeres, debido a que inicialmente se entrenaron con más rostros de personas caucásicas o hombres. Esto ha llevado a identificaciones erróneas e injustas detenciones en países donde se usó indiscriminadamente, generando protestas de movimientos como Black Lives Matter en EE.UU. (que relacionó esta tecnología con discriminación policial). En Europa se ha tomado nota y se tiende a regular con cautela estas herramientas para evitar sesgos (lo veremos en el marco legal). En resumen, un uso acrítico de IA por las fuerzas de seguridad puede vulnerar derechos si la tecnología está sesgada. Es imprescindible combinar la IA con supervisión humana y evaluaciones constantes de equidad. La máquina debe ser una ayuda, no una autoridad incuestionable. Si un “algoritmo policial” nos sugiere algo que va contra nuestro criterio o parece injusto, debemos cuestionarlo y analizar por qué. ● Amenazas cibernéticas potenciadas por IA: Por último, la IA también puede usarse para potenciar ciberataques y malware. Por ejemplo, ya existen programas maliciosos que emplean IA para evadir antivirus, mutando su código o su comportamiento. También se teme la llegada de ataques autónomos: bots gestionados por IA que identifiquen vulnerabilidades en sistemas informáticos y las exploten sin intervención humana. Otro riesgo es la generación automática de phishings altamente personalizados – la IA puede escribir correos engañosos imitando perfectamente el estilo de una persona (lo que antes se llamaba “spear phishing” ahora a escala masiva). Incluso en ataques de fuerza bruta o descifrado de contraseñas, la IA acelera el proceso al detectar patrones. Todo esto aumenta la superficie de ciberdelincuencia. Un cuerpo policial local podría verse afectado si, por ejemplo, un ransomware guiado por IA ataca la red del ayuntamiento o si los delincuentes usan IA para interceptar comunicaciones policiales. Por ello, las áreas de ciberseguridad deben reforzarse a la par que avanza la IA: tanto para usar IA defensiva (p.ej., sistemas inteligentes que detecten intrusiones en la red municipal) como para estar preparados ante ataques asistidos por IA. Aunque este apartado técnico quizás afecta más a unidades especializadas (brigadas de delitos tecnológicos, etc.), es importante que todos los agentes tengamos conciencia de que la IA es un arma de doble filo: no solo la usaremos nosotros, también los “malos” la están usando. En sintesis, los riesgos van desde la erosión de la confianza pública (por fake news y deepfakes), pasando por nuevas modalidades de delito digital (suplantaciones, estafas automatizadas), hasta desafíos internos como evitar sesgos y malas prácticas en la propia policía. La respuesta a estos retos no es huir de la tecnología, sino conocerla para gestionarla con responsabilidad. Justamente, en la siguiente sección abordaremos qué herramientas existen para detectar y mitigar estos riesgos de la IA. Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad DAVID TEJEDOR RODRIGUEZ 8 4. Herramientas de detección y mitigación al alcance de las fuerzas policiales Frente a las amenazas mencionadas (deepfakes, desinformación, suplantaciones, etc.), la buena noticia es que también la propia IA y otras tecnologías nos brindan herramientas para combatirlas. Aquí resumimos algunas herramientas y estrategias accesibles que los agentes pueden utilizar o que están siendo desarrolladas para mitigar riesgos: ● Detección de deepfakes (videos/fotos falsos): Han surgido varias herramientas especializadas en analizar contenido multimedia y descubrir si ha sido manipulado por IA. Por ejemplo, la empresa Intel ha desarrollado FakeCatcher, un software que detecta vídeos falsos en tiempo real buscando “pistas de veracidad”en las imágenes (microexpresiones, patrones de color de la piel al latir el pulso, etc.), logrando tasas de acierto superiores al 90%. Otras soluciones como Sentinel o Sensity permiten cargar un vídeo o imagen sospechosa y generan un informe forense indicando si hay manipulación digital y en qué zonas del medio se observa. Sensity, por ejemplo, es utilizada por gobiernos y empresas para monitoreo en tiempo real de amenazas visuales, pudiendo escanear grandes volúmenes de contenido en busca de signos de deepfake. Muchas de estas herramientas combinan múltiples técnicas: detección de inconsistencias en rostros (parpadeo antinatural, expresiones congeladas), análisis de audio (voz robotizada o síncronía labial imperfecta), revisión de metadatos del archivo y búsqueda inversa en internet (para ver si el video ya existía antes). Si bien algunas plataformas son de pago o para entidades (p. ej. orientadas a bancos para evitar fraudes de identidad), también hay recursos abiertos: la Unión Europea patrocinó un proyecto llamado WeVerify, que proporciona una extensión de navegador gratuita para verificar imágenes y videos en línea. WeVerify integra búsquedas inversas, división de videos en fotogramas para análisis y otras utilidades útiles para periodistas y policías en la lucha contra la desinformación. Consejo práctico: Ante un video dudoso que circula por redes, un agente puede usar técnicas básicas como fijarse en los detalles físicos: a veces los deepfakes fallan en reflejos de gafas, en la sincronización de la sombra de la boca con el audio o en movimientos bruscos donde la cara se difumina. Ningún indicador por sí solo es infalible, pero varios signos juntos pueden delatar la falsificación. Para imágenes, un truco es utilizar la búsqueda inversa de Google u otras (por ejemplo, Yandex) para ver si la foto original proviene de otro contexto. En casos críticos, se puede recurrir a laboratorios forenses o equipos especializados (la Policía Nacional y Guardia Civil cuentan con unidades de ciberdelincuencia con herramientas avanzadas de este tipo). La clave es no dar por bueno contenido sensible sin verificar, sobre todo si puede tener consecuencias graves. ● Contrarrestar la desinformación online: Además de verificar pieza a pieza, existen herramientas de vigilancia de redes que ayudan a detectar campañas coordinadas de bulos. Por ejemplo, algoritmos que identifican bots(cuentas automatizadas) difundiendo cierto mensaje inusualmente, o que monitorean tendencias para alertar de posibles bulos virales que afecten a la seguridad (como falsos rumores de secuestros de niños que puedan generar alarma social). En el entorno Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad DAVID TEJEDOR RODRIGUEZ 9 hispanohablante, organizaciones como Maldita.es o Newtral ofrecen recursos útiles: Maldita tiene un bot de Whatsapp donde cualquier ciudadano (y por supuesto un policía) puede enviar un posible bulo y reciben ayuda para verificarlo. También publican desmentidos de hoaxes comunes, que pueden servirnos para estar al día de las estafas de moda. Como agentes locales, una forma de mitigar efectos de desinformación es comunicar rápido y claramente a la población cuando detectemos un bulo peligroso circulando. Por ejemplo, si en un barrio alguien difunde por Facebook un pánico infundado (digamos, “están envenenando el agua del grifo”), la policía puede, en coordinación con el ayuntamiento, publicar un desmentido oficial en redes y quizá organizar una charla vecinal para aclarar la situación. La transparencia y la información veraz son nuestras aliadas para neutralizar la desinformación. ● Protección contra suplantaciones y fraudes: Para combatir las suplantaciones de identidad facilitadas por IA, lo primero es la prevención y concienciación. Por ejemplo, muchas jefaturas están avisando a comerciantes y vecinos de que existe el “timo de la voz clonada”, recomendando verificar por otro canal cualquier orden sospechosa (si el “jefe” pide algo raro por teléfono, devolver la llamada a su número conocido, etc.). En cuanto a herramientas, en el ámbito bancario se emplean soluciones de biometría de voz inversa: sistemas que analizan una llamada entrante y pueden alertar “esta voz parece clonada digitalmente” por matices imperceptibles para el humano. No es descabellado pensar que en el futuro la policía disponga de dispositivos portátiles o apps para verificar vídeos o audios en el momento (así como hoy tenemos lectores de huella, mañana quizá verificadores de autenticidad multimedia). Mientras tanto, algo accesible es usar la experiencia y el protocolo: si un ciudadano aporta como prueba un audio o vídeo crucial, se puede enviar a análisis forense técnico antes de actuar solo en base a él. Para la documentación falsificada por IA (imágenes de rostros en DNIs, etc.), se sigue recomendando el método tradicional de verificación cruzada: comprobar datos, hologramas, contrastar con bases oficiales. La IA generativa aún puede fallar en detalles de documentos de identidad, y esos pequeños fallos se detectan con ojo entrenado. Además, surgen iniciativas legislativas que obligarán a contenidos generados por IA a identificarlo(watermarking). Por ejemplo, la Ley europea de Servicios Digitales y la futura normativa de IA exigirán a las plataformas que un anuncio político que use deepfake lo indique claramente, o que las imágenes creadas por IA incluyan metadatos señalándolo. Todo esto ayudará a la mitigación en origen. ● Mitigar sesgos y errores algorítmicos: La mejor “herramienta” aquí es más organizativa que tecnológica: consiste en implementar controles humanos y auditorías a los sistemas de IA que usemos. Si un cuerpo policial adopta un software de IA (sea para análisis de datos, reconocimiento facial, etc.), debe acompañarse de formación a los agentes que lo usarán, para que entiendan sus resultados, y de protocolos que eviten abusos. Por ejemplo, si utilizamos un sistema que puntúa riesgo de reincidencia (como VioGén), asegurar que no se toma como verdad absoluta sino como apoyo a la valoración profesional del agente. Asimismo, se deberían recopilar estadísticas de aciertos y errores del sistema en la práctica real, e idealmente permitir auditorías independientes para verificar que no introduce discriminación. En España, organismos como la Agencia de Protección de Datos Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad DAVID TEJEDOR RODRIGUEZ 10 (AEPD) han emitido directrices éticas para el uso de IA, enfatizando principios de transparencia, necesidad y proporcionalidad especialmente cuando afecta derechos de las personas. Una medida concreta que se está adoptando es la figura del delegado de IA (similar al delegado de protección de datos), que supervise los algoritmos usados en la Administración. En cuanto a herramientas técnicas, ya existen programas de auditoría algorítmica que evaluan sesgos: por ejemplo, se pueden probar los outputs de una IA con inputs simulados de distintos perfiles demográficos para ver si varía injustificadamente. También la diversidad de datos de entrenamiento es clave: si se encargase a una empresa un nuevo sistema de IA policial, habría que exigir que los datos con que se entrene sean variados y representativos de nuestra población para minimizar sesgos. ● Ciberseguridad impulsada por IA: Así como los atacantes la usan, la IA también potencia la defensa. Un área en auge es la detección autónoma de intrusiones: software de ciberseguridad que aprende el patrón normal de funcionamiento de una red y lanza alertas cuando detecta anomalías que podrían indicar un hackeo. También se aplica IA para analizar malware de forma más rápida – por ejemplo, Microsoft y Google emplean IA en sus antivirus para identificar comportamiento sospechoso de programas desconocidos. Para las policías locales, una herramienta accesible es aprovechar servicios de seguridad de instituciones mayores: el Instituto Nacional de Ciberseguridad (INCIBE) en España ofrece asesoramiento y herramientas gratuitas para ayuntamientos en materia de protección digital. Mantener los sistemas actualizados, usar gestores de contraseñas robustos y doble factor de autenticación, etc., siguen siendo medidas básicas efectivas contra ataques, con o sin IA. Y en caso de un incidente, notificar de inmediato a los expertos (la Unidad de Delitos Telemáticos de GC, por ejemplo) para contener el daño. En síntesis, por cada amenaza hay esfuerzos en marcha para contrarrestarla. Es como un juego del gato y el ratón tecnológico: se crean deepfakes, pero también detectores de deepfakes; la IA facilita fraudes, pero también puede ayudar a identificarlos. Como policías, es útil mantenernos al día de estas herramientas. Al final del documento incluimos una hoja de recursos recomendados (muchos de ellos gratuitos o públicos) que pueden ser de ayuda en vuestra labor. Antes de ir a esas recomendaciones prácticas, revisemos el marco legal vigente que regula todo esto. ¿Qué dice la ley española sobre el uso de IA, la ciberdelincuencia y la protección de datos? ¿Qué cambios normativos vienen en camino? Lo aclaramos a continuación. 5. Marco jurídico vigente en España y la UE sobre IA, ciberseguridad y ciberdelincuencia La incorporación de la IA y las nuevas tecnologías al ámbito policial está respaldada (y limitada) por un conjunto de leyes y reglamentos que conviene conocer. A continuación, hacemos un repaso del marco jurídico actualizado a 2025, destacando lo más relevante para la policía: Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad DAVID TEJEDOR RODRIGUEZ 11 Código Penal y legislación española: Nuestro Código Penal ya tipifica diversos delitos informáticos y relacionados con el uso malicioso de datos. Por ejemplo, el acceso ilícito a sistemas (hacking) está penado, igual que dañar o borrar datos de terceros (sabotaje informático) y, por supuesto, delitos clásicos adaptados al medio digital como estafas por internet, amenazas o coacciones realizadas online, etc. Sin embargo, ante fenómenos novedosos como los deepfakes, se han identificado lagunas. Como mencionamos, en marzo de 2025 el Gobierno presentó un Proyecto de Ley Orgánica que reformará el Código Penal para abordar específicamente dos áreas emergentes: los deepfakes sexuales no consentidos y el grooming online. Esta reforma, aún en trámite, propone penalizar expresamente la creación o difusión de deepfakes usando la imagen de alguien sin permiso con contenido sexual explícito. Asimismo, endurece el castigo del grooming (engaño pederasta por internet) considerándolo circunstancia agravante en delitos sexuales. También introduce como pena accesoria la prohibición de acceso a entornos digitales al condenado (por ej., prohibirle usar redes sociales), buscando prevenir la reincidencia en estos delitos digitales. Todo esto muestra la fuerte respuesta legal que se está dando a estas amenazas de IA contra la intimidad y los menores. Además de este proyecto, recordemos que desde 2015 el CP español ya castigó la difusión no consentida de imágenes íntimas reales(el llamado “revenge porn”, art. 197.7 CP), que se podría aplicar análogamente a casos de deepfakes íntimos hasta que entre en vigor la ley específica. Y para delitos de usurpación de identidad, aunque no haya uso de IA, existe el art. 401 CP (usurpación estado civil) y tipos de estafa que cubren muchas situaciones de suplantación. En resumen, el CP se está poniendo al día: la policía contará con herramientas legales más claras para perseguir a quienes utilicen la IA con fines delictivos, especialmente en materia de violencia digital. Por otro lado, en cuanto a ciberseguridad, tenemos la Ley Orgánica 10/2022 de Protección de Infraestructuras Críticas, que incluye ciberataques graves dentro de la definición de atentados contra infraestructuras esenciales, permitiendo actuar contra ellos. Protección de Datos y privacidad: Un aspecto central al usar IA (especialmente con datos personales, como imágenes de ciudadanos) es cumplir la normativa de protección de datos. En España y la UE rigen el RGPD (Reglamento General de Protección de Datos) y su desarrollo nacional, la LOPDGDD 3/2018. Estos marcos legales establecen principios como minimización de datos, finalidad legítima, seguridad y confidencialidad. Para la policía existen ciertas excepciones (por motivos de seguridad pública se pueden tratar datos sin algunos consentimientos, etc.), pero siempre bajo el principio de proporcionalidad y con garantías. Por ejemplo, al usar un sistema de reconocimiento facial como ABIS, se está procesando un dato biométrico sensible (el rostro) – solo se justifica legalmente porque se aplica a identificar criminales en investigaciones concretas, con base legal en la Ley de Fuerzas y Cuerpos de Seguridad y cumpliendo salvaguardas. La Agencia Española de Protección de Datos (AEPD) vigila de cerca estas aplicaciones. En el caso de ABIS, el Ministerio del Interior indicó que la AEPD no había recibido aún reclamaciones ni consultas específicas, por lo que no había iniciado una investigación sobre el sistema. No obstante, la AEPD ha emitido informes sobre el uso de reconocimiento facial, subrayando que no se Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad DAVID TEJEDOR RODRIGUEZ 12 permitiría su uso masivo en tiempo real en espacios públicos sin base legal específica. De hecho, la nueva regulación europea de IA (que comentaremos enseguida) prohíbe expresamente esas identificaciones biométricas en tiempo real en lugares públicos. Así que, a nivel de protección de datos, la policía debe coordinarse con Delegados de Protección de Datos cuando quiera implementar cualquier herramienta de IA que maneje datos de ciudadanos (cámaras inteligentes, análisis de redes con datos personales, etc.), asegurando realizar evaluaciones de impacto y medidas de seguridad adecuadas. Vale recordar que la LOPDGDD incluyó en 2018 una sección de Derechos Digitales (Título X) que, por ejemplo, reconocen derechos como la neutralidad de internet, la desconexión digital, etc., reflejando la importancia de equilibrar innovación con derechos. Marco legal europeo sobre IA: En la Unión Europea se ha dado un paso histórico con la aprobación de la Ley Europea de Inteligencia Artificial (AI Act), el primer marco jurídico integral sobre IA del mundo. Se trata de un Reglamento europeo que entró en vigor en 2024 y que comenzará a ser de pleno cumplimiento en 2025. Al ser un reglamento, es directamente aplicable en todos los países, creando unas reglas comunes. ¿Qué establece? En esencia, la Ley de IA sigue un enfoque basado en niveles de riesgo de las aplicaciones de IA: ● Sistemas de riesgo inadmisible (prohibidos): Son aquellos usos de IA que se consideran una amenaza muy grave para derechos fundamentales o la seguridad. Están prohibidos en la UE desde febrero de 2025. Aquí figuran, por ejemplo: los sistemas de identificación biométrica remota en tiempo real en públicos(como cámaras escaneando caras de viandantes para buscar delincuentes – salvo excepciones muy tasadas); los sistemas de puntaje social al estilo de “nota ciudadana” (valorar a personas por su comportamiento o características para discriminarlas, algo que se ha visto en otras latitudes); las IA que utilizan técnicas manipuladoras subliminales para influir en el comportamiento de alguien sin su consentimiento (imaginemos anuncios personalizados explotando miedos subconscientes); o los sistemas que infieren emociones de la gente en contextos como entrevistas de trabajo, instituciones educativas, etc., para tomar decisiones sobre ellas. Todos esos están vetados por considerarse contrarios a nuestros valores (dignidad, privacidad, no discriminación). Nota:En el proceso legislativo también se discutió prohibir la llamada policía predictiva generalizada, por sus riesgos de sesgo, aunque el texto final prohíbe explícitamente solo si implica puntuación social injusta; aún así, los sistemas policiales de alto riesgo quedan muy vigilados. ● Sistemas de alto riesgo: Son aplicaciones de IA que, sin prohibirse, pueden afectar significativamente a la salud, seguridad o derechos si fallan o tienen sesgos. Muchos usos en seguridad pública entran aquí (por ejemplo, un algoritmo que ayuda a decidir si conceder la libertad condicional a un preso sería alto riesgo; uno de gestión del tráfico también; el reconocimiento facial no en tiempo real para investigación policial sería alto riesgo). La ley impone requisitos estrictos a estos sistemas antes de que puedan usarse. Entre ellos: evaluaciones de conformidad antes de salir al mercado, obligación de tener documentación técnica exhaustiva, asegurar la calidad de los datos de entrenamiento (que sean representativos, pertinentes y sin sesgos en la medida de lo posible), garantizar trazabilidad y registro de las Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad DAVID TEJEDOR RODRIGUEZ 13 operaciones del sistema (log de cómo llegó a cierta decisión), y mantener una supervisión humana apropiada en su funcionamiento. Además, los proveedores de estos sistemas tendrán que implementar gestión de riesgos continua durante todo el ciclo de vida del producto. En términos prácticos, si mañana una policía local quiere usar un software de IA para, digamos, analizar patrones de delitos, deberá asegurarse de adquirir uno que cumpla con estas certificaciones o requisitos que marca el Reglamento. ● Sistemas de riesgo limitado y mínimo: La ley define otras dos categorías. Los de riesgo limitado (como sistemas de IA que interactúan con personas, tipo un chatbot informativo) requieren transparencia: por ejemplo, que se informe al usuario de que está hablando con una IA y no con una persona. Esto atañe a la atención ciudadana: si un ayuntamiento pone un chatbot policial, deberá avisar “soy una inteligencia artificial, en qué puedo ayudarte”. Y los de riesgo mínimo (la mayoría, como filtros de spam, recomendaciones de series en Netflix) no llevan obligaciones especiales más allá de las generales de respeto a la normativa. Para garantizar el cumplimiento de esta Ley de IA en España, se ha creado la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA). Es un organismo nuevo, con sede en A Coruña, encargado de supervisar y hacer cumplir el Reglamento de IA en nuestro país. Desde agosto de 2025, la AESIA tendrá plena potestad sancionadora: podrá investigar de oficio o a raíz de denuncias, e imponer multas de hasta 35 millones de euros o el 7% de la facturación anual a quienes operen sistemas de IA prohibidos o incumplan los requisitos legales. Esto incluye tanto a empresas proveedoras como a entidades usuarias de la IA. En el contexto policial, si un ayuntamiento o cuerpo introdujera por su cuenta una herramienta de IA contraviniendo las prohibiciones (por ejemplo, cámaras con reconocimiento facial en la calle sin base legal), la AESIA podría intervenir. Por tanto, es fundamental que las policías locales coordinen cualquier iniciativa de IA con este marco: consultando con la AESIA o con SEDIA (Secretaría de Estado de Digitalización e IA) ante dudas, y asegurando que los contratos con proveedores de tecnología exijan conformidad con el Reglamento (CE) de IA. Más allá de la Ley de IA, en Europa también está vigente desde 2016 la Directiva NIS (y su actualización NIS2 en 2023) que obliga a proteger adecuadamente las redes y sistemas de información críticos, lo que se relaciona con ciberseguridad para administraciones locales. Y no olvidemos la Carta de Derechos Digitales presentada en España (un documento de referencia no vinculante) que proclama derechos como el derecho a la identidad digital veraz, a la no discriminación algorítmica, etc., principios que inspiran las normas. Así las cosas, el marco legal actual busca equilibrar innovación y seguridad: Por un lado, se promueve la adopción de IA bajo estándares europeos (el Reglamento IA uniforma las reglas del juego, similar a lo que fue el RGPD en privacidad). Por otro lado, se protege al ciudadano frente a abusos: penalizando conductas delictivas nuevas (deepfakes), prohibiendo usos de IA contrarios a derechos, y vigilando que la tecnología que se implemente sea fiable, justa y transparente. Para una policía, cumplir la ley de IA no es solo evitar multas, sino garantizar la legitimidad de nuestras actuaciones tecnológicas ante la comunidad. La legalidad, junto con la ética, deben guiar cualquier proyecto de IA que emprendamos. Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad DAVID TEJEDOR RODRIGUEZ 14 6. Proyección futura: amenazas tecnológicas emergentes y desafíos normativos Mirando hacia el futuro próximo, podemos anticipar que tanto las capacidades de la IA como las tácticas de la delincuencia evolucionarán significativamente. Esto nos plantea nuevos escenarios de seguridad y, a la vez, nuevas lagunas legales y retos normativos que habrá que ir cubriendo. Algunos puntos a considerar en la prospección a unos años vista: ● IA cada vez más avanzada y ubiqua: La llamada IA generativa (capaz de crear contenidos originales) seguirá mejorando. Veremos deepfakes casi indistinguibles de la realidad a simple vista, voces sintéticas perfectas y quizás “hologramas” o videos en vivo falsos de personas gracias a la realidad aumentada. Esto complicará la labor policial de distinguir lo real de lo falso en investigaciones. Posiblemente se requerirá por sistema una verificación digital de evidencias multimedia (firmas digitales, etc.). A la par, IA más autónomas podrían tomar decisiones en fracciones de segundo: imaginemos drones o robots autónomos usados por delincuentes (o incluso por la policía) reaccionando por IA. Surgen cuestiones éticas: ¿podría un robot policía con IA usar la fuerza? Hoy por hoy sería inaceptable sin control humano, pero técnicamente en unos años podría plantearse. La legislación deberá seguir marcando líneas rojas en ese sentido (similar al debate de armas autónomas militares, trasladado a seguridad interior). ● Delincuencia aumentada por IA: La delincuencia tradicional podría experimentar un “salto de eficiencia” con IA. Por ejemplo, bandas organizadas usando IA para optimizar rutas de robo (tipo alunizajes prediciendo dónde habrá menos policía), o para analizar big data de posibles víctimas y seleccionar objetivos (imaginemos ladrones que usen IA para cribar redes sociales y detectar domicilios de alto valor cuyos dueños están de vacaciones). Ya se habla de que el ADN del crimen organizado está cambiando: Europol advierte que la IA se convierte en un “multiplicador” del crimen, facilitando desde la creación de pornografía infantil falsa por encargo hasta el blanqueo de capitales mediante algoritmos en criptomonedas. Posiblemente aparecerán nuevos delitos: por ejemplo, la falsificación de datos mediante IA (ya hay casos de presentar currículos laborales o títulos académicos falsos generados con IA, lo que será fraude documental). También la extorsión sexual virtual mediante realidades sintéticas podría requerir tipos penales específicos. En el cibercrimen, podríamos enfrentar ataques de inteligencia artificial adversarial, donde los delincuentes manipulan sistemas de IA policial (p.ej., engañando a un algoritmo de reconocimiento con imágenes trucadas que el humano no detecta). Todo ello demandará una actualización constante de las técnicas de investigación digital y forenses de IA. ● Brechas legales y grises éticos: La ley siempre va por detrás de la realidad tecnológica. Aun con el Reglamento IA, surgirán áreas no cubiertas. Por ejemplo, la responsabilidad civil por daños causados por IA: si un coche autónomo (IA) manejado por policía tiene un fallo y causa un accidente, ¿quién responde? Estas cuestiones están en debate en la UE (se baraja un régimen de responsabilidad objetivo en ciertos casos de IA). Otro tema: la privacidad vs. seguridad. Quizá en Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad DAVID TEJEDOR RODRIGUEZ 15 unos años, ante la proliferación de deepfakes, se proponga que todas las imágenes digitales lleven una marca de agua de origen para autenticar. Pero eso choca con anonimato y otras libertades. Tendremos que equilibrar. Un desafío normativo claro serán las IA de uso policial encubierto: por ejemplo, agentes que usen avatares sintéticos para infiltrarse online en círculos criminales. ¿Hasta dónde se permite esa simulación sin incurrir en entrapment o violación de privacidad? Habrá que desarrollar protocolos específicos. Y un frente importante: protección de los datos policiales. Si se emplean IA en la nube o de terceros, garantizar que información sensible (investigaciones, datos personales) no se vea comprometida. Es probable que se dicten estándares europeos de “IA soberana” para administraciones, recomendando usar infraestructuras seguras o propias. ● Nuevas formas de cooperación y regulación internacional: Las amenazas tecnológicas no entienden de fronteras. Veremos más colaboración entre policías de distintos países para hacer frente a delitos potenciados por IA. Ya Interpol y Europol tienen laboratorios de innovación centrados en IA; en un futuro la interoperabilidad de datos policiales con IA (por ejemplo, compartir algoritmos de identificación de malware, o bases de señales de deepfakes conocidas) será crucial. Normativamente, la UE con la Ley de IA marcará tendencia, pero ¿qué pasa si un servidor en otro continente genera deepfakes para delinquir aquí? Seguramente se avance en tratados internacionales sobre evidencia digital y delitos cibernéticos (posiblemente ampliando el Convenio de Budapest) que abarquen estas nuevas figuras. También se deberán abordar los derechos de las personas frente a las decisiones automatizadas en el ámbito de la seguridad: si algún día se usa IA para decidir algo que afecte a un ciudadano (por ejemplo, priorizarlo en un control), debería haber garantías de reclamación o revisión humana – esto podría consagrarse en normativas de procedimiento administrativo o policial. ● Concienciación social y brecha tecnológica: Por último, un desafío más sutil es evitar que se abra una brecha de entendimiento entre la policía (y la ley) y la ciudadanía en cuanto a tecnología. Si la población no confía en que el uso policial de IA es seguro y ético, podría haber rechazo (como lo hubo contra el “Gran Hermano” de las cámaras CCTV en su día). La normativa deberá incluir mecanismos de transparencia hacia la sociedad: posiblemente obligando a reportar públicamente qué sistemas de IA utilizan las administraciones, con qué propósito y resultados (ya algunas ciudades en EE.UU. hacen informes anuales sobre sus herramientas de vigilancia tecnológicas para escrutinio público). Este control ciudadano, junto a auditorías externas, será importante para legitimar la innovación. En paralelo, internamente habrá que salvar la brecha de capacitación: los cuerpos policiales deberán formar a sus agentes más veteranos en estas nuevas materias para que ningún policía se quede atrás incapaz de entender la tecnología con la que trabaja o a la que se enfrenta. La adaptación generacional es un reto organizativo a futuro. En definitiva, el panorama que viene combina potencial inmenso (ciudades más seguras gracias a IA omnipresente, delitos anticipados antes de que pasen, burocracia mínima) con riesgos considerables (vigilancia excesiva, crimen virtual difícil de rastrear, dilemas legales). Navegar ese equilibrio exigirá de los responsables normativos flexibilidad y anticipación, y Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad DAVID TEJEDOR RODRIGUEZ 16 de nosotros como policías, mentalidad abierta y ética profesional para incorporar las herramientas útiles sin perder de vista los derechos de las personas. Tras este análisis prospectivo, pasemos a la parte final: propuestas prácticas y recomendaciones para la acción local. ¿Qué podemos hacer, desde nuestra posición en la Policía, para prepararnos y aprovechar la IA responsablemente? 7. Propuestas prácticas para los agentes: buenas prácticas, formación y estrategias locales Cerramos con una serie de recomendaciones concretas. Son pautas y acciones que los agentes (y la institución policial local en su conjunto) podemos adoptar desde ya para enfrentar los retos y oportunidades que plantea la IA en seguridad pública. El objetivo es garantizar un uso eficaz y ético de la IA, mantenernos actualizados y proteger a la ciudadanía. Estas son las propuestas: ● Formación continua y alfabetización digital: La primera herramienta es nosotros mismos. Igual que practicamos tiro o aprendemos nuevas leyes, debemos entrenarnos en competencias digitales. Se propone incorporar módulos básicos de IA, ciberseguridad y delitos tecnológicos en la formación continua de los agentes (charlas, cursos online de INCIBE, manuales de Policía Nacional sobre ciberestafas, etc.). No hace falta ser ingenieros, pero sí entender conceptos clave (qué es machine learning, qué riesgos tienen los deepfakes, cómo navegar seguro por internet). Esto aplica a todos los niveles: agentes de base, mandos y personal administrativo. Además, identificar en la plantilla a potenciales “agentes tech” entusiastas para que profundicen más (expertos internos) y sirvan de apoyo al resto en casos complejos. La curiosidad y aprendizaje constante deben ser fomentados – la tecnología evoluciona rápido y la única forma de no quedarse atrás es estar siempre aprendiendo. ● Buenas prácticas en el uso cotidiano de tecnología: Implementar una serie de protocolos sencillos en el día a día que reduzcan riesgos. Por ejemplo: verificación de fuentes – si recibimos información sensible (una foto, un video de un delito) intentar confirmar su autenticidad antes de actuar precipitadamente; duda sistemática de lo digital – asumir que todo archivo puede ser manipulado y buscar evidencias adicionales (testigos, contrastar horarios, etc.); protección de contraseñas y dispositivos – no dejar sesiones abiertas, usar gestores autorizados, mantener actualizados los sistemas de los ordenadores de la comisaría (en esto el departamento de TI municipal juega rol importante, exigirles mantenimientos regulares). Otra buena práctica: compartir entre compañeros casos y aprendizajes. Si un agente descubre un nuevo modus operandi con IA (por ej., una estafa con voz clonada que atendió), que lo exponga en las reuniones de equipo para alertar a los demás. Crear una cultura de aprendizaje colectivo en la unidad, especialmente respecto a ciberamenazas emergentes. ● Uso responsable y ético de herramientas de IA policial: Si nuestra Policía decide probar o adquirir alguna herramienta de IA (sea un software de análisis, cámaras Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad DAVID TEJEDOR RODRIGUEZ 17 inteligentes, etc.), seguir una serie de pasos: (1) Consultar el marco legal – verificar con asesoría jurídica si es legal su uso y qué límites tiene (por ejemplo, reconocimiento facial en vivo no estaría permitido; un detector de disparos acústicos sí lo estaría); (2) Informar a la superioridad y a la ciudadanía – la transparencia interna y externa genera confianza. Quizá no hace falta revelar todos los detalles por seguridad, pero sí comunicar las líneas generales (“hemos implementado un sistema inteligente de vigilancia de tráfico que respeta RGPD y mejora la seguridad vial”); (3) Establecer supervisión humana – definir que la herramienta es de apoyo y quién revisará sus alertas; (4) Políticas de datos claras – cómo se almacenan los datos que genere la IA, por cuánto tiempo, quién accede… siguiendo la normativa de protección de datos; (5) Evaluar resultados periódicamente – no caer en la fascinación tecnológica: si a los 6 meses el sistema no aporta mejoras o da muchos falsos positivos, recalibrar o retirar. Recordemos que lo ético y lo eficiente van de la mano: una IA sesgada no solo es injusta, también es ineficaz porque genera errores. ● Colaboración con unidades especializadas: Como policía local, no estamos solos ante estos desafíos. Es crucial saber escalar asuntos que nos superen técnicamente. Por ejemplo, ante un ciberdelito complejo (estafa online internacional) recabar la info inicial pero luego derivar a la Brigada de Investigación Tecnológica (BIT) del CNP o al Grupo de Delitos Telemáticos de GC, quienes tienen más medios. Del mismo modo, apoyarse en organismos públicos: INCIBE, como ya mencionamos, tiene líneas de ayuda 24h en ciberseguridad; la AEPD puede orientar sobre dudas de privacidad; la nueva AESIA en cuanto funcione podrá resolver consultas sobre usos de IA permitidos. También colaborar con el Centro Criptológico Nacional (CCN) en caso de incidentes de ciberseguridad graves en el ayuntamiento. Internamente, proponer la designación de un enlace de tecnología en la Policía Local que sea el punto de contacto con esos organismos y mantenga al cuerpo al tanto de novedades (por ejemplo, si sale una alerta de malware que afecta a ayuntamientos, que ese enlace reciba la info y coordine la respuesta local). La cooperación incluye a otras policías locales: compartir experiencias con, digamos, la Policía de Madrid o Barcelona que quizás ya probaron ese sistema. A través de la FEMP o de redes informales, podemos nutrirnos del conocimiento colectivo. ● Estrategias de participación comunitaria: La batalla contra amenazas como la desinformación o los fraudes IA se gana también con la comunidad. Una policía local puede impulsar campañas para que los vecinos conozcan estos riesgos. Por ejemplo, talleres en centros cívicos sobre “Cómo detectar bulos en WhatsApp” en colaboración con asociaciones, o charlas en institutos sobre los peligros de deepfakes y protección de la imagen online (educación digital para jóvenes). Si la ciudadanía está alerta, muchas tentativas de delito fracasan porque no pican. Asimismo, fomentar que el público colabore reportando: habilitar canales fáciles para que un ciudadano avise si recibe un posible mensaje fraudulento o ve un video sospechoso circulando que pueda causar altercados. Cuantos más ojos vigilando, mejor. En este sentido, la confianza entre policía y ciudadanos es crucial: hay que cultivar una imagen de policía 3.0 cercana y preparada, para que los vecinos nos vean como referente al consultar dudas sobre estas nuevas cuestiones de seguridad digital. ● Actualización de protocolos y normativa interna: A medida que la IA y lo digital se incorporen a nuestro trabajo, habría que reflejarlo en los procedimientos escritos Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad DAVID TEJEDOR RODRIGUEZ 18 del cuerpo. Por ejemplo, actualizar el protocolos de custodia de pruebas para incluir consideraciones sobre pruebas electrónicas (cadena de custodia de un archivo digital, verificación de integridad mediante hash, etc.). O crear un protocolo específico de actuación ante incidentes ciber (similar a un Plan de Emergencia pero para ataques informáticos que afecten servicios municipales). Incluir también cláusulas en los manuales deontológicos: por ejemplo, prohibir expresamente que un agente use por su cuenta herramientas de reconocimiento facial no autorizadas sobre ciudadanos (imaginemos que alguien usa una app particular con fotos de la calle – podría vulnerar derechos, hay que dejar claro que no se debe hacer salvo con sistemas oficiales autorizados). Estas guías internas aseguran que todos los miembros del cuerpo tengan claro el marco de actuación en lo tocante a tecnología, evitando improvisaciones que puedan salir mal. ● Mantener el factor humano y la cercanía: Por último, una reflexión práctica-filosófica: por mucha IA que tengamos, la esencia de nuestra labor policial sigue siendo humana: la cercanía al ciudadano, la intuición, la empatía y el criterio profesional. No perdamos eso de vista. La tecnología debe servir para potenciar esas cualidades, no para sustituirlas. Un agente en la calle, hablando cara a cara con un vecino, genera una confianza y capta unos matices que ninguna IA puede replicar. Así que usemos las herramientas modernas, sí, pero sin deshumanizar el servicio. Recordemos también que la presencia disuasoria y la prevención clásica (farolas encendidas, puertas cerradas, vigilancia comunitaria) siguen siendo fundamentales y complementarias a cualquier innovación. Con estas propuestas, esperamos dar un rumbo práctico a lo aprendido. La IA no es algo lejano ni exclusivamente de laboratorios: ya está aquí y puede ayudarnos mucho si la entendemos y la manejamos con cuidado. Al mismo tiempo, requiere de nosotros un esfuerzo de adaptación y un compromiso ético fuerte para no traspasar ciertas líneas. Herramientas y recursos recomendados Para finalizar, proporcionamos una hoja de recursos que resume herramientas útiles y lecturas recomendadas, pensadas para profundizar o usar en la actividad policial diaria: ● ESET WeLiveSecurity – “Herramientas para detectar deepfakes”. Artículo (en español) que describe varias herramientas de detección de deepfakes disponibles, con sus características. Útil para conocer opciones como Sentinel, Sensity, FakeCatcher, WeVerify, etc., y sus enfoques. ● Plugin “InVID / WeVerify” (extensión de navegador gratuita). Permite realizar búsquedas inversas de imágenes, analizar metadatos y fragmentar videos fotograma a fotograma para verificar contenido en redes sociales. Descarga: InVID Verification Plugin (proyecto EU). ● Maldita.es – “Prohibiciones de la Ley de IA desde 2025”. Artículo explicativo sobre la nueva ley europea de IA y qué prácticas se prohíben. Incluye ejemplos y cómo denunciar usos ilegales ante la AESIA. Buena referencia para familiarizarse con el marco legal. ● INCIBE (Instituto Nacional de Ciberseguridad): Web incibe.es – Apartados de protección para empresas y ciudadanos. Guías breves sobre ciberamenazas Inteligencia Artificial: impacto en la seguridad pública, ciberdelincuencia y ciberseguridad DAVID TEJEDOR RODRIGUEZ 19 comunes (phishing, malware) y un CAT (Centro de Atención Telefónica) 017 gratuito para consultas de seguridad digital (disponible para profesionales también). ● Guía sobre Delitos Informáticos de Policía Nacional: Publicación oficial (PDF) que suele actualizarse con definiciones de ciberdelitos y consejos de prevención. Ayuda a poner nombre en el atestado a esas nuevas modalidades delictivas con base tecnológica. ● Foro Económico Mundial – “¿Cómo detectar un deepfake? Esto dicen los expertos”. Artículo en español con consejos prácticos de expertos para reconocer deepfakes (enfatiza la importancia de fijarse en detalles como el parpadeo, la sincronía audio-labial, etc.). ● Jurisprudencia y doctrina legal: Mantener a mano referencias como la Sentencia del Tribunal Supremo 290/2012 (sobre prueba electrónica y validez) o informes de la Fiscalía sobre pornografía infantil virtual. Son textos más jurídicos, pero útiles si necesitamos fundamentos para actuaciones o para formarnos criterios legales. ● Contacto de la AESIA: Mientras se pone plenamente operativa, tener identificado un canal (vía Ministerio de Presidencia o SEDIA) para consultas. En 2024 se indicó que AESIA desarrollará una web con formulario para reportes – en cuanto esté disponible, vale la pena que la policía lo conozca para denunciar nosotros mismos cualquier uso de IA sospechoso que detectemos en nuestra ciudad. ● Comunidades y foros: Por ejemplo, la comunidad BlueOLive (seguridad informática) o foros policiales profesionales donde se discutan casos de ciberdelincuencia. Interactuar con compañeros de otras localidades que hayan vivido casos de deepfakes, etc., enriquece nuestro conocimiento práctico.e