La IA generativa ha transformado la percepción pública de la inteligencia artificial en los últimos tres años. Modelos como GPT-4, Claude o Gemini han demostrado una capacidad sin precedentes para generar texto de alta calidad, responder preguntas complejas y mantener conversaciones naturales. Pero ¿qué significa esto concretamente para las administraciones públicas españolas?
Esta guía explica qué es la IA generativa, cómo se diferencia de los sistemas de IA anteriores, qué aplicaciones reales existen en el sector público y cuáles son los límites legales y técnicos que hay que entender antes de adoptarla.
Para el panorama general de la IA en el sector público, consulta nuestra guía sobre inteligencia artificial en la administración pública española.
¿Qué es la IA generativa y qué la diferencia de la IA anterior?
La IA generativa es un tipo de inteligencia artificial capaz de generar contenido nuevo: texto, imágenes, código, audio. Los modelos de lenguaje de gran tamaño (LLM, por sus siglas en inglés) son el ejemplo más relevante para las administraciones públicas.
Los sistemas de IA previos en el sector público eran principalmente discriminativos: clasificaban documentos, detectaban patrones, tomaban decisiones binarias (conceder/denegar). La IA generativa puede hacer algo cualitativamente diferente: producir respuestas nuevas en lenguaje natural a partir de una base de conocimiento.
La diferencia práctica para un ayuntamiento es enorme:
| Sistema anterior | IA generativa |
|---|---|
| "Clasifica esta solicitud como tipo A o tipo B" | "Explica al ciudadano qué necesita para el trámite X" |
| "Detecta si este documento está completo" | "Redacta el borrador de respuesta a esta queja" |
| "Enruta esta consulta al departamento correcto" | "Responde directamente la pregunta del ciudadano" |
RAG: la arquitectura que hace la IA generativa viable en el sector público
Los LLM tienen un problema crítico para el uso en administraciones públicas: generan texto verosímil aunque incorrecto. Un LLM puede inventar un plazo de tramitación, una tasa municipal inexistente o un procedimiento que no aplica. En el contexto de atención ciudadana, esto es inaceptable.
La solución es la arquitectura RAG (Retrieval Augmented Generation): el sistema de IA no responde solo desde su conocimiento preentrenado, sino que consulta primero una base documental verificada específica del organismo (ordenanzas, procedimientos, tasas, FAQ) y genera la respuesta solo a partir de esos documentos.
Con RAG:
- El ciudadano hace una pregunta
- El sistema recupera los fragmentos relevantes de los documentos municipales verificados
- El LLM genera la respuesta solo a partir de esos fragmentos
- Si la información no está en los documentos, el sistema dice que no sabe (en vez de inventar)
Esta arquitectura elimina el problema de las "alucinaciones" (respuestas inventadas) y permite controlar exactamente qué sabe y qué no sabe el asistente. Es la base de todos los asistentes de IA para administraciones públicas que funcionan correctamente.
Aplicaciones reales de la IA generativa en el sector público
Atención ciudadana conversacional
El caso de uso más maduro y con mayor penetración. Un asistente con RAG puede responder preguntas de trámites, procedimientos, tasas, horarios y estado de expedientes en lenguaje natural, sin que el ciudadano tenga que navegar por menús de árboles de decisión.
La diferencia con los chatbots de reglas tradicionales (basados en flujos if-then) es sustancial: un ciudadano que pregunta "necesito hacer el empadronamiento porque me he mudado con mi pareja que es extranjera" recibe una respuesta adaptada a su situación específica, no una respuesta genérica sobre empadronamiento.
Generación de borradores de documentos
Los LLM pueden generar borradores de resoluciones, notificaciones, informes y comunicaciones a partir de plantillas y datos estructurados. El funcionario supervisa y firma; la IA hace el trabajo de redacción inicial.
Esta aplicación es especialmente valiosa en organismos con alto volumen de documentos repetitivos: resoluciones de ayudas, notificaciones de apertura de expediente, informes de seguimiento.
Límite importante: El AI Act clasifica los sistemas que influyen en decisiones que afectan a derechos del ciudadano como de riesgo alto. La generación de resoluciones con IA requiere supervisión humana obligatoria y documentación específica antes del despliegue.
Resumen y clasificación de documentación entrante
Los ayuntamientos con alto volumen documental (solicitudes, recursos, informes) pueden usar IA generativa para:
- Resumir documentos extensos en fichas estructuradas
- Clasificar automáticamente expedientes por tipo, departamento y urgencia
- Extraer datos clave (nombre del solicitante, NIF, tipo de trámite) de documentos no estructurados
Asistencia interna a funcionarios
Una aplicación menos visible pero muy valiosa: el asistente de IA no solo responde a ciudadanos, también puede asistir a los propios técnicos municipales. Un funcionario puede preguntar "¿qué normativa aplica a una licencia de actividad clasificada en el sector de la hostelería?" y recibir la respuesta correcta a partir del repositorio normativo interno.
Esto es especialmente útil en municipios pequeños donde un único técnico debe gestionar áreas muy diversas.
El marco regulatorio: AI Act y su impacto en la IA generativa pública
El AI Act (Reglamento Europeo de Inteligencia Artificial), en aplicación gradual desde 2024, establece categorías de riesgo que afectan directamente cómo las administraciones pueden usar la IA generativa:
Riesgo limitado: atención ciudadana informativa
Los sistemas de IA generativa que informan a ciudadanos sobre trámites, procedimientos y servicios sin tomar decisiones vinculantes son de riesgo limitado. La obligación principal es la transparencia: el ciudadano debe saber que interactúa con un sistema de IA.
Esto es legalmente obligatorio, no opcional. Los asistentes que se hacen pasar por humanos o que no identifican su naturaleza artificial incumplen el AI Act.
Riesgo alto: sistemas que afectan a derechos
Los sistemas de IA generativa que influyen en decisiones sobre acceso a servicios sociales, ayudas, prestaciones o procedimientos sancionadores entran en la categoría de riesgo alto. Estos sistemas requieren:
- Evaluación de conformidad antes del despliegue
- Registro en la base de datos europea de sistemas de IA de alto riesgo
- Supervisión humana en bucle
- Documentación técnica exhaustiva
- Derecho de explicación para los ciudadanos afectados
El límite entre riesgo limitado y alto no siempre es obvio. Un asistente que solo informa sobre los requisitos de una ayuda es riesgo limitado. Un asistente que evalúa si un ciudadano cumple los requisitos de esa ayuda puede ser riesgo alto.
Modelos de propósito general (GPAI)
El AI Act también regula los LLM de uso general que las administraciones utilizan como base. Los proveedores de estos modelos (OpenAI, Google, Anthropic, Meta) tienen obligaciones adicionales de documentación. Las administraciones que los usan deben verificar el cumplimiento de sus proveedores.
El requisito de datos en Europa
Un aspecto crítico para las administraciones públicas españolas: el ENS (Esquema Nacional de Seguridad) exige que los datos de ciudadanos se procesen en infraestructuras dentro de la Unión Europea.
La mayoría de los grandes LLM de los proveedores americanos (OpenAI, Anthropic, Google) tienen opciones de despliegue en Europa (Azure OpenAI en datacenters de la UE, Google Vertex AI en Frankfurt, etc.). Antes de contratar cualquier servicio de IA generativa, el organismo debe verificar:
- ¿Los datos procesados (incluyendo las consultas de los ciudadanos) permanecen en servidores de la UE?
- ¿El proveedor puede firmar un acuerdo de tratamiento de datos conforme al RGPD?
- ¿El proveedor tiene certificación ENS o equivalente reconocido?
Las administraciones que usan proveedores que procesan datos fuera de la UE están potencialmente incumpliendo el ENS.
Qué NO puede hacer la IA generativa en el sector público
Clarificar los límites es tan importante como describir las posibilidades:
- No puede emitir actos administrativos. Solo los funcionarios habilitados pueden emitir resoluciones, conceder licencias o denegar solicitudes con efectos jurídicos.
- No puede autenticar al ciudadano. La identificación oficial sigue requiriendo Cl@ve, certificado digital o DNIe.
- No puede garantizar la exactitud al 100%. Con RAG, las alucinaciones son muy poco frecuentes, pero no imposibles. Los sistemas críticos deben tener supervisión humana.
- No puede sustituir el criterio jurídico en casos complejos. El secretario o interventor municipal sigue siendo necesario para la interpretación de casos complejos.
Tendencias de la IA generativa en el sector público para 2026-2028
La evolución más relevante en los próximos años no será tecnológica (los LLM ya son suficientemente buenos para atención ciudadana) sino operativa:
- Personalización autenticada: Asistentes que, una vez el ciudadano se autentifica con Cl@ve, pueden acceder a sus datos personales y responder preguntas como "¿cuándo vence mi licencia?" o "¿en qué estado está mi expediente de ayuda?"
- Interoperabilidad entre AAPP: Asistentes que consultan bases de datos de varios organismos en tiempo real (DGT, AEAT, Seguridad Social) para dar respuestas integradas al ciudadano
- Agentes autónomos supervisados: IA que puede iniciar trámites en nombre del ciudadano bajo supervisión humana y con autenticación explícita
- Procesamiento documental masivo: IA que procesa el backlog documental acumulado en las administraciones para estructurar y hacer accesible el conocimiento institucional
Continúa leyendo: Inteligencia artificial en la administración pública española · GovTech en España · Chatbot para administraciones públicas