La inteligencia artificial en la sanidad pública genera expectativas muy altas y también resistencias legítimas. Cuando hablamos de IA aplicada a la salud, el abanico va desde sistemas que gestionan citas hasta algoritmos que diagnostican cáncer de piel. Las implicaciones éticas, legales y clínicas son radicalmente distintas en cada caso.
Esta guía se centra en la aplicación de chatbots e IA conversacional en el sistema de salud público español: qué es factible hoy, qué es deseable, qué está prohibido o restringido, y cómo navegar un campo donde los errores tienen consecuencias directas para la salud de las personas.
El espectro de la IA sanitaria: de lo administrativo a lo clínico
La IA en el sector sanitario no es un fenómeno homogéneo. Existe un espectro de aplicaciones con características muy distintas:
IA administrativa: Gestión de citas, información al paciente, procesamiento de documentación, gestión de listas de espera. Bajo riesgo clínico, alto impacto en eficiencia.
IA de soporte clínico: Análisis de imágenes médicas, apoyo al diagnóstico, alerta de interacciones medicamentosas, predicción de reingreso. Alto riesgo, alta exigencia de validación clínica.
IA asistencial directa: Triaje sintomático, monitorización remota de pacientes crónicos, asistentes de salud mental. Riesgo muy alto, requiere regulación específica y supervisión clínica permanente.
Los chatbots en la sanidad pública actualmente tienen su lugar natural en el primer segmento (administrativo) con extensiones muy controladas hacia el segundo (soporte clínico informativo). La IA asistencial directa está en fase experimental en el sistema público español.
Qué pueden hacer los chatbots en el sistema sanitario público
Gestión administrativa eficiente
El 60-70% de las llamadas a un hospital o centro de salud son de naturaleza administrativa, no clínica. Un chatbot puede resolver autónomamente:
- Confirmación, cancelación y cambio de citas
- Información sobre preparación para pruebas diagnósticas
- Plazos de garantía de lista de espera según la comunidad autónoma
- Derechos del paciente: cómo acceder a la historia clínica, cómo hacer una reclamación
- Información sobre servicios, horarios y localización de unidades
- Documentación necesaria para primeras consultas
Este tipo de asistencia no implica ningún riesgo clínico y tiene un impacto directo en la carga de los servicios de admisión y centralitas.
Información sanitaria general verificada
Los chatbots pueden proporcionar información sanitaria general basada en fuentes verificadas (Ministerio de Sanidad, AEMPS, protocolos clínicos publicados):
- Información sobre programas de cribado (cáncer de mama, colon, cervical)
- Vacunación: calendarios vacunales autonómicos, vacunas recomendadas para viajeros
- Información sobre medicamentos: uso correcto, contraindicaciones generales, qué es la receta electrónica
- Hábitos saludables: actividad física, nutrición, deshabituación tabáquica
La clave es que esta información sea general y verificada, nunca personalizada a los síntomas o historial del paciente.
Orientación hacia el recurso correcto
Un chatbot puede ayudar al ciudadano a decidir a qué servicio sanitario acudir según la naturaleza de su problema:
- ¿Cuándo ir al médico de cabecera vs. a urgencias?
- ¿Cómo acceder al servicio de guardia de Atención Primaria?
- ¿Cuándo llamar al 112?
- ¿Qué es el Servicio de Atención a las Urgencias y Emergencias (061 / 112)?
Este tipo de orientación es información general, no triaje médico. La diferencia es importante: el chatbot no evalúa síntomas específicos del paciente; proporciona criterios generales de uso del sistema sanitario.
Donde está el límite: lo que un chatbot NO debe hacer en sanidad
Sin orientación diagnóstica basada en síntomas
Un chatbot que pregunta "¿qué síntomas tienes?" y responde con posibles diagnósticos está practicando de facto medicina sin licencia, aunque use disclaimers. Esto está prohibido y genera responsabilidad para el organismo que lo despliega.
La IA que evalúa síntomas y orienta diagnósticamente es de riesgo alto bajo el AI Act (sistemas que influyen en decisiones sanitarias sobre personas). Requiere validación clínica previa, aprobación del Comité de Ética, supervisión médica continua y registro en la base de datos europea de sistemas de IA de alto riesgo.
Sin acceso a datos clínicos sin autenticación
Los datos de salud son la categoría más protegida del RGPD. Un chatbot no puede acceder ni mencionar datos del historial clínico de un paciente sin que este esté autenticado con garantías de seguridad suficientes.
Sin recomendaciones de medicación
El chatbot no puede recomendar medicamentos, ni siquiera los que no requieren receta, basándose en los síntomas descritos por el usuario. Esta línea no tiene excepciones.
El AI Act y la sanidad: especialmente exigente
El Reglamento Europeo de Inteligencia Artificial establece una categoría específica de sistemas de IA de riesgo alto que incluye explícitamente:
- "Sistemas de IA destinados a ser utilizados en el ámbito de la salud que desempeñen funciones de diagnóstico, pronóstico o tratamiento"
- Sistemas que influyen en el acceso a atención sanitaria
Para estos sistemas, las obligaciones son muy estrictas:
- Evaluación de conformidad antes del despliegue
- Registro en la base de datos de la UE
- Documentación técnica exhaustiva
- Supervisión humana en bucle
- Derecho del paciente a explicación de las decisiones
Los chatbots puramente informativos y administrativos (sin evaluación de síntomas) están en la categoría de riesgo limitado, con la única obligación de transparencia (el paciente sabe que interactúa con IA).
Casos de implementación: qué funciona en el SNS
Varios sistemas de salud autonómicos han implementado chatbots con distintos alcances:
Servicio de citas por chatbot: El sistema más extendido. El paciente puede pedir, cancelar y cambiar citas por chat o app, autenticándose con su tarjeta sanitaria. Adoptado en varias comunidades autónomas.
Información pre-COVID y campañas de vacunación: Los chatbots informativos tuvieron un papel relevante durante las campañas de vacunación masiva, resolviendo dudas sobre puntos de vacunación, documentación y preparación.
Soporte a pacientes crónicos: Chatbots que recuerdan la toma de medicación, registran parámetros de seguimiento (glucemia, tensión arterial) y escalan al equipo clínico si hay anomalías. Estos sistemas están en la frontera entre administrativo y clínico; requieren supervisión médica del diseño.
Cómo debería abordarse la IA conversacional en un centro sanitario
Para un hospital o área de salud que quiere implantar IA conversacional sin comprometer la seguridad clínica:
Empezar por lo administrativo: Citas, preparación de pruebas, información de servicios. Cero riesgo clínico, impacto inmediato, implementación en semanas.
Involucrar al equipo de informática clínica y al DPO desde el inicio. Los hospitales públicos tienen estructuras específicas para la gestión de sistemas de información clínica; el chatbot debe pasar por esas vías.
Definir explícitamente los límites del chatbot y comunicarlos al paciente. El chatbot debe estar programado para derivar cualquier consulta que roza lo clínico a un profesional sanitario.
Diseñar el escalado con criterio clínico. Si el chatbot detecta palabras clave asociadas a urgencias (dolor en el pecho, dificultad para respirar, pérdida de consciencia), debe interrumpir la conversación y redirigir al 112 sin intentar gestionar la situación.
Revisar periódicamente con el equipo clínico las respuestas que el chatbot está dando sobre temas que puedan tener implicaciones sanitarias.
Continúa leyendo: Chatbot para hospital público en España · IA generativa en la administración pública · Chatbot para administraciones públicas