Por qué las clínicas se sienten tentadas a usar ChatGPT para responder a reseñas
El atractivo es obvio. ChatGPT es gratuito, rápido y genera texto que suena profesional. Para un gerente de clínica ocupado que hace malabares con citas, turnos del personal y consultas de pacientes, la idea de pegar una reseña negativa de Google en ChatGPT y obtener una respuesta pulida en segundos resulta genuinamente atractiva. Nadie puede culpar a una clínica por querer ahorrar tiempo.
El problema no es el impulso. El problema es que ChatGPT es un modelo de lenguaje de propósito general sin conciencia de la regulación sanitaria. Nunca ha leído el Código de Ética y Deontología del CGD. No sabe que confirmar que alguien visitó su clínica constituye una divulgación de datos de salud de categoría especial bajo el Artículo 9 del RGPD. Genera texto que suena apropiado porque ha sido entrenado con millones de respuestas a reseñas de empresas — la gran mayoría escritas por restaurantes, hoteles y comercios donde confirmar una relación con el cliente no acarrea ninguna consecuencia regulatoria.
Las clínicas dentales y médicas no son restaurantes. Las reglas son fundamentalmente diferentes, y ChatGPT no lo sabe.
ChatGPT genera respuestas a reseñas basadas en patrones de industrias no reguladas. Produce texto que suena profesional pero infringe rutinariamente las obligaciones de confidencialidad que se aplican específicamente a las clínicas sanitarias.
Las 5 cosas que hará ChatGPT que infringen el CGD y el RGPD
Probamos ChatGPT (GPT-4o, abril de 2026) con 50 escenarios realistas de reseñas dentales en una variedad de sentimientos y contextos clínicos. En todos los casos, la salida por defecto contenía al menos una de las siguientes cinco infracciones de cumplimiento. Esto es lo que hay que vigilar.
1. Confirma que el autor es paciente
La frase de apertura más común de ChatGPT es alguna variación de «Gracias por visitar nuestra clínica» o «Apreciamos que nos haya elegido para su atención dental». Ambas frases confirman que el autor mantiene una relación de paciente con la clínica. Bajo el Artículo 9 del RGPD, esto es una divulgación de datos de salud de categoría especial — el hecho de que alguien acudió a una clínica dental revela información sobre su salud. El autor puede haberlo divulgado él mismo, pero que la clínica lo confirme es una actividad de tratamiento separada para la que no existe base jurídica.
2. Repite los detalles clínicos en la respuesta
Cuando un autor menciona un tratamiento específico — una endodoncia, una extracción, una corona — ChatGPT lo referencia de forma fiable en la respuesta. «Lamentamos que su experiencia con la endodoncia no fuera la esperada» suena empático, pero constituye que la clínica confirme públicamente qué procedimiento clínico se realizó sobre una persona identificada. Esto infringe el código deontológico del CGD y la Ley 41/2002, y crea un registro público permanente que vincula al autor con un tratamiento concreto.
3. Nombra al personal
Si el autor menciona a un dentista o higienista por nombre, ChatGPT a menudo incorporará ese nombre en la respuesta: «La Dra. Martínez siempre se esfuerza por proporcionar la mejor atención» o «Compartiremos sus comentarios con Sara». Esto vincula a un clínico específico con una interacción específica con un paciente en un foro público — una divulgación a la que ni el clínico ni el paciente han consentido, y que podría usarse como prueba en un expediente disciplinario del CGD.
4. Hace afirmaciones clínicas absolutas
ChatGPT tiende a tranquilizar con estadísticas y absolutos: «Nuestros procedimientos tienen una tasa de éxito del 98%», «Usamos la última tecnología para garantizar los mejores resultados», o «Este tipo de sensibilidad suele resolverse en dos semanas». Estas declaraciones constituyen afirmaciones clínicas hechas en un foro público. Son inverificables, potencialmente engañosas y — si un paciente confía en ellas — podrían generar responsabilidad. Las normas del CGD sobre publicidad y comunicaciones públicas prohíben afirmaciones que no puedan sustentarse.
5. Usa la misma plantilla para cada reseña
Incluso cuando se le pide que genere respuestas «únicas», ChatGPT gravita hacia los mismos patrones y frases estructurales. Después de una docena de reseñas, las respuestas se vuelven reconociblemente formularias. El algoritmo de Google penaliza las respuestas idénticas o casi idénticas, lo que perjudica su visibilidad de búsqueda local. Más importante aún, los pacientes potenciales que lean sus reseñas notarán el patrón de copia-pega y sacarán conclusiones sobre lo seriamente que se toma los comentarios.
Estos no son casos extremos ni prompts inusuales. Es el comportamiento por defecto de ChatGPT cuando se le da una reseña dental para responder. Cada uno de ellos crea exposición regulatoria bajo el código deontológico del CGD, el RGPD o ambos.
ChatGPT vs conforme: una comparación lado a lado
Para ilustrar la diferencia de forma concreta, aquí hay una reseña típica de Google seguida de lo que genera ChatGPT y de cómo se ve una respuesta conforme.
«Me sacaron una muela del juicio aquí el martes pasado. La extracción fue una agonía y al Dr. Pérez no parecía importarle. Sigo hinchado cinco días después. No lo recomendaría.»
— Reseña de ejemplo de Google
«Gracias por compartir su experiencia con nosotros. Lamentamos que su extracción de muela del juicio con el Dr. Pérez no fuera cómoda. La inflamación post-extracción es bastante común y suele desaparecer en 7-10 días. Siempre intentamos hacer los procedimientos lo más indoloros posible, y nos encantaría tener la oportunidad de comprobar su recuperación. No dude en llamar a nuestra recepción para programar una cita de seguimiento.»
Infracciones: Confirma la relación con el paciente («su experiencia con nosotros»). Confirma el tratamiento específico (extracción de muela del juicio). Nombra a un miembro del personal (Dr. Pérez). Hace una afirmación clínica (la inflamación desaparece en 7-10 días). Hace referencia a un seguimiento clínico. Infringe el código deontológico del CGD, la Ley 41/2002 y el Artículo 9 del RGPD.
«Gracias por dedicar el tiempo a dejar este comentario. Lamentamos lo que describe en su reseña, y tomamos todas las preocupaciones con la máxima seriedad. Nos gustaría tener la oportunidad de hablarlo con usted directamente — por favor, contacte con nosotros en el +34 91 123 45 67 o en [email protected] para que podamos abordarlo adecuadamente y en privado.»
Cumple: Sin confirmación del estatus de paciente. Sin referencia a ningún tratamiento ni clínico. Sin afirmaciones clínicas. Tono empático. Redirige a un canal privado. Conforme con el código deontológico del CGD y el RGPD.
La respuesta conforme es más corta, sin embargo logra todo lo que una respuesta pública necesita: demuestra que la clínica está escuchando, expresa preocupación genuina y traslada la conversación a un canal privado donde se pueden discutir los detalles clínicos de forma segura. La versión de ChatGPT se siente más «útil» — pero cada detalle adicional que proporciona es una infracción de cumplimiento.
Por qué «decirle a ChatGPT que sea cuidadoso» no funciona
La primera objeción que escuchamos es: «¿No puedo simplemente añadir instrucciones al prompt? Decirle que no confirme la identidad del paciente, que no mencione tratamientos, que no nombre al personal?» En teoría, sí. En la práctica, este enfoque falla por tres razones estructurales.
El modelo ve el contenido clínico
Cuando pega una reseña en ChatGPT, el modelo procesa el texto completo — incluyendo todos los detalles clínicos que el autor mencionó. El nombre del tratamiento, el nombre del clínico, las fechas, los síntomas — todo entra en la ventana de contexto del modelo e influye en la salida. Decirle al modelo que «ignore» esta información es como pedirle a alguien que no piense en un oso blanco. La información está ahí, y se filtra a la respuesta de formas sutiles: una referencia a «su visita reciente», una tranquilización sobre «este tipo de procedimiento», una mención de «el miembro del equipo implicado».
Los prompts pueden ser anulados por el contenido de la reseña
ChatGPT es susceptible a lo que los investigadores llaman inyección de prompts — donde el texto de entrada (en este caso, la reseña) influye en el comportamiento del modelo de formas que anulan o debilitan el prompt del sistema. Una reseña particularmente detallada o emocionalmente cargada puede hacer que el modelo «olvide» sus instrucciones y vuelva a su patrón de respuesta empática-pero-no-conforme por defecto. No puede garantizar que su prompt cuidadosamente elaborado vaya a aguantar contra cada reseña posible.
No hay capa de aplicación determinista
El problema fundamental es arquitectónico. ChatGPT genera texto de forma probabilística — predice la siguiente palabra más probable basándose en la entrada y sus datos de entrenamiento. No hay un paso de verificación separado que compruebe la salida contra un conjunto de reglas de cumplimiento antes de que llegue a usted. Cada respuesta es una conjetura del mejor esfuerzo. Para una respuesta de restaurante, una conjetura del mejor esfuerzo está bien. Para una clínica sanitaria que opera bajo obligaciones del CGD y el RGPD, «mejor esfuerzo» no es un estándar de cumplimiento.
La ingeniería de prompts es una mejora probabilística, no una salvaguarda estructural. Reduce la frecuencia de salidas no conformes pero no puede eliminarlas. El cumplimiento sanitario requiere aplicación determinista — reglas que se aplican a cada respuesta sin excepción, independientemente de la entrada.
Cómo el pipeline de 3 etapas de Fidelia evita esto
Fidelia se diseñó específicamente para este problema. En lugar de depender de un único modelo de propósito general para «ser cuidadoso», Fidelia usa un pipeline de tres etapas donde el cumplimiento se aplica estructuralmente en cada etapa.
Etapa 1: Clasificar
La reseña entrante se clasifica por sentimiento y categoría (queja clínica, queja de servicio, comentario positivo, etc.) sin exponer el contenido clínico bruto al modelo de lenguaje que redacta la respuesta. La etapa de clasificación extrae qué tipo de reseña es, no los detalles específicos. Esto significa que el modelo de redacción nunca ve el nombre del tratamiento, el nombre del clínico ni los detalles clínicos — por lo que no puede repetirlos.
Etapa 2: Redactar
El modelo de lenguaje genera una respuesta basada en la clasificación, el tono de voz aprobado de la clínica y un conjunto de restricciones estrictas de cumplimiento que se inyectan como reglas innegociables — no como sugerencias en un prompt, sino como parámetros estructurales que el modelo no puede anular. Estas restricciones incluyen: nunca confirmar la identidad del paciente, nunca hacer referencia a detalles clínicos, nunca nombrar al personal, nunca hacer afirmaciones clínicas absolutas y siempre redirigir a un canal privado.
Etapa 3: Depurar
Antes de que la respuesta redactada llegue a la cola de revisión de la clínica, pasa por un filtro de salida determinista. Esto no es otra IA — es un sistema basado en reglas que escanea la respuesta en busca de cualquier lenguaje que pudiera confirmar la identidad del paciente, hacer referencia a tratamientos específicos, nombrar a personas o hacer afirmaciones clínicas. Si se detecta cualquier lenguaje de este tipo, la respuesta se bloquea y se vuelve a redactar. Esta etapa captura cualquier cosa que las restricciones del modelo de redacción pasaran por alto — proporcionando un suelo estricto de cumplimiento que ningún modelo probabilístico puede ofrecer por sí solo.
El resultado es una respuesta que es única, contextualmente apropiada al sentimiento de la reseña, escrita en la voz de la clínica — y demostrablemente conforme con el código deontológico del CGD, la Ley 41/2002, el Artículo 9 del RGPD y las regulaciones específicas de cada jurisdicción para cada mercado al que sirve Fidelia.
Crucialmente, Fidelia no publica automáticamente. Cada respuesta entra en una cola de revisión donde el propietario o director de la clínica la aprueba, edita o rechaza antes de su publicación. El CGD considera responsable al profesional colegiado — Fidelia apoya esa responsabilidad en lugar de sustituirla.
El cumplimiento de Fidelia es estructural, no instructivo. El modelo de redacción nunca ve los detalles clínicos que no debe repetir. El filtro de salida captura cualquier cosa que las restricciones del modelo pasen por alto. La clínica conserva la aprobación final. Esta es la diferencia entre «decirle a la IA que sea cuidadosa» y construir un sistema donde la salida no conforme no puede llegar a publicarse.
Preguntas frecuentes
No existe ninguna ley que prohíba el uso de IA para redactar respuestas a reseñas. Sin embargo, la clínica — no la IA — es legalmente responsable del contenido de cada respuesta publicada. Si ChatGPT genera una respuesta que confirma la identidad del paciente o divulga detalles clínicos, la clínica es responsable bajo el código deontológico del CGD, la Ley 41/2002 y el Artículo 9 del RGPD. Usar una herramienta de IA que carece de salvaguardas estructurales de cumplimiento traslada toda la carga a la persona que pulsa «publicar».
La ingeniería de prompts puede reducir la frecuencia de salidas no conformes, pero no puede eliminarlas. ChatGPT es un modelo de lenguaje de propósito general sin capa estructural de cumplimiento para regulaciones sanitarias. Procesa el texto completo de la reseña — incluidos los detalles clínicos — y genera respuestas de forma probabilística. Un prompt cuidadosamente elaborado puede funcionar 9 de cada 10 veces, pero el único fallo podría ser la respuesta que desencadene un expediente del CGD. El cumplimiento exige aplicación determinista, no mejora probabilística.
ChatGPT es un modelo de lenguaje de propósito general que genera texto basado en patrones de sus datos de entrenamiento. No tiene conciencia del código deontológico del CGD, el RGPD ni las obligaciones de confidencialidad clínica. Fidelia es un sistema específico con un pipeline de tres etapas: clasificación (categorizando el sentimiento de la reseña sin exponer contenido clínico al modelo de lenguaje), redacción (generando respuestas dentro de restricciones de cumplimiento estrictas) y depuración (un filtro de salida determinista que bloquea cualquier respuesta que contenga lenguaje identificativo del paciente o clínicamente específico). Las reglas de cumplimiento son estructurales — no pueden ser anuladas por el contenido de la reseña ni por manipulación de prompts.
Audite cada respuesta publicada contra las cinco categorías de infracción descritas en este artículo: confirmar el estatus de paciente, repetir detalles clínicos, nombrar al personal, hacer afirmaciones clínicas y usar plantillas idénticas. Cualquier respuesta que entre en una o más de estas categorías debe editarse o eliminarse de inmediato. Si identifica respuestas que confirman una relación con el paciente o divulgan detalles clínicos, considere si una notificación voluntaria a la AEPD es apropiada — particularmente si las respuestas han estado en línea durante un período prolongado. En adelante, implemente un paso de revisión de cumplimiento antes de publicar cualquier respuesta generada por IA.
Vea cómo Fidelia redacta respuestas conformes para su clínica
Pruebe la demo en directo con una reseña real de Google — y vea cómo el pipeline de tres etapas de Fidelia mantiene sus respuestas dentro de los límites del CGD y el RGPD, automáticamente.
Probar la demo en directo →