Conteúdos
  1. Porque as clínicas são tentadas a usar o ChatGPT
  2. As 5 coisas que o ChatGPT faz e que violam a OMD e o RGPD
  3. ChatGPT vs. conforme: uma comparação lado a lado
  4. Porque "dizer ao ChatGPT para ter cuidado" não funciona
  5. Como o pipeline de 3 fases da Fidelia previne isto
  6. Perguntas frequentes

Porque as clínicas são tentadas a usar o ChatGPT para responder a avaliações

O atrativo é óbvio. O ChatGPT é gratuito, rápido e gera texto que soa profissional. Para um gestor de clínica ocupado a fazer malabarismos entre consultas, escalas de pessoal e contactos de pacientes, a ideia de colar uma avaliação negativa do Google no ChatGPT e obter uma resposta polida em segundos é genuinamente atraente. Ninguém pode censurar uma clínica por querer poupar tempo.

O problema não é o impulso. O problema é que o ChatGPT é um modelo linguístico de propósito geral, sem consciência da regulamentação da saúde. Nunca leu o Código Deontológico da OMD. Não sabe que confirmar que alguém visitou a sua clínica constitui uma divulgação de dados de saúde de categoria especial nos termos do Art. 9.º do RGPD. Gera texto que soa apropriado porque foi treinado em milhões de respostas de avaliações de empresas — a esmagadora maioria das quais foi escrita por restaurantes, hotéis e retalhistas, onde confirmar uma relação com o cliente não tem qualquer consequência regulatória.

As clínicas dentárias e médicas não são restaurantes. As regras são fundamentalmente diferentes, e o ChatGPT não sabe disso.

Ponto-chave

O ChatGPT gera respostas a avaliações com base em padrões de setores não regulados. Produz texto que soa profissional mas que rotineiramente viola as obrigações de sigilo profissional aplicáveis especificamente às clínicas de saúde.

As 5 coisas que o ChatGPT faz e que violam a OMD e o RGPD

Testámos o ChatGPT (GPT-4o, Abril de 2026) com 50 cenários realistas de avaliações dentárias, abrangendo um leque de sentimentos e contextos clínicos. Em todos os casos, a saída por defeito continha pelo menos uma das cinco violações de conformidade seguintes. Eis o que vigiar.

1. Confirmar que o avaliador é paciente

A frase de abertura mais comum do ChatGPT é alguma variação de "Obrigado por visitar a nossa clínica" ou "Agradecemos por nos escolher para os seus cuidados dentários." Ambas as frases confirmam que o avaliador tem uma relação de paciente com a clínica. Nos termos do Art. 9.º do RGPD, isto é uma divulgação de dados de saúde de categoria especial — o facto de alguém ter frequentado uma clínica dentária revela informação sobre a sua saúde. O avaliador pode ter divulgado isto por iniciativa própria, mas a confirmação por parte da clínica é uma atividade de tratamento separada para a qual não existe base de licitude.

2. Repetir detalhes clínicos na resposta

Quando um avaliador menciona um tratamento específico — uma desvitalização, uma extração, uma coroa — o ChatGPT refere-o de forma fiável na resposta. "Lamentamos que a sua experiência com a desvitalização não tenha sido a esperada" parece empático, mas constitui a confirmação pública pela clínica de qual procedimento clínico foi realizado num indivíduo nomeado. Isto viola o Código Deontológico da OMD e cria um registo público permanente que liga o avaliador a um tratamento específico.

3. Nomear membros do pessoal

Se o avaliador mencionar um dentista ou higienista pelo nome, o ChatGPT incorporará frequentemente esse nome na resposta: "A Dra. Patel esforça-se sempre por prestar os melhores cuidados" ou "Vamos partilhar o seu feedback com a Sara." Isto liga um clínico específico a uma interação específica com um paciente num fórum público — uma divulgação à qual nem o clínico nem o paciente consentiram, e que pode ser usada como prova num processo disciplinar.

4. Fazer afirmações clínicas absolutas

O ChatGPT tem tendência para tranquilizar com estatísticas e absolutos: "Os nossos procedimentos têm uma taxa de sucesso de 98%", "Usamos a tecnologia mais recente para garantir os melhores resultados" ou "Este tipo de sensibilidade habitualmente desaparece em duas semanas." Estas declarações constituem afirmações clínicas feitas num fórum público. São inverificáveis, potencialmente enganosas e — se um paciente confiar nelas — podem criar responsabilidade. A regulamentação da OMD sobre publicidade e comunicações públicas proíbe afirmações que não possam ser fundamentadas.

5. Usar o mesmo modelo para todas as avaliações

Mesmo quando lhe é pedido para gerar respostas "únicas", o ChatGPT gravita para os mesmos padrões e expressões estruturais. Após uma dúzia de avaliações, as respostas tornam-se reconhecivelmente formulaicas. O algoritmo do Google penaliza respostas idênticas ou quase idênticas, o que prejudica a sua visibilidade na pesquisa local. E mais importante: os potenciais pacientes que leiam as suas avaliações notarão o padrão de cópia e tirarão conclusões sobre a seriedade com que leva o feedback.

Ponto-chave

Estas não são situações marginais nem prompts invulgares. São o comportamento por defeito do ChatGPT quando lhe é dada uma avaliação dentária para responder. Cada uma delas cria exposição regulatória ao abrigo das normas da OMD, do RGPD ou de ambos.

ChatGPT vs. conforme: uma comparação lado a lado

Para ilustrar a diferença em termos concretos, eis uma avaliação típica do Google seguida do que o ChatGPT gera e do que é uma resposta conforme.

"Tirei o dente do siso aqui na terça-feira passada. A extração foi uma agonia e o Dr. Khan não pareceu importar-se. Ainda inchada cinco dias depois. Não recomendaria."

— Exemplo de avaliação do Google
Não conforme — não usar (saída do ChatGPT)

"Obrigado por partilhar a sua experiência connosco. Lamentamos saber que a extração do seu dente do siso com o Dr. Khan não foi confortável. O inchaço pós-extração é bastante comum e geralmente desaparece em 7-10 dias. Procuramos sempre tornar os procedimentos o mais indolores possível, e adoraríamos a oportunidade de verificar a sua recuperação. Por favor não hesite em ligar para a nossa receção para agendar uma consulta de seguimento."

Violações: Confirma a relação de paciente ("a sua experiência connosco"). Confirma o tratamento específico (extração do dente do siso). Nomeia um membro do pessoal (Dr. Khan). Faz uma afirmação clínica (o inchaço desaparece em 7-10 dias). Refere seguimento clínico. Viola o Código Deontológico da OMD e o Art. 9.º do RGPD.

Resposta conforme

"Obrigado por dedicar tempo a deixar este feedback. Lamentamos saber da experiência que descreveu, e levamos todas as preocupações muito a sério. Gostaríamos da oportunidade de discutir este assunto consigo diretamente — por favor contacte-nos pelo +351 21 123 45 67 ou em [email protected] para podermos abordar isto adequadamente e em privado."

Passa: Sem confirmação do estatuto de paciente. Sem referência a qualquer tratamento ou clínico. Sem afirmações clínicas. Tom empático. Redireciona para canal privado. Conforme com o Código Deontológico da OMD e o RGPD.

A resposta conforme é mais curta, mas cumpre tudo o que uma resposta pública precisa de fazer: demonstra que a clínica está a ouvir, expressa preocupação genuína e desloca a conversa para um canal privado onde os detalhes clínicos podem ser discutidos em segurança. A versão do ChatGPT parece mais "útil" — mas cada detalhe adicional que fornece é uma violação de conformidade.

Porque "dizer ao ChatGPT para ter cuidado" não funciona

A primeira objeção que ouvimos é: "Não posso simplesmente acrescentar instruções ao prompt? Dizer-lhe para não confirmar a identidade do paciente, para não mencionar tratamentos, para não nomear pessoal?" Em teoria, sim. Na prática, esta abordagem falha por três razões estruturais.

O modelo vê o conteúdo clínico

Quando cola uma avaliação no ChatGPT, o modelo processa o texto na íntegra — incluindo cada detalhe clínico que o avaliador mencionou. O nome do tratamento, o nome do clínico, as datas, os sintomas — tudo entra na janela de contexto do modelo e influencia a saída. Dizer ao modelo para "ignorar" esta informação é como pedir a alguém para não pensar num urso branco. A informação está lá e infiltra-se na resposta de formas subtis: uma referência à "sua visita recente", uma garantia sobre "este tipo de procedimento", uma menção ao "membro da equipa envolvido".

Os prompts podem ser sobrepostos pelo conteúdo da avaliação

O ChatGPT é suscetível ao que os investigadores chamam injeção de prompt — em que o texto de entrada (neste caso, a avaliação) influencia o comportamento do modelo de formas que sobrepõem ou enfraquecem o prompt do sistema. Uma avaliação particularmente detalhada ou emocionalmente carregada pode levar o modelo a "esquecer" as suas instruções e regressar ao seu padrão de resposta empática-mas-não-conforme por defeito. Não pode garantir que o seu prompt cuidadosamente elaborado resista a todas as avaliações possíveis.

Não existe camada determinística de aplicação

A questão fundamental é arquitetónica. O ChatGPT gera texto de forma probabilística — prevê a palavra seguinte mais provável com base no input e nos seus dados de treino. Não existe um passo de verificação separado que confronte a saída com um conjunto de regras de conformidade antes de chegar até si. Cada resposta é uma tentativa de melhor esforço. Para uma resposta de restaurante, uma tentativa de melhor esforço é suficiente. Para uma clínica de saúde a operar ao abrigo das obrigações da OMD e do RGPD, "melhor esforço" não é um padrão de conformidade.

Ponto-chave

A engenharia de prompts é uma melhoria probabilística, não uma salvaguarda estrutural. Reduz a frequência de saídas não conformes mas não as elimina. A conformidade na saúde exige aplicação determinística — regras aplicadas a cada resposta sem exceção, independentemente da entrada.

Como o pipeline de 3 fases da Fidelia previne isto

A Fidelia foi concebida especificamente para este problema. Em vez de depender de um único modelo de propósito geral para "ter cuidado", a Fidelia usa um pipeline de três fases onde a conformidade é aplicada estruturalmente em cada fase.

Fase 1: Classificar

A avaliação recebida é classificada por sentimento e categoria (queixa clínica, queixa de serviço, feedback positivo, etc.) sem expor o conteúdo clínico bruto ao modelo linguístico que redige a resposta. A fase de classificação extrai que tipo de avaliação é, não os detalhes específicos. Isto significa que o modelo de redação nunca vê o nome do tratamento, o nome do clínico ou as especificidades clínicas — pelo que não os pode repetir.

Fase 2: Redigir

O modelo linguístico gera uma resposta com base na classificação, no tom de voz aprovado pela clínica e num conjunto de restrições rígidas de conformidade injetadas como regras inegociáveis — não como sugestões num prompt, mas como parâmetros estruturais que o modelo não pode anular. Estas restrições incluem: nunca confirmar a identidade do paciente, nunca referir detalhes clínicos, nunca nomear pessoal, nunca fazer afirmações clínicas absolutas e redirecionar sempre para um canal privado.

Fase 3: Filtrar

Antes de a resposta redigida chegar à fila de revisão da clínica, passa por um filtro de saída determinístico. Isto não é outra IA — é um sistema baseado em regras que analisa a resposta em busca de qualquer linguagem que possa confirmar a identidade do paciente, referir tratamentos específicos, nomear indivíduos ou fazer afirmações clínicas. Se for detetada qualquer linguagem deste tipo, a resposta é bloqueada e redigida de novo. Esta fase apanha tudo o que as restrições do modelo de redação tenham deixado escapar — proporcionando um piso rígido de conformidade que nenhum modelo probabilístico pode oferecer por si só.

O resultado é uma resposta que é única, contextualmente adequada ao sentimento da avaliação, escrita na voz da clínica — e demonstravelmente conforme com o Código Deontológico da OMD, o Art. 9.º do RGPD, a Lei 58/2019 e as regulamentações específicas de cada jurisdição em que a Fidelia opera.

De forma crucial, a Fidelia não publica automaticamente. Cada resposta entra numa fila de revisão onde o titular ou gestor da clínica aprova, edita ou rejeita antes da publicação. A OMD responsabiliza o profissional inscrito — a Fidelia apoia essa responsabilidade em vez de a substituir.

Ponto-chave

A conformidade da Fidelia é estrutural, não instrucional. O modelo de redação nunca vê os detalhes clínicos que não deve repetir. O filtro de saída apanha tudo o que as restrições do modelo deixem escapar. A clínica mantém a aprovação final. Esta é a diferença entre "dizer à IA para ter cuidado" e construir um sistema onde a saída não conforme não pode chegar à publicação.

Perguntas frequentes

É legal usar o ChatGPT para responder a avaliações de pacientes em Portugal?

Não existe lei que proíba o uso de IA para redigir respostas a avaliações. No entanto, é a clínica — e não a IA — a responsável legal pelo conteúdo de cada resposta publicada. Se o ChatGPT gerar uma resposta que confirme a identidade do paciente ou divulgue detalhes clínicos, a clínica é responsável nos termos do Código Deontológico da OMD, do Art. 9.º do RGPD e da Lei 58/2019. Usar uma ferramenta de IA sem salvaguardas estruturais de conformidade transfere o ónus inteiramente para a pessoa que clica em "publicar".

Posso tornar o ChatGPT conforme escrevendo um prompt melhor?

A engenharia de prompts pode reduzir a frequência de respostas não conformes, mas não as elimina. O ChatGPT é um modelo linguístico de propósito geral sem camada estrutural de aplicação para regulamentos da saúde. Processa o texto integral da avaliação — incluindo detalhes clínicos — e gera respostas de forma probabilística. Um prompt cuidadosamente elaborado pode funcionar 9 em 10 vezes, mas a falha pode ser a resposta que desencadeia uma investigação da OMD. A conformidade exige aplicação determinística, não melhoria probabilística.

Qual é a diferença entre o ChatGPT e uma ferramenta de conformidade dedicada como a Fidelia?

O ChatGPT é um modelo linguístico de propósito geral que gera texto com base em padrões dos dados de treino. Não tem consciência das normas da OMD, do RGPD nem das obrigações de sigilo profissional. A Fidelia é um sistema dedicado com um pipeline de três fases: classificação (categoriza o sentimento da avaliação sem expor o conteúdo clínico ao modelo linguístico), redação (gera respostas dentro de restrições rígidas de conformidade) e filtragem (um filtro de saída determinístico que bloqueia qualquer resposta que contenha linguagem identificadora do paciente ou clinicamente específica). As regras de conformidade são estruturais — não podem ser ignoradas pelo conteúdo da avaliação nem por manipulação de prompt.

O que devo fazer se já publiquei respostas a avaliações geradas pelo ChatGPT?

Audite todas as respostas publicadas relativamente às cinco categorias de violação descritas neste artigo: confirmar o estatuto de paciente, repetir detalhes clínicos, nomear pessoal, fazer afirmações clínicas e usar modelos idênticos. Qualquer resposta que se enquadre numa ou mais destas categorias deve ser editada ou eliminada de imediato. Se identificar respostas que confirmam uma relação de paciente ou divulgam detalhes clínicos, considere se uma comunicação voluntária à CNPD é apropriada — particularmente se as respostas estiveram visíveis durante um longo período. Daqui em diante, implemente um passo de revisão de conformidade antes de publicar qualquer resposta gerada por IA.

Veja como a Fidelia redige respostas conformes para a sua clínica

Experimente a demo ao vivo com uma avaliação real do Google — e veja como o pipeline de três fases da Fidelia mantém as suas respostas dentro dos limites da OMD e do RGPD, automaticamente.

Experimentar a demo ao vivo