IA no SUS pode ajudar a identificar violência contra LGBTQIA+
Foto: Agência Brasil
saúde

IA pode ajudar SUS a identificar violência contra pessoas LGBTQIA+

Um projeto em desenvolvimento na Unifesp (Universidade Federal de São Paulo) quer usar inteligência artificial para ajudar profissionais do SUS a identificar sinais de violência e apoiar decisões clínicas em atendimentos complexos, envolvendo populações consideradas mais vulneráveis, incluindo pessoas LGBTQIA+.

Coordenada pelo enfermeiro e professor Hugo Fernandes, da Escola Paulista de Enfermagem, a pesquisa desenvolve um centro de inteligência artificial que inclui um chatbot capaz de analisar informações do atendimento, identificar sinais de violência e indicar notificações e encaminhamentos adequados dentro da rede de saúde e de proteção. 

Segundo Fernandes, a proposta surgiu a partir das dificuldades enfrentadas por profissionais de saúde para registrar e encaminhar casos de violência. Desde 2006, essas situações são consideradas agravos de notificação compulsória no sistema de saúde. Na prática, porém, esse processo enfrenta falhas, explica o coordenador. “Informações podem se perder, as fichas são complexas e os encaminhamentos nem sempre são feitos de forma adequada.”

O chatbot foi desenhado para apoiar a decisão clínica de profissionais da atenção primária, como médicos, enfermeiros e psicólogos que atuam em UBSs (Unidades Básicas de Saúde) e AMAs (Assistência Médica Ambulatorial). A ferramenta ajuda a identificar sinais de violência, orientar o preenchimento da notificação compulsória e indicar quais serviços devem ser acionados em cada caso.

assine nossa newsletter

Entre para O Vale. Receba os nossos destaques e um conteúdo exclusivo. Tudo direto no seu e-mail.

Ao se cadastrar, você aceita a política de privacidade da Diadorim.

Fernandes cita como exemplo o atendimento de um adolescente de 16 anos vítima de agressão motivada por homofobia. Além do cuidado médico, o caso pode exigir encaminhamento para serviços especializados, acionamento do Conselho Tutelar e registro em delegacias voltadas a direitos humanos.

“Isso, durante um atendimento de 15 minutos, nem sempre é feito de forma rápida”, afirma. Segundo ele, a ferramenta busca apoiar decisões mais seguras e agilizar o encaminhamento das vítimas.

O sistema também inclui orientações sobre abordagem e linguagem. Dentro do chatbot há uma personagem — uma enfermeira virtual — que sugere formas de acolhimento, como o uso de pronome neutro quando necessário e orientações sobre como conduzir a conversa dependendo do contexto da violência.

Fernandes ressalta que a ferramenta não substitui o profissional de saúde. “A tomada de decisão continua sendo do profissional. A IA é um apoiador”, diz.

Como o sistema foi desenvolvido

O projeto começou a ser desenvolvido em 2023 e recebeu financiamento de R$ 252,5 mil da Fundação Bill e Melinda Gates e do Ministério da Saúde. A primeira etapa consistiu na criação do centro de inteligência artificial, que reúne profissionais da saúde, tecnologia da informação e comunicação.

Ao todo, cerca de 40 pessoas participam da iniciativa, sendo aproximadamente 10 diretamente envolvidas no desenvolvimento do sistema.

Para treinar a ferramenta, a equipe criou um banco curado de informações com artigos científicos, protocolos de saúde e documentos institucionais. Entre eles estão as chamadas linhas de cuidado da Secretaria Municipal de Saúde de São Paulo, que orientam a abordagem de populações vítimas de violência, incluindo a população LGBTQIA+.

O protótipo passou por validação com especialistas. Foram convidados 110 profissionais das áreas de saúde e tecnologia para avaliar o sistema, selecionados a partir do currículo Lattes. Segundo Fernandes, as avaliações foram favoráveis tanto em usabilidade quanto em aplicabilidade.

Testes e proteção de dados

A pesquisa está agora na fase de validação com profissionais da rede de saúde. A equipe busca firmar parceria com a Secretaria Municipal de Saúde de São Paulo para implementar a ferramenta em serviços públicos.

A expectativa é concluir essa etapa até dezembro de 2026. O chatbot deverá ser público e gratuito para profissionais habilitados.

O projeto foi aprovado pelo comitê de ética da universidade e foi estruturado considerando as regras da LGPD (Lei Geral de Proteção de Dados).

Entre as medidas adotadas estão login com dupla autenticação e acesso restrito a profissionais habilitados. Após cada atendimento, o sistema gera a ficha de notificação e limpa automaticamente as informações inseridas, evitando armazenamento de dados sensíveis.

A equipe também criou mecanismos para evitar ataques automatizados ao sistema, incluindo verificações para diferenciar usuários humanos de máquinas.

Pesquisadores querem firmar parceria com a Secretaria Municipal de Saúde de São Paulo para implementar a ferramenta em serviços públicos

Foto: Prefeitura de São Paulo

Cuidados éticos no uso de IA na saúde

O uso de inteligência artificial para apoiar atendimentos de saúde exige alguns cuidados. Segundo Daniel Dourado, médico, advogado e pesquisador do Centro de Estudos e Pesquisas de Direito Sanitário (Cepedisa), da USP, ferramentas desse tipo podem ajudar profissionais, mas precisam ser usadas com atenção a possíveis riscos.

Autor do livro “Inteligência Artificial e Saúde: Conexões Éticas e Regulatórias”, Dourado diz que entre os principais pontos de atenção estão para esse uso da tecnologia estão o viés algorítmico, as chamadas “alucinações” e a dificuldade de entender como o sistema chegou a determinada recomendação.

O viés pode acontecer quando a ferramenta é treinada com dados que não representam bem certos grupos da população. Nesse caso, o sistema pode gerar recomendações inadequadas justamente para pessoas mais vulneráveis.

As “alucinações” são respostas que parecem corretas, mas estão erradas. Isso pode ocorrer quando o sistema é usado em situações para as quais ele não foi testado ou validado.

Em atendimentos envolvendo violência, esse problema pode ter impacto direto no cuidado das vítimas. “Um falso negativo pode deixar a pessoa sem proteção e um falso positivo pode induzir condutas inadequadas.”

Diadorim no seu celular

Receba nosso conteúdo direto no celular. Acompanhe a Diadorim pelo Telegram e WhatsApp. É de graça!

entrar

Outro ponto de atenção é quando o profissional não entende claramente como a recomendação foi produzida pelo sistema. Isso pode dificultar a avaliação crítica da sugestão feita pela ferramenta.

Para reduzir esses riscos, Dourado afirma que ferramentas desse tipo precisam passar por testes rigorosos antes de serem usadas na rede pública. Também é importante treinar os profissionais para que entendam que a inteligência artificial serve como apoio, e não substitui a decisão clínica.

A proteção de dados também exige atenção especial. Informações sobre violência são consideradas sensíveis, porque envolvem dados de saúde e situações de vulnerabilidade. Se essas informações forem acessadas indevidamente, podem expor as vítimas a novos riscos.

Outro cuidado é evitar o chamado viés de automação, quando profissionais passam a aceitar automaticamente a sugestão da ferramenta. “O principal fenômeno descrito nesse uso é o viés de automação (“automation bias”), que é quando o profissional tende a aceitar a sugestão da IA sem questionamento (especialmente sob carga de trabalho alta), deixando de perceber erros ou nuances do caso.”

A Agência Diadorim procurou o Ministério da Saúde para saber se a pasta acompanha outras pesquisas com inteligência artificial voltadas ao atendimento de pessoas LGBTQIA+ ou ao enfrentamento da violência. O ministério também foi questionado sobre integração com sistemas do SUS e sobre dados de notificações de violência contra essa população em 2024 e 2025. Não houve resposta até a publicação deste texto.

A reportagem também questionou a Secretaria Municipal de Saúde de São Paulo sobre possível parceria com a Unifesp para testar o sistema, o interesse em adotar ferramentas desse tipo na rede municipal e as dificuldades na notificação de casos de violência. Não houve retorno até a publicação.

Publicidade

Publicidade

leia+