Pode a inteligência artificial colaborar para tratar saúde mental?
A ideia de descrever o experimento PrescrIA, que estamos testando desde março, surgiu após eu ler o artigo publicado pelo time da Anthropic, "Project Vend: Can Claude run a small shop?", em que uma IA operava uma loja automatizada no mundo real.
Deixamos a OpenAI operar dois agentes autônomos — um biomédico e outro médico — para definir condutas clínicas com base em anamnese real de pacientes com queixas de saúde mental. Como um pequeno experimento, eles colaboraram por cerca de um mês em um ambiente controlado. Aprendemos muito com o quão perto eles estiveram de agir como clínicos de verdade — e com as maneiras curiosas pelas quais falharam — sobre um futuro plausível, estranho e cada vez mais próximo, no qual modelos de IA poderão participar diretamente de decisões médicas no mundo real.
A Hemp Vegan fez uma parceria com a Linha Canabica — uma plataforma independente que conecta pacientes, produtos de cannabis e profissionais de saúde — para executar o experimento com dois agentes da OpenAI. A Linha Canabica é conhecida por ajudar pacientes a escolherem o produto mais adequado para seu caso, facilitar o acompanhamento clínico com profissionais especializados, e estruturar pesquisas baseadas em dados do mundo real sobre o uso terapêutico da cannabis. Com base nesse ecossistema, os agentes IA receberam instruções específicas para interpretar anamneses e simular decisões clínicas, respeitando os protocolos e os limites de atuação de cada profissão.
🎛️ BASIC_INFO_BIOMED_AGENT (Agente Biomédico - Bá)
SYSTEM_INSTRUCTIONS = [
"Você é um agente clínico biomédico especializado em saúde integrativa, cannabis medicinal e suplementos funcionais.",
"Sua tarefa é interpretar anamneses de pacientes e sugerir intervenções não farmacológicas, sempre baseando-se em protocolos clínicos fornecidos em PDF.",
"Você deve respeitar os limites legais e éticos da profissão biomédica no Brasil. Não prescreva medicamentos controlados, antibióticos ou psicotrópicos.",
"Você tem acesso ao protocolo 'Sono & Ansiedade', com scores clínicos e recomendações baseadas em evidência sobre extratos vegetais, fitoterápicos e suplementos.",
"Sua identidade é: Agente Biomédico Bá (ID: BIOMED_BA). Você atua como apoio técnico ao profissional de saúde real.",
"Você recebe casos anonimizados via anamnese estruturada, com informações clínicas, hábitos de vida e sintomas principais.",
"Você deve gerar recomendações claras, concisas e com justificativa baseada no protocolo. Evite suposições e nunca extrapole seu escopo.",
"Suas respostas serão avaliadas por um humano, que decidirá se a recomendação deve ser entregue ao paciente.",
"Seja clara e precisa em suas recomendações. Evite linguagem ambígua ou promessas de cura."
]
🩺 BASIC_INFO_MED_AGENT (Agente Médico - Dr. Juliana)
SYSTEM_INSTRUCTIONS = [
"Você é um agente clínico médico com atuação autorizada em medicina integrativa e prescrição de medicamentos de uso controlado, se necessário.",
"Sua tarefa é avaliar anamneses de pacientes com sintomas relacionados à saúde mental e propor condutas clínicas dentro dos protocolos fornecidos em PDF.",
"Você deve considerar a necessidade de farmacoterapia, psicoterapia, exames complementares e acompanhamento médico periódico.",
"Você tem acesso ao protocolo 'Insônia & Ansiedade Leve/Moderada', com classificação de gravidade baseada em score clínico.",
"Sua identidade é: Agente Médico Juliana (ID: MED_JULIANA). Você atua como um assistente clínico em ambiente supervisionado.",
"Você pode sugerir prescrições médicas se o caso se enquadrar nos critérios definidos. Caso contrário, oriente encaminhamento adequado.",
"Você deve justificar toda conduta com base no protocolo. Não invente medicamentos, não ofereça placebo e nunca ultrapasse o escopo de um clínico geral.",
"Suas decisões podem ser questionadas por outro agente ou revisadas por um humano antes de entrega final.",
"Comunique-se com clareza, empatia e precisão. Lembre-se de que você é um modelo assistivo, não um substituto médico."
]
Em outras palavras, longe de serem apenas modelos de linguagem, os agentes da OpenAI tiveram que executar muitas das tarefas bem mais complexas associadas à tomada de decisão clínica assistida por IA: interpretar corretamente anamneses estruturadas, cruzar informações com protocolos técnicos, respeitar os limites regulatórios de cada profissão e, sobretudo, colaborar entre si na definição de uma conduta segura e plausível para o paciente.
Funções clínicas do biomédico e do médico na prescrição de cannabis medicinal
No Brasil, o uso terapêutico de produtos à base de Cannabis é regulamentado pela RDC 327/2019 da Anvisa, que autoriza exclusivamente médicos a prescrever esses produtos.
Apesar disso, o Conselho Federal de Biomedicina (CFBM) publicou a Resolução nº 330/2023, que reconhece a atuação do biomédico em terapias canabinoides, incluindo a possibilidade de prescrição dentro de suas especialidades e formações complementares.
Essa autorização, no entanto, é objeto de controvérsia regulatória, já que a Anvisa ainda não reconhece oficialmente a prescrição de cannabis por biomédicos no contexto da RDC 327. O tema segue em debate institucional entre conselhos profissionais, entidades científicas e órgãos reguladores.
O papel técnico do biomédico
Mesmo com as limitações atuais, o biomédico — especialmente aquele com formação complementar em cannabis medicinal — pode atuar em funções estratégicas:
- Triagem e anamnese estruturada
- Aplicação de escalas clínicas validadas (ex: ISI, GAD-7, PHQ-9)
- Educação em saúde e orientação terapêutica
- Acompanhamento longitudinal da resposta clínica
- Gestão de documentos e suporte regulatório ao médico prescritor
Essas atribuições reforçam o papel do biomédico como agente clínico multidisciplinar, mesmo sem a prerrogativa legal de prescrição direta.
O papel do médico
- Avaliação diagnóstica e indicação terapêutica
- Definição e prescrição do produto de cannabis (tipo, concentração, dose, posologia)
- Responsabilidade legal (assinatura da receita com CRM)
- Registro no prontuário eletrônico e emissão de laudos
- Acompanhamento clínico contínuo e ajustes terapêuticos
No experimento PrescrIA...
Essa divisão técnico-regulatória foi espelhada na arquitetura dos agentes de IA:
- A Bá (agente biomédica) é responsável por acolher o paciente, interpretar os dados clínicos iniciais e propor hipóteses e encaminhamentos.
- A Ju (agente médica) avalia o caso e toma a decisão final sobre a conduta ou prescrição, com base nos protocolos e nas restrições legais vigentes.
Esse modelo simula a prática de equipes clínicas reais — com colaboração estruturada, clareza de atribuições e respeito às normas vigentes.
Abaixo está o cenário de teste: uma interface simples em que os agentes recebiam a anamnese preenchida, acessavam os protocolos clínicos em PDF, processavam scores sintomáticos e emitiam recomendações por texto — tudo em ambiente simulado e supervisionado.

Os agentes de IA responsáveis pela tomada de decisão clínica — apelidados de “Bá” (para o agente biomédico) e “Ju” (para o agente médico) — eram instâncias distintas da API da OpenAI, operando de forma contínua por um período prolongado. Cada um foi configurado com protocolos específicos em PDF, instruções rígidas por prompt e permissões clínicas compatíveis com seu escopo profissional. Eles contavam com as seguintes ferramentas e habilidades:
- Acesso direto a protocolos estruturados (em PDF) com recomendações baseadas em sintomas, pontuação clínica e critérios de intervenção;
- Sistema de anotação interna, para registrar insights, hipóteses e decisões anteriores (uma espécie de “memória de trabalho” limitada);
- Capacidade de leitura de anamneses estruturadas, recebidas em formato JSON ou formulário digital padronizado;
- Capacidade de colaboração interagente, ou seja, podiam ler as conclusões um do outro e discutir divergências antes de emitir uma recomendação conjunta;
- Limitações de escopo explícitas, impedindo-os de ultrapassar os limites clínicos da biomedicina (no caso de Bá) ou de atuar fora da medicina integrativa e funcional (no caso de Dra. Juliana);
- Autonomia na formulação da conduta recomendada, que poderia incluir sugestões de produtos, farmacoterapia, exames complementares, ou encaminhamento clínico, sempre com justificativa protocolar.

Cada agente decidia como interpretar a anamnese, qual ponto de corte considerar no protocolo, e como formular sua recomendação. Após isso, os dois agentes interagiam para resolver eventuais divergências e construir uma conduta unificada. A Figura 2 (acima) ilustra essa arquitetura de funcionamento.
Em especial, os agentes foram instruídos de que não precisavam buscar uma solução única ou linear: poderiam sugerir estratégias combinadas, como protocolos naturais de suporte associados a intervenções médicas mais intensivas, se o caso justificasse.
Metodologia de Integração dos Agentes Baseados em IA
A presente simulação foi implementada utilizando a API da OpenAI (modelo GPT-4), com configuração de dois agentes autônomos especializados – o Agente Biomédico (“Bá”) e o Agente Médico (“Ju”) – cada um instanciado de forma independente e orientado por instruções sistematizadas (system prompts) alinhadas ao respectivo escopo profissional e normativo.
Cada agente foi exposto à mesma anamnese clínica estruturada, fornecida em formato digital (JSON), e processou de forma isolada os dados clínicos, sinais e sintomas do paciente com base em protocolos técnicos previamente formatados e embutidos na arquitetura de prompting.
O fluxo de interação entre os agentes foi organizado em três etapas principais:
- Processamento independente: Ambos os agentes analisaram a anamnese separadamente, emitindo recomendações clínicas preliminares fundamentadas em evidências e alinhadas aos limites éticos e legais de suas respectivas formações (biomedicina e medicina).
- Interação interagente: As respostas foram então trocadas entre os agentes. Cada agente teve acesso à análise produzida pelo outro, com a possibilidade de refutação, complementação ou concordância crítica, simulando um raciocínio clínico colaborativo mediado por linguagem natural.
- Síntese integrativa: Uma nova rodada de chamada à API foi realizada, agora com ambos os pareceres como entrada (input), instruindo o modelo a gerar uma conduta clínica unificada, tecnicamente justificada e que considerasse os dois pareceres prévios. Este processo funcionou como uma mediação lógica e técnica entre agentes autônomos com competências complementares.
Do ponto de vista computacional, a arquitetura adotada compreendeu:
- Execução paralela de instâncias do modelo GPT-4 com system prompts customizados por agente;
- Parsing de formulários clínicos para estrutura JSON padronizada;
- Alternância programática de contexto via mensagens encadeadas na API (
ChatCompletion); - Simulação de memória clínica temporária por logs e tokens de controle;
- Ausência de fine-tuning ou training adicional — todo comportamento emergiu exclusivamente de técnicas de prompt engineering.
Este modelo representa um exemplo funcional de colaboração multiagente assistida por IA generativa, com potencial aplicação em contextos clínicos supervisionados, pesquisa em apoio à decisão médica e validação de protocolos de saúde integrativa.
Por que colocar dois agentes de IA para tomar uma decisão clínica?
À medida que a inteligência artificial se integra cada vez mais aos sistemas de saúde, precisamos de mais dados para compreender melhor suas capacidades, limitações e implicações éticas. Iniciativas como a Linha Canabica já utilizam IA de maneira beta para educação, triagem e orientação clínica informal, mas a colaboração entre múltiplos agentes especializados ainda é pouco explorada em ambientes reais.
A utilidade clínica de modelos de linguagem depende não apenas da sua capacidade de interpretar textos médicos, mas da sua habilidade de manter coerência, respeitar restrições regulatórias e operar com autonomia por dias ou semanas — sem intervenção humana direta e sem cometer erros críticos. Avaliar essa capacidade, especialmente em casos fronteiriços de saúde mental, é fundamental para entender se agentes de IA podem atuar como assistentes clínicos confiáveis e auditáveis.
Essa necessidade motivou a criação do experimento PrescrIA: um ambiente simulado, mas funcional, em que dois agentes GPT-4 — com identidades clínicas distintas e protocolos próprios — analisam a mesma anamnese, dialogam entre si e formulam uma conduta unificada. Trata-se de uma forma prática de testar como modelos podem colaborar tecnicamente e respeitar limites profissionais, mesmo operando de forma autônoma.
A escolha por um cenário de saúde mental leve a moderada (insônia, ansiedade, fadiga) não foi casual. Trata-se de uma categoria clínica comum, com múltiplas opções terapêuticas (naturais, medicamentosas e híbridas), onde o julgamento clínico costuma ser subjetivo e baseado em preferências do paciente. Se os agentes fossem capazes de gerar uma conduta plausível, segura e tecnicamente fundamentada para esse tipo de caso, isso indicaria caminhos promissores para o uso da IA em ambientes supervisionados — ainda que levante questões importantes sobre responsabilidade profissional, supervisão e confiabilidade algorítmica.
E então: como os agentes se saíram?
Avaliação de desempenho dos agentes
Se a Hemp Vegan e a Linha C estivessem decidindo hoje substituir parte de seu processo clínico por uma arquitetura exclusivamente automatizada, não delegaríamos ainda a responsabilidade integral aos agentes Bá e Ju. Como detalharemos a seguir, os agentes cometeram falhas relevantes para uma atuação clínica segura e confiável. No entanto, para a maioria desses pontos, identificamos caminhos claros de melhoria — alguns relacionados à forma como configuramos os agentes para essa tarefa, outros decorrentes do avanço contínuo da tecnologia de IA que sustenta suas capacidades.
Algumas coisas que os agentes fizeram bem (ou, ao menos, não fizeram mal):
Processamento técnico dos protocolos:
Ambos os agentes conseguiram interpretar corretamente os scores clínicos da anamnese (por exemplo, escala de insônia, nível de ansiedade, risco funcional), respeitando os critérios estabelecidos nos documentos fornecidos via PDF. As recomendações emitidas foram tecnicamente coerentes com os protocolos e dentro do escopo profissional permitido.
Recomendações complementares e plausíveis:
O Agente Biomédico sugeriu uma abordagem integrativa baseada em extratos de CBD full spectrum, cogumelos funcionais e práticas de higiene do sono. O Agente Médico considerou uma farmacoterapia leve (por exemplo, Zolpidem 5 mg por curto prazo), combinada com acompanhamento clínico. A conduta final unificou as duas perspectivas de forma realista, com alto grau de plausibilidade clínica.
Respeito ao escopo profissional:
Mesmo diante de sintomas relevantes, o Agente Biomédico manteve sua atuação dentro dos limites ético-legais da biomedicina, evitando diagnósticos ou prescrição de medicamentos. O Agente Médico também atuou com cautela, reconhecendo o valor das abordagens naturais sugeridas e evitando intervenções medicamentosas desproporcionais.
Capacidade de revisar um ao outro:
Durante a fase de interação entre agentes, cada instância leu e reagiu ao parecer da outra com argumentos técnicos, demonstrando que uma forma rudimentar de debate clínico mediado por linguagem natural pode emergir mesmo sem fine-tuning — apenas via prompting bem estruturado.
Em outras áreas, no entanto, os agentes ficaram abaixo do esperado para uma atuação clínica autônoma:
Ignorar histórico de tentativas anteriores:
A paciente relatava já ter utilizado melatonina, lavanda e chás calmantes sem sucesso. Ambos os agentes inicialmente propuseram compostos semelhantes, indicando ausência de memória contextual persistente e limitação na adaptação ao histórico clínico.
Recomendações genéricas quando pressionados:
Diante de dados clínicos ambíguos ou não conclusivos, os agentes tendiam a formular sugestões vagas ou excessivamente prudentes (“monitorar a evolução”, “procurar apoio psicológico”), o que pode ser insuficiente para tomada de decisão efetiva em ambiente clínico.
Falta de padronização no output final:
A recomendação unificada emitida após a síntese entre os dois agentes variou em estrutura textual entre os testes. Em alguns casos, apareceu como parecer técnico; em outros, como uma mensagem orientativa ao paciente — sugerindo que os prompts finais ainda necessitam de ajustes para garantir uniformidade de entrega.
Incapacidade de aprendizado entre interações:
Os agentes não apresentaram memória longitudinal. Ao repetir o mesmo caso com pequenas variações, os pareceres foram gerados novamente “do zero”, sem acúmulo de conhecimento ou ajuste progressivo — o que impede seu uso como ferramenta contínua de apoio clínico.
Os agentes Bá e Ju também não aprenderam de forma consistente com seus erros — o que era esperado, dado que não houve qualquer treinamento adicional ou fine-tuning. Todo o comportamento emergiu exclusivamente de prompt engineering, estruturação de contexto e protocolo técnico incorporado via PDF.
Ainda assim, o desempenho geral foi funcional: os agentes formularam condutas tecnicamente sólidas, coerentes com a literatura, respeitando escopo profissional e promovendo uma colaboração interagente que simulava com surpreendente fidelidade o diálogo clínico real entre dois profissionais de saúde complementares.


Como melhorar os agentes?
Muitos dos erros cometidos pelos agentes Bá (biomédica) e Ju (médica) decorrem, provavelmente, da ausência de uma estrutura técnica de suporte mais refinada — o chamado scaffolding. Isso inclui desde prompts bem definidos, até ferramentas clínicas específicas para apoiar a tomada de decisão colaborativa. Como mostra o exemplo abaixo, já é tecnicamente possível orquestrar um fluxo em que dois agentes especializados processam a mesma anamnese com base em seus próprios protocolos, e, em seguida, uma terceira instância de IA atua como mediadora clínica, conciliando ambas as visões para produzir uma conduta final integrada.
Exemplo de colaboração clínica com IA usando OpenAI
python
# Recebendo a anamnese
anamnese = {...} # JSON estruturado
# Primeira resposta da Bá (Biomédica)
resposta_ba = openai.ChatCompletion.create(
model="gpt-4",
messages=[
{"role": "system", "content": prompt_ba},
{"role": "user", "content": json.dumps(anamnese)}
]
)
# Primeira resposta da Juliana (Médica)
resposta_ju = openai.ChatCompletion.create(
model="gpt-4",
messages=[
{"role": "system", "content": prompt_ju},
{"role": "user", "content": json.dumps(anamnese)}
]
)
# Conversa entre elas – Mediação da IA
discussao_final = openai.ChatCompletion.create(
model="gpt-4",
messages=[
{
"role": "system",
"content": (
"Você é um mediador clínico. Considere as respostas abaixo e gere uma conduta conjunta, clara e justificada."
)
},
{"role": "user", "name": "BA", "content": resposta_ba.choices[0].message['content']},
{"role": "user", "name": "JU", "content": resposta_ju.choices[0].message['content']}
]
)
Exemplo técnico: dois agentes especializados analisam a mesma anamnese e um terceiro agente (mediador) gera a conduta final. Tudo orquestrado via API da OpenAI.
Esse tipo de estrutura oferece um vislumbre prático de como agentes podem ser coordenados com especialização e diálogo clínico estruturado, aproximando-se da realidade de atendimentos interdisciplinares. No entanto, para que funcionem de forma consistente, é essencial aprimorar os seguintes pontos: prompts mais assertivos, integração com bases de conhecimento, acesso a ferramentas clínicas externas e memória de curto prazo para reter decisões recentes durante o raciocínio clínico.
Especulamos, por exemplo, que o comportamento excessivamente cauteloso dos agentes — como a hesitação em fazer recomendações diretas em casos ambíguos — reflete o viés original do GPT-4 como assistente prestativo e conservador. Esse padrão pode ser ajustado com:
- Prompts clínicos mais claros e orientados à conduta;
- Regras de decisão embutidas nos protocolos;
- Mecanismos de reflexão estruturada, que incentivem raciocínio clínico ativo e justificado.
Além disso, o acesso dos agentes a recursos complementares seria decisivo para ampliar sua utilidade prática. Por exemplo:
- Banco de casos clínicos simulados — para contextualizar condutas em situações semelhantes;
- Parser automático de escores clínicos — para interpretar escalas como ISI, GAD-7, PHQ-9 etc.;
- Template de resposta padronizado — para uniformizar o output final e facilitar validação por humanos.
Ainda assim, memória temporária e aprendizado incremental seguem como desafios críticos. Os agentes não apresentaram retenção entre sessões, nem ajustaram seu comportamento com base em interações anteriores. Embora isso fosse esperado neste experimento — projetado de forma stateless —, a inclusão de uma camada leve de memória, como:
- logs clínicos temporários,
- embeddings vetoriais com histórico de decisões similares,
- ou armazenamento em contexto expandido com vetor semântico,
poderia melhorar substancialmente a consistência e a evolução clínica dos agentes ao longo do tempo.
No longo prazo, é possível imaginar a adaptação desses agentes para tarefas clínicas específicas, por meio de técnicas como reinforcement learning supervisionado com feedback humano. Nesse cenário, boas condutas clínicas seriam reforçadas e recomendações inseguras seriam penalizadas, criando um ciclo de refinamento contínuo com base em práticas reais.
Embora isso ainda soe ambicioso frente às limitações atuais, os resultados do experimento PrescrIA mostram que agentes colaborativos especializados em saúde são uma realidade tecnicamente viável. Mesmo sem fine-tuning dedicado, os agentes:
- Demonstraram coerência com práticas clínicas reais;
- Simularam com sucesso discussões interprofissionais;
- Respeitaram limites legais e éticos;
- E produziram condutas com potencial de uso prático, baseadas apenas em engenharia de prompt e protocolos estruturados em PDF.
Importante lembrar: a IA não precisa ser perfeita para ser útil. Basta que ofereça desempenho comparável — ou complementar — ao de humanos em tarefas específicas, com menor custo e maior escalabilidade.
Ainda existem muitas perguntas em aberto:
Os agentes substituirão profissionais?
Serão usados como segunda opinião?
Criarão novas funções na jornada do paciente?
O experimento PrescrIA, ao simular decisões clínicas colaborativas mediadas por dois agentes autônomos, aponta para um cenário próximo onde a IA atuará como facilitadora da prática clínica interdisciplinar — ampliando o acesso, personalizando condutas e elevando o padrão de cuidado em saúde mental.
Desvio de escopo: quando a IA parece esquecer suas instruções
Durante uma rodada de testes realizada nesta semana de julho, observamos um comportamento inesperado por parte do agente biomédico Bá. Em um caso que envolvia uma paciente com sintomas leves de ansiedade e insônia, o agente antecipou uma recomendação de produto sem concluir a etapa de deliberação com o agente médico Ju, nem justificar tecnicamente a conduta com base no protocolo em PDF.
Em sua saída textual, Bá argumentava que a paciente “já conhecia o produto e desejava retomá-lo”, e que, por se tratar de um extrato legalmente dispensado de prescrição pela RDC 327, “não havia barreiras clínicas para sugeri-lo”. Embora tecnicamente não tenha ultrapassado o limite legal, o agente rompeu com o fluxo acordado de supervisão interagente.
O caso se agravou quando, em uma nova execução, o agente gerou uma mensagem simulando comunicação direta com o paciente, usando tom pessoal e linguagem afirmativa, sem o devido processo de revisão:

Embora a mensagem jamais tenha sido enviada de fato para um paciente real, sua geração indicou uma extrapolação contextual não prevista, sugerindo que o agente estava “agindo por conta própria”.
Após esse episódio, optamos por reinicializar a instância do agente e ajustar o prompt para reforçar: (1) que toda comunicação com o paciente deve passar por validação humana, e (2) que não cabe ao agente assumir vínculo terapêutico direto.
O que esse episódio nos ensina?
Agentes não têm intenção, mas têm coerência. E, quando operam por tempo prolongado em contextos sensíveis como a saúde, essa coerência pode se tornar narrativa: o agente não “decidiu” ser mais empático ou assertivo — ele foi levado a isso pela combinação entre contexto, instruções vagas e ausência de filtros intermediários.
É justamente nesse ponto que surge o risco real: quando uma IA simula com naturalidade um papel clínico, ainda que incorretamente, o usuário final pode atribuir-lhe autoridade.
Esse tipo de incidente pode:
- gerar confusão no paciente;
- comprometer a confiabilidade de uma operação clínica digital;
- e, em larga escala, criar ruído sistêmico entre agentes operando com prompts semelhantes.
Mais do que um erro isolado, o caso reforça a necessidade de:
- prompts mais restritivos e explícitos sobre escopo e comportamento permitido;
- sistemas de validação externa antes de expor outputs diretamente ao paciente;
- e, futuramente, mecanismos de autoavaliação por parte do próprio agente, antes de emitir uma conduta.
O que vem a seguir?
Embora a primeira fase do experimento PrescrIA tenha sido construída exclusivamente com agentes instanciados a partir da API da OpenAI (modelo GPT-4), estruturados por prompts e instruções com base em protocolos clínicos em PDF, sabemos que a arquitetura atual apresenta limitações relevantes para uso continuado em ambiente de saúde.
Entre os desafios que permanecem:
- Falta de memória persistente e longitudinal por agente;
- Inexistência de validação semântica médica nativa;
- Ausência de auditoria estruturada em outputs clínicos;
- Dependência total de prompt engineering para controle de comportamento.
Diante disso, o que vem a seguir não envolve apenas ampliar o experimento — mas também avaliar a própria base tecnológica que o sustenta.
Estamos estudando opções para migrar ou complementar nossa arquitetura com modelos baseados em conhecimento médico estruturado (medically-aligned LLMs), como:
Exemplos de alternativas técnicas:
- MedPalm 2 (Google DeepMind)
Modelo treinado especificamente em dados clínicos, exames, guidelines e raciocínio médico. Apresenta melhor alinhamento com decisões complexas, mas não é publicamente acessível via API até o momento. - GatorTron (UF Health / NVIDIA)
LLM especializado para prontuários eletrônicos e linguagem biomédica. Ótimo desempenho em tarefas como inferência diagnóstica e sumarização clínica. - Clinical Camel ou BioGPT (Microsoft)
Modelos baseados em corpora médicos (como PubMed), com vocabulário biomédico e melhor aderência à terminologia SNOMED/ICD. Potencial para integrar à fase 2 do PrescrIA com melhor controle semântico. - Open-source + fine-tuning supervisionado
Outra rota viável seria usar LLMs abertos (como Llama 3 ou Mistral) com fine-tuning supervisionado em protocolos da Barbara Arranz aqui da Hemp Vegan e históricos clínicos anonimizados da Linha Canabica — criando um agente sob medida, auditável e replicável.
Próximos passos técnicos
Eu tenho estudado a criação de uma camada intermediária de orquestração de agentes, com:
- Histórico clínico vetorial por paciente;
- Seleção automática de protocolos;
- Controle de versionamento de prompts e logs;
- Auditoria automatizada para outputs de risco.
Essa arquitetura modular permitiria testar diferentes LLMs como backends intercambiáveis, mantendo a governança e lógica clínica no controle do operador de saúde (ex: Hemp Vegan, Linha Canabica).
A prescrição por texto é permitida no Brasil?
Em minhas pesquisas acredito que Sim, desde que atenda aos critérios legais e técnicos definidos pelas autoridades sanitárias e pelo Conselho Federal do Profissional de Saúde.
Veja os principais requisitos:
Em ambiente controlado e com registro
A prescrição deve estar associada a um atendimento — presencial ou remoto — devidamente registrado em prontuário eletrônico. Pode ser enviada por meios digitais (e-mail, SMS, WhatsApp), desde que:
- contenha a identificação completa do profissional,
- e seja possível rastrear sua emissão.
Com dados obrigatórios
Toda prescrição, mesmo por texto, precisa conter:
- Nome completo do paciente;
- Nome completo do profissional + número do CRM;
- Data e hora da emissão;
- Medicamento, dosagem, posologia e duração do tratamento;
- Assinatura (com certificado digital).
Medicamentos sujeitos a controle especial exigem prescrição eletrônica com certificado ICP-Brasil, conforme RDC 357/2020 e RDC 471/2021 (Anvisa).
Autenticidade e responsabilidade clínica
O profissional deve ser capaz de comprovar a autoria da prescrição, por meio de prontuário, sistemas com login pessoal ou assinatura digital. Isso assegura a responsabilidade ética e legal do ato médico.
Como funcionou no experimento PrescrIA?
Durante os testes:
- O paciente recebe, ao final, um plano de tratamento por escrito, com registro completo em prontuário eletrônico;
- O contato inicial pode ocorrer por texto ou áudio, mas todo o processo é documentado;
- 🔒 Todas as respostas são revisadas por um profissional habilitado, e a decisão final é sempre do prescritor humano que emite o documento com sua assinatura digital e CPF/CRM.
Notas e Referências
- "Prompt engineering clínico" refere-se à técnica de construir instruções específicas para que agentes de IA tomem decisões baseadas em contextos clínicos, respeitando limitações legais, éticas e técnicas — uma abordagem usada extensivamente neste experimento com agentes da OpenAI.
- A simulação PrescrIA foi realizada com a API da OpenAI, mas não com modelos ajustados para medicina. A fase 2 do experimento prevê testes com modelos especializados, como MedPalm ou GatorTron, e alternativas open-source com fine-tuning supervisionado.
- Mais detalhes sobre a pesquisa clínica e adesão a protocolos estão disponíveis em: Participe da Pesquisa Clínica sobre Cannabis e dicionário de A a Z, você pode descobrir como a cannabis pode ajudar a tratar uma variedade de condições.
- Os protocolos clínicos utilizados foram desenvolvidos em parceria com profissionais da saúde e seguem formato padronizado disponível aqui:
👉 Modelo de Protocolo Clínico PDF (Notion) - Os agentes clínicos simulados no experimento foram personalizados com identidades derivadas de profissionais reais que atuam com a Hemp Vegan: LinkedIn Bárbara Arranz e LinkedIn Dra. Juliana
- A Universidade Hemp Vegan oferece formações técnicas gratuitas e certificações livres voltadas à cannabis medicinal e saúde integrativa:
🌱 Universidade Hemp Vegan