27 de jul. de 2025·8 min de leitura

RAG vs ajuste fino para chatbots de domínio específico: como escolher

RAG vs ajuste fino para chatbots empresariais: como escolher para documentos em mudança, medir qualidade e reduzir respostas confiantes e erradas.

RAG vs ajuste fino para chatbots de domínio específico: como escolher

Que problema estamos a resolver com um chatbot específico por domínio?

Um chatbot específico por domínio responde a perguntas usando o conhecimento da sua organização, não factos gerais da internet. Pense em políticas de RH, manuais de produto, regras de preços, playbooks de suporte, SOPs e guias internos de como fazer.

A maioria das equipas não procura “ensinar tudo a um modelo”. Querem respostas rápidas e consistentes para perguntas do dia a dia como “Qual é a nossa regra de reembolso para planos anuais?” ou “Que formulário devo usar para um pedido a um fornecedor?” sem vasculhar pastas e PDFs.

A parte difícil é a confiança. Um modelo geral pode soar confiante mesmo quando está errado. Se a sua política diz “7 dias úteis” e o modelo responde “10 dias corridos”, a resposta pode parecer bem redigida e ainda assim causar danos reais: aprovações erradas, respostas incorretas a clientes ou problemas de conformidade.

Com que frequência os seus documentos mudam importa tanto quanto a precisão. Se os docs são atualizados semanalmente, o chatbot tem de refletir o novo texto de forma rápida e fiável, caso contrário torna-se uma fonte de orientações desatualizadas. Se os docs mudam anualmente, pode aceitar um ciclo de atualização mais lento, mas o chatbot ainda precisa de estar certo porque as pessoas confiam no que ele diz.

Ao comparar RAG vs ajuste fino para chatbots de domínio específico, o objetivo é prático: respostas úteis baseadas nos seus documentos, com fontes ou citações claras, e uma resposta segura quando o chatbot não tem certeza.

Uma declaração de problema sólida cobre cinco pontos: que documentos o bot pode usar (e o que deve evitar), os tipos de perguntas mais comuns, como é uma “boa” resposta (correta, curta, inclui uma fonte), como é uma “má” resposta (chutes confiantes, regras desatualizadas) e o que fazer quando falta evidência (fazer uma pergunta de seguimento ou dizer que não sabe).

RAG e ajuste fino em linguagem simples

RAG e ajuste fino são duas maneiras diferentes de ajudar um chatbot a comportar-se bem no trabalho.

Retrieval augmented generation (RAG) é como dar um teste com consulta aberta ao chatbot. Quando um utilizador faz uma pergunta, o sistema pesquisa nos seus documentos (políticas, manuais, tickets, FAQs). Depois passa os trechos mais relevantes ao modelo e diz-lhe para responder usando esse material. O modelo não está a memorizar os seus docs. Está a ler passagens selecionadas no momento de responder.

O ajuste fino é como treinar o modelo com exemplos até aprender o comportamento desejado. Fornece muitos pares input-output (perguntas e respostas ideais, tom, formatação, regras do que não dizer). Os pesos do modelo mudam, então ele responde de forma mais consistente mesmo quando nenhum documento é fornecido.

Um modelo mental simples:

  • RAG mantém o conhecimento atualizado puxando dos seus documentos atuais.
  • Ajuste fino torna o comportamento consistente: estilo, regras e padrões de decisão.

Ambas as abordagens podem falhar, só que de maneiras diferentes.

No RAG, o ponto fraco é a recuperação. Se o passo de pesquisa trouxer a página errada, texto desatualizado ou contexto insuficiente, o modelo pode ainda produzir uma resposta confiante, mas baseada em má evidência.

No ajuste fino, o ponto fraco é a generalização excessiva. O modelo pode aprender padrões a partir dos exemplos de treino e aplicá-los quando deveria fazer uma pergunta de clarificação ou dizer “não sei”. O ajuste fino também não acompanha mudanças frequentes nos documentos a menos que seja retreinado.

Um exemplo concreto: se a sua política de viagens muda de “aprovação do gestor acima de $500” para “acima de $300”, o RAG pode responder corretamente no mesmo dia se recuperar a política atualizada. Um modelo ajustado fino pode continuar a repetir o número antigo a menos que seja retreinado e verificado o novo comportamento.

O que se adapta melhor a documentos empresariais em mudança?

Se os seus docs mudam semanalmente (ou diariamente), a recuperação normalmente corresponde melhor à realidade do que o treino. Com retrieval augmented generation para documentos empresariais, mantém-se o modelo praticamente igual e atualiza-se a base de conhecimento. Isso permite que o chatbot reflita novas políticas, preços ou notas de produto assim que o conteúdo fonte muda, sem esperar por um novo ciclo de treino.

O ajuste fino pode funcionar quando a “verdade” é estável: tom consistente, um conjunto fixo de regras de produto ou uma tarefa estreita. Mas se treinar com conteúdo que se move constantemente, corre o risco de ensinar a resposta de ontem. Re-treinar com a frequência necessária para acompanhar torna-se caro e fácil de errar.

Governação: atualizações e propriedade

Uma questão prática é quem é o responsável pelas atualizações de conteúdo.

Com RAG, equipas não técnicas podem publicar ou substituir um documento, e o bot pode começar a usá‑lo após a reindexação. Muitas equipas adicionam uma etapa de aprovação para que apenas certos papéis possam empurrar alterações.

Com ajuste fino, as atualizações normalmente exigem um fluxo de trabalho de ML. Isso costuma significar tickets, espera e atualizações menos frequentes.

Conformidade e auditoria

Quando as pessoas perguntam “por que o bot disse isso?”, o RAG tem uma vantagem clara: pode citar as passagens exatas que usou. Isto ajuda em auditorias internas, revisões de suporte ao cliente e tópicos regulados.

O ajuste fino incorpora a informação nos pesos, por isso é mais difícil mostrar uma fonte específica para uma frase específica.

Custo e esforço também diferem:

  • RAG precisa de trabalho inicial para recolher docs, fragmentá‑los, indexá‑los e manter a ingestão fiável.
  • Ajuste fino precisa de trabalho inicial para preparar dados de treino e avaliá‑los, além de treinos repetidos quando o conhecimento muda.
  • Quando as atualizações de conteúdo são frequentes, o RAG geralmente tem custo contínuo mais baixo.

Exemplo: um chatbot de RH a responder a partir de políticas que mudam a cada trimestre. Com RAG, o RH pode substituir o PDF da política e o bot começa a usar o novo texto rapidamente, mostrando ainda o parágrafo em que se apoiou. AppMaster pode ajudar a construir o portal administrativo para carregar documentos aprovados e registar quais fontes foram usadas, sem escrever toda a aplicação do zero.

Quando usar RAG, quando ajustar fino e quando combinar

Se o seu objetivo é respostas confiáveis que batam com o que os documentos da empresa dizem hoje, comece com retrieval augmented generation para documentos empresariais. Ele puxa passagens relevantes no momento da pergunta, assim o bot pode apontar para a política, especificação ou SOP exacta que suporta a resposta.

RAG é a opção padrão quando o conteúdo muda frequentemente, quando é necessário mostrar de onde veio a resposta, ou quando equipas diferentes são donas de documentos distintos. Se o RH actualiza a política de licenças mensalmente, quer que o chatbot use a versão mais recente automaticamente, e não o que aprendeu semanas antes.

Ajustar fino num chatbot com dados da empresa faz sentido quando os documentos não são o principal problema. Ajuste fino é melhor para comportamento estável: voz consistente, formatação rígida (como responder sempre num template), melhor roteamento de intenção ou regras de recusa fiáveis. Pense nisso como ensinar o assistente como comportar‑se, não o que o seu manual mais recente diz.

Combinar ambos é comum: RAG fornece os factos, e um pequeno ajuste fino (ou instruções de sistema fortes) mantém o assistente consistente e cuidadoso. Isto também encaixa bem em equipas de produto que integram o chatbot numa app, onde UX e tom têm de permanecer os mesmos mesmo quando o conhecimento muda.

Sinais rápidos para escolher:

  • Escolha RAG quando as respostas devem manter‑se atualizadas, citar a redação exacta ou incluir fontes dos documentos mais recentes.
  • Escolha ajuste fino quando precisar de estilo fixo, formatos de saída repetidos ou regras mais estritas de fazer/não fazer.
  • Combine-os quando quiser respostas fundamentadas em documentos mais tom consistente e comportamento de recusa mais seguro.
  • Reconsidere o plano se estiver constantemente a retreinar para acompanhar novos documentos, ou se a recuperação falhar frequentemente porque o conteúdo é desorganizado ou mal fragmentado.

Uma maneira simples de identificar a abordagem errada é a dor de manutenção. Se cada atualização de política desencadeia um pedido de re-treino, está a usar ajuste fino para resolver um problema de frescura de documentos. Se o RAG retorna a página certa mas o bot continua a responder de forma arriscada, provavelmente precisa de melhores guardrails (por vezes o ajuste fino ajuda).

Se está a construir isto numa ferramenta real (por exemplo em AppMaster), uma abordagem prática é RAG primeiro, depois adicionar ajuste fino apenas para comportamentos que consegue testar e medir claramente.

Passo a passo: configurar uma base fiável (antes da escolha do modelo)

Adicione guardrails com Business Processes
Use lógica visual para impor verificações de evidência antes de qualquer resposta ser mostrada aos utilizadores.
Experimentar

A maioria das falhas de chatbots vem de documentos desorganizados e metas pouco claras, não do modelo.

Comece com um inventário de documentos: o que tem, onde vive e quem pode aprovar alterações. Registe o tipo e formato (PDFs, wikis, tickets, folhas de cálculo), o proprietário e fonte de verdade, ritmo de atualização, regras de acesso e onde tendem a aparecer duplicados.

A seguir, defina o trabalho do chatbot em termos simples. Escolha 20 a 50 perguntas reais que deve responder bem (por exemplo, “Como faço um pedido de reembolso?” ou “Qual é a escalada on‑call?”). Defina também o que deve recusar, como aconselhamento legal, decisões de RH ou qualquer coisa fora dos seus documentos aprovados. Uma recusa é um sucesso se evitar uma resposta errada.

Depois, limpe e molde os documentos para que as respostas sejam fáceis de fundamentar. Remova duplicados, mantenha uma versão atual e etiquete versões antigas claramente. Adicione títulos claros, datas e cabeçalhos de secção para que o chatbot possa apontar a parte exacta que suporta a resposta. Se uma política muda com frequência, mantenha uma única página atualizada em vez de várias cópias.

Finalmente, defina um contrato de saída. Exija uma resposta curta, uma citação para a secção fonte usada e uma próxima ação quando necessário (por exemplo, “Abra um ticket com Finance”). Se está a integrar isto numa ferramenta interna com AppMaster, também ajuda a manter a UI consistente: resposta primeiro, depois citação, depois botão de ação. Essa estrutura torna os problemas óbvios durante os testes e reduz respostas confiantes e erradas mais tarde.

Como avaliar a qualidade sem adivinhar

Comece com um pequeno conjunto de testes offline. Recolha 30 a 100 perguntas reais que as pessoas já fazem em tickets, emails e threads de chat. Mantenha a redação original, inclua algumas perguntas vagas e algumas que são fáceis de interpretar mal. Isto dá uma forma estável de comparar RAG vs ajuste fino para chatbots de domínio específico.

Para cada pergunta, escreva uma resposta esperada curta em linguagem simples, mais a secção exacta do documento que a suporta. Se o chatbot pode dizer “Não sei”, inclua casos onde esse é o comportamento correto.

Pontue respostas em algumas dimensões simples

Mantenha a ficha de pontuação pequena o suficiente para que a use realmente. Estas quatro verificações cobrem a maioria das falhas de chatbots empresariais:

  • Correção: está factualmente certo, sem detalhes inventados?
  • Completude: cobriu os pontos-chave que os utilizadores precisam para agir?
  • Qualidade da citação: as citações ou referências realmente suportam a afirmação?
  • Clareza: é legível e específica, ou vaga e prolixa?

Se usar recuperação, acrescente mais uma verificação: recuperou o chunk certo, e a resposta realmente usou esse chunk em vez de o ignorar?

Acompanhe mudanças ao longo do tempo, não impressões pontuais

Faça da qualidade uma rotina:

  • Execute o mesmo conjunto de teste após cada mudança de prompt, recuperação ou modelo.
  • Mantenha uma única ficha de pontuação e registe totais por data.
  • Etiquete falhas (falta de detalhe da política, número errado, documento desatualizado, redação pouco clara).
  • Reveja as 5 piores perguntas primeiro e corrija a causa‑raiz.

Exemplo: se um chatbot de RH responde corretamente a uma pergunta de benefícios mas cita um PDF desatualizado, a sua pontuação deve cair. Isso diz o que precisa de corrigir: frescura do documento, fragmentação, ou filtros de recuperação, não o estilo de escrita do modelo.

Se está a integrar o chatbot numa app (por exemplo em AppMaster), armazene perguntas de teste e resultados juntamente com releases para detectar regressões cedo.

Evitar respostas confiantes e erradas (alucinações) na prática

Transforme RAG numa app real
Crie uma aplicação de chatbot fundamentada em documentos com papéis, citações e um caminho seguro de “Não sei”.
Experimentar AppMaster

Respostas confiantes e erradas surgem geralmente de três fontes: o modelo não recebeu o contexto certo, recebeu o contexto errado, ou foi encorajado a adivinhar. Esse risco existe tanto no RAG quanto no ajuste fino, mas manifesta‑se de formas diferentes. O RAG falha quando a recuperação é fraca; o ajuste fino falha quando o modelo aprende padrões e preenche lacunas com texto plausível.

A correção mais eficaz é exigir evidência. Trate cada resposta como um pequeno relatório: se o texto de suporte não estiver nas fontes fornecidas, o bot não deve afirmar isso. Na prática, isso significa que a sua aplicação deve passar trechos recuperados no prompt e exigir que o modelo use apenas esses trechos.

Adicione regras claras de recusa e escalonamento para que o bot tenha um fallback seguro. Um bom chatbot não é o que responde a tudo; é o que sabe quando não consegue.

  • Se as fontes não mencionam o tópico, diga “Não tenho informações suficientes nos documentos para responder.”
  • Se a pergunta for ambígua, faça uma pergunta de clarificação.
  • Se a resposta afetar dinheiro, acesso ou conformidade, encaminhe para um humano ou abra um ticket.
  • Se os documentos estiverem em conflito, aponte o conflito e pergunte qual política ou versão se aplica.

Restrições também reduzem adivinhações e tornam erros mais fáceis de detectar. Para respostas de estilo de política, exija o nome do documento e a data, e cite 1 a 2 linhas-chave que justifiquem a resposta.

Exemplo: um empregado pergunta “Qual é o limite mais recente de reembolso de viagens?” Se o trecho recuperado da política é do ano passado, o bot deve mostrar essa data e recusar‑se a afirmar um “mais recente” sem uma fonte mais nova.

Se construir isto em AppMaster, torne as regras parte do fluxo de Business Process: passo de recuperação, verificação de evidência, depois ou responde com citações ou escala. Assim o comportamento de segurança é consistente, não opcional.

Erros comuns e armadilhas a evitar

Do piloto à produção
Desdobre na cloud ou exporte o código-fonte quando estiver pronto para executar à sua maneira.
Desplegar

A maioria das falhas de chatbot não é sobre o modelo. Vêm de documentos desorganizados, recuperação fraca ou escolhas de treino que levam o sistema a soar certo quando deveria abrandar. A fiabilidade é geralmente um problema de dados e processo em primeiro lugar.

Um problema comum no RAG é a fragmentação (chunking) que ignora o significado. Se os chunks são pequenos demais, perde‑se contexto (quem, quando, exceções). Se são enormes, a recuperação traz texto não relacionado e a resposta torna‑se uma mistura de detalhes meio certos. Um teste simples ajuda: ao ler um chunk isolado ele faz sentido e contém uma regra completa?

Outra armadilha frequente é mistura de versões. Equipas indexam políticas de meses diferentes e o bot recupera passagens conflitantes e escolhe uma ao acaso. Trate a frescura do documento como uma funcionalidade: etiquete fontes com datas, proprietários e estado (rascunho vs aprovado), e remova ou despromova conteúdo desatualizado.

O erro mais danoso é forçar uma resposta quando nada relevante foi recuperado. Se a recuperação está vazia ou de baixa confiança, o bot deve dizer que não encontra suporte e fazer uma pergunta de clarificação ou encaminhar para um humano. Caso contrário cria‑se disparate confiante.

O ajuste fino tem a sua própria armadilha: sobre‑treinar em um conjunto estreito de Q&A. O bot começa a ecoar a formulação de treino, torna‑se frágil e pode perder capacidade de raciocínio básico ou competências gerais de linguagem.

Sinais de aviso durante os testes:

  • Respostas não citam texto fonte ou citam a secção errada.
  • A mesma pergunta recebe respostas diferentes consoante a redação.
  • Perguntas de política recebem respostas definitivas mesmo quando os documentos são silenciosos.
  • Depois do ajuste fino, o bot tem dificuldade com perguntas simples do dia a dia.

Exemplo: se a sua política de viagens mudou na semana passada, mas ambas as versões estão indexadas, o bot pode aprovar uma despesa que já não é permitida. Isso não é um problema do modelo; é um problema de controlo de conteúdo.

Lista de verificação rápida antes de lançar

Antes de disponibilizar um chatbot de domínio real aos utilizadores, trate‑o como qualquer outra ferramenta de negócio: tem de ser previsível, testável e seguro quando está incerto.

Use esta lista como um portão final:

  • Toda resposta de estilo política está fundamentada. Para afirmações como “Pode reembolsar isto” ou “O SLA é 99,9%”, o bot deve mostrar de onde tirou isso (nome do documento + título da secção, ou um excerto). Se não puder apontar uma fonte, não deve apresentar a afirmação como facto.
  • Pergunta quando a questão é ambígua. Se o pedido do utilizador pode razoavelmente significar duas coisas diferentes, faça uma pergunta de clarificação curta em vez de adivinhar.
  • Sabe dizer “Não sei” de forma limpa. Quando a recuperação retorna texto fraco ou nenhum suporte, recusa‑se educadamente, explica o que falta e sugere o que fornecer (documento, nome da política, data, equipa).
  • Atualizações de documentos alteram respostas rapidamente. Edite uma frase num documento-chave e confirme que a resposta do bot muda após a reindexação. Se continuar a repetir a resposta antiga, o seu pipeline de atualização não é fiável.
  • Pode rever falhas. Registe a pergunta do utilizador, trechos recuperados, resposta final e se os utilizadores clicaram “útil/não útil”. Isso torna a melhoria da qualidade possível sem adivinhações.

Um teste concreto: escolha 20 perguntas reais de tickets de suporte ou chat interno, incluindo perguntas complicadas com exceções. Execute‑as antes do lançamento e depois de atualizar uma política. Se o bot não consegue fundamentar respostas, fazer perguntas de clarificação e recusar quando as fontes faltam, não está pronto para produção.

Se está a transformar o bot numa app interna, torne as fontes fáceis de ver e mantenha um botão “reportar um problema” junto de cada resposta.

Cenário de exemplo: um chatbot para documentos internos frequentemente atualizados

Implemente controlo de acesso e papéis
Defina permissões para que as equipas acedam apenas aos conjuntos de documentos que lhes são permitidos.
Começar Agora

O seu RH tem políticas e documentos de onboarding que mudam todos os meses: regras de PTO, limites de reembolso de viagens, datas de inscrição de benefícios e passos de onboarding para novos colaboradores. As pessoas continuam a fazer as mesmas perguntas no chat, e as respostas têm de corresponder à versão mais recente dos documentos, não ao que era válido no trimestre passado.

Opção A: só RAG, otimizado para frescura

Com uma configuração RAG, o bot pesquisa primeiro na base de conhecimento atual de RH e responde usando apenas o que recuperou. O essencial é fazer “mostrar o seu trabalho” por padrão.

Um fluxo simples que normalmente funciona:

  • Indexe os docs de RH num cronograma (ou a cada atualização aprovada) e guarde título do doc, secção e data de última atualização.
  • Responda com citações curtas (doc + secção) e uma nota de “última atualização” quando for relevante.
  • Adicione regras de recusa: se nada relevante for recuperado, o bot diz que não sabe e sugere quem contactar.
  • Encaminhe tópicos sensíveis (rescisões, disputas legais) para um humano por padrão.

Isto mantém‑se preciso à medida que os docs mudam porque não está a enterrar texto antigo no modelo.

Opção B: ajuste fino leve para formato, ainda fundamentado em RAG

Se quiser tom consistente e respostas estruturadas (por exemplo: “Elegibilidade”, “Passos”, “Exceções”, “Escalar para RH”), pode ajustar ligeiramente um modelo com um pequeno conjunto de respostas aprovadas. O bot continua a usar RAG para os factos.

A regra mantém‑se estrita: o ajuste fino ensina como responder, não o que a política diz.

Após 2 a 4 semanas, o sucesso parece menos escalonamentos ao RH para questões básicas, maior precisão em verificações pontuais e menos respostas confiantes e erradas. Pode medir isso acompanhando cobertura de citações (respostas que incluem fontes), taxa de recusa por falta de info e uma auditoria semanal por parte do RH.

As equipas normalmente constroem isto como uma ferramenta interna para que o RH possa atualizar conteúdo, rever respostas e ajustar regras sem depender da engenharia. AppMaster é uma forma de construir essa aplicação completa (backend, web app e app móvel) com papéis e workflows administrativos.

Próximos passos: pilotar e integrar o chatbot num produto real

Trate o chatbot como um pequeno produto. Comece com uma equipa (por exemplo, suporte ao cliente), um conjunto de documentos (o playbook de suporte mais recente e políticas) e um ciclo de feedback claro. Isso mantém o âmbito controlado e torna problemas de qualidade óbvios.

Um plano piloto mensurável:

  • Escolha 30 a 50 perguntas reais dos registos dessa equipa.
  • Defina “bom”: resposta correta, cita o doc certo e diz “Não sei” quando necessário.
  • Faça um piloto de 2 a 3 semanas com um grupo pequeno e recolha 👍/👎 e comentários curtos.
  • Reveja falhas duas vezes por semana e corrija a causa (docs em falta, fragmentação má, política ambígua, prompts fracos).
  • Expanda só depois de atingir uma métrica de qualidade em que confia.

Para ir do piloto ao “real”, precisa de funcionalidades básicas à volta do modelo. As pessoas vão fazer perguntas sensíveis e tem de conseguir traçar o que aconteceu quando o bot errar.

Construa cedo: autenticação e papéis (quem pode aceder a quais conjuntos de docs), registos e trilhas de auditoria (pergunta, fontes recuperadas, resposta, feedback do utilizador), uma UI administrativa simples para gerir fontes de documentos e ver padrões de falha, e um caminho de fallback seguro (transferência para humano ou ticket quando a confiança é baixa).

É também aqui que uma plataforma no‑code como AppMaster pode ajudar: pode lançar a aplicação envolvente, incluindo backend, painel administrativo e papéis de utilizador, mantendo a lógica do chatbot modular. Isso facilita trocar de abordagem mais tarde, seja mantendo retrieval augmented generation para documentos empresariais ou adicionando ajuste fino para tarefas específicas.

Depois do piloto, adicione um novo conjunto de documentos de cada vez. Mantenha o mesmo conjunto de avaliação, meça novamente e só então abra o acesso a mais equipas. Expansão lenta vence confusão rápida e reduz respostas confiantes e erradas antes que se tornem um problema de confiança.

FAQ

Devo escolher RAG ou ajuste fino para um chatbot que responde a partir de documentos da empresa?

Use RAG quando as respostas devem corresponder ao que os seus documentos dizem agora, especialmente se políticas, preços ou SOPs mudam frequentemente. Use ajuste fino quando precisar principalmente de comportamento consistente como tom, modelos ou regras de recusa, e os factos subjacentes forem estáveis.

O que funciona melhor quando as nossas políticas mudam toda a semana?

Normalmente RAG é a melhor opção porque pode atualizar a base de conhecimento e reindexar sem treinar novamente o modelo. Assim, o bot pode refletir a nova redação no mesmo dia, desde que a recuperação encontre o trecho atualizado.

Como tornamos um chatbot RAG digno de confiança em vez de confiante e errado?

O RAG é confiável quando recupera consistentemente os trechos corretos e atuais e o bot é forçado a responder apenas com essa evidência. Acrescente citações (nome do documento, secção, data) e um fallback claro de “Não sei” quando as fontes estiverem em falta ou desatualizadas.

O que é que o ajuste fino realmente melhora num chatbot interno?

O ajuste fino altera o comportamento do modelo para que responda no seu estilo preferido, obedeça regras de fazer/não fazer e use formatações consistentes. Ele não se mantém automaticamente atual com políticas em mudança, a menos que seja re-treinado com frequência, o que é arriscado se os factos mudam rapidamente.

Quando faz sentido combinar RAG e ajuste fino?

Combine-os quando quiser factos fundamentados em documentos e uma UX consistente. Deixe o RAG fornecer os trechos atualizados e use um ajuste fino leve (ou instruções de sistema fortes) para impor estrutura, tom e regras seguras de recusa.

Como podemos avaliar a qualidade sem adivinhar?

Comece com 30–100 perguntas reais de tickets e chat, mantenha a redação original e escreva uma resposta esperada curta mais a secção de suporte nos documentos. Pontue por correção, completude, suporte de citação e clareza, e rerun o mesmo conjunto após cada alteração.

Porque é que o nosso bot por vezes cita a política errada ou desatualizada?

A mistura de versões ocorre quando várias versões da política são indexadas e a recuperação traz passagens conflitantes. Resolva marcando uma fonte de verdade, etiquetando documentos com datas/estado e removendo ou despromovendo conteúdo desatualizado para que o bot não escolha uma versão ao acaso.

O que deve o bot fazer quando não encontra evidência nos documentos?

Regra simples: se as fontes recuperadas não contêm a afirmação, o bot não a deve apresentar como facto. Nesse caso, deve fazer uma única pergunta de clarificação, dizer que não encontrou suporte nos documentos ou encaminhar para um humano quando for algo sensível.

Como devemos fragmentar (chunk) os documentos para que a recuperação funcione de forma fiável?

Chunk de forma que cada pedaço consiga ficar sozinho como uma regra ou passo completo, incluindo exceções e contexto de “quem/quando”. Se os chunks forem demasiado pequenos perde-se o significado; se forem demasiado grandes, a recuperação traz texto não relacionado e as respostas ficam misturadas.

O que precisamos em volta do modelo para lançar um chatbot em produção com segurança?

Construa as funcionalidades à volta do modelo cedo: controlo de acesso (quem pode ver quais conjuntos de documentos), uma UI administrativa para gerir fontes aprovadas, e registos que guardem a pergunta, trechos recuperados, resposta final e feedback do utilizador. AppMaster permite criar esse portal e workflow rapidamente sem partir do zero.

Fácil de começar
Criar algo espantoso

Experimente o AppMaster com plano gratuito.
Quando estiver pronto, você poderá escolher a assinatura adequada.

Comece