Claude Prompt de Texto (LLM)
Visão Geral
O Prompt de Texto (LLM) é um objeto de Inteligência Artificial utilizado para enviar um texto de entrada a um modelo de linguagem (LLM) e armazenar a resposta retornada em uma variável, permitindo o uso desse conteúdo ao longo do fluxo do robô.
Funcionamento
O objeto recebe um Prompt de entrada, envia esse texto ao modelo de linguagem configurado e armazena o texto retornado em uma variável definida pelo usuário.
Quando a opção Usar Token Próprio não está habilitada, o consumo de tokens ocorre a partir do plano do cliente. Caso o plano não possua tokens disponíveis, o componente não poderá ser utilizado.
Quando a opção Usar Token Próprio está habilitada, o consumo de tokens ocorre exclusivamente a partir do token informado pelo cliente.
Quando usar
Quando for necessário gerar texto dinâmico utilizando um modelo de linguagem.
Para análise, geração de respostas automáticas ou produção de conteúdo a partir de um texto de entrada.
Quando não usar
Quando não houver necessidade de uso de IA no fluxo.
Quando o plano do cliente não possuir tokens disponíveis e não houver token próprio configurado.
Configuração

Título
Nome exibido do objeto no fluxo do robô.
Nome Identificador do Objeto
Identificador único do objeto no robô.
Nome Variável Texto
Variável onde será armazenado o texto retornado pelo modelo de linguagem.
Token de API
Token utilizado para autenticação com o serviço de IA.
Usar Token Próprio
Quando desativado, o consumo de tokens será descontado do plano do cliente. Caso o plano não possua tokens disponíveis, não será possível utilizar o componente. Quando ativado, o consumo ocorre a partir do token informado pelo cliente.
Prompt de entrada
Texto que será enviado ao modelo de linguagem.
Exemplos
Exemplo simples
Um robô envia um texto fixo no campo Prompt de entrada solicitando a geração de uma resposta e armazena o retorno na variável configurada.
Exemplo aplicado
Um robô recebe dados de um formulário, monta dinamicamente o Prompt de entrada, envia o texto ao modelo de linguagem e utiliza a resposta retornada para personalizar uma comunicação com o usuário final.
Retornos

Erros comuns e como evitar
Plano sem tokens disponíveis Verifique se o seu plano possui tokens disponíveis ou habilite a opção Usar Token Próprio informando um token válido.
Variável de retorno não configurada Certifique-se de preencher corretamente o campo Nome Variável Texto.
Token inválido ou ausente Verifique o campo Token de API quando a opção Usar Token Próprio estiver habilitada.
Boas práticas
Utilize prompts claros e objetivos.
Verifique previamente se o plano do cliente possui tokens disponíveis antes de utilizar o objeto sem token próprio.
Padronize os nomes das variáveis para facilitar a leitura e manutenção do robô.
Last updated
Was this helpful?

