rectangle-codeOpenAI Prompt de Texto (LLM)

Visão Geral

O Prompt de Texto (LLM) é um objeto de Inteligência Artificial que permite enviar um texto de entrada para um modelo de linguagem da OpenAI e armazenar a resposta gerada em uma variável, possibilitando o uso desse conteúdo ao longo do fluxo do robô.


Funcionamento

O objeto recebe um Prompt de entrada, envia esse texto ao modelo de linguagem configurado e armazena o texto retornado na variável definida no campo Nome Variável Texto.

Quando a opção Usar Chave Própria não está habilitada, o consumo de tokens é descontado do plano do cliente. Caso o plano não possua tokens disponíveis, não será possível utilizar o componente.

Quando a opção Usar Chave Própria está habilitada, o consumo de tokens ocorre exclusivamente a partir da chave informada pelo cliente.

Quando usar

  • Quando for necessário gerar textos dinâmicos utilizando modelos da OpenAI.

  • Para análise, geração de respostas automáticas ou criação de conteúdo a partir de um texto de entrada.

Quando não usar

  • Quando não houver necessidade de uso de IA no fluxo.

  • Quando o plano do cliente não possuir tokens disponíveis e não houver chave própria configurada.


Configuração

CAMPO
DESCRITIVO

Título

Nome exibido do objeto no fluxo do robô.

Nome Identificador do Objeto

Identificador único do objeto no robô.

Nome Variável Texto

Variável onde será armazenado o texto retornado pelo modelo de linguagem.

Token de API

Chave utilizada para autenticação com a OpenAI.

Usar Chave Própria

Quando desativado, o consumo de tokens será descontado do plano do cliente. Caso o plano não possua tokens disponíveis, não será possível utilizar o componente. Quando ativado, o consumo ocorre a partir da chave informada pelo cliente.

Nível de criatividade (0)

Define o nível de criatividade das respostas geradas pelo modelo.

Habilitar Pesquisa na Web

Quando habilitado, permite que o modelo utilize pesquisa na web durante a geração da resposta.

Prompt de entrada

Texto que será enviado ao modelo de linguagem.


Exemplos

Exemplo simples

Um robô envia um texto fixo no campo Prompt de entrada solicitando a geração de uma resposta e armazena o resultado na variável configurada.

Exemplo aplicado

Um robô recebe dados de um formulário, monta dinamicamente o Prompt de entrada, ajusta o Nível de criatividade, envia o texto ao modelo da OpenAI e utiliza a resposta retornada para personalizar uma interação com o usuário final.


Retornos


Erros comuns e como evitar

  • Plano sem tokens disponíveis Verifique se o plano do cliente possui tokens disponíveis ou habilite a opção Usar Chave Própria informando uma chave válida.

  • Variável de retorno não configurada Certifique-se de preencher corretamente o campo Nome Variável Texto.

  • Chave de API inválida ou ausente Verifique o campo Token de API quando a opção Usar Chave Própria estiver habilitada.


Boas práticas

  • Utilize prompts claros e objetivos.

  • Ajuste o Nível de criatividade conforme o tipo de resposta desejada.

  • Verifique previamente se o plano do cliente possui tokens disponíveis antes de utilizar o objeto sem chave própria.

  • Padronize os nomes das variáveis para facilitar a manutenção do robô.

Last updated

Was this helpful?