EvaGPT
  • Introdução
    • Modelos
    • Consumo
    • Agentes
      • Criar Agente
        • Comportamento
      • Lista de Agentes
    • Conhecimento
      • Criar Conhecimento
      • Lista de Conhecimento - Datasets
    • Competências
      • Criar Competência
      • Listas de Competências - Skillsets
      • Exemplos
        • JSONPlaceholder
    • Curadoria
      • Lista de Conversas
      • Lista de Feedback
  • Privacidade
  • Integrações
    • Integração por Sitemap
    • Integração com o Microsoft Teams
    • Whatsapp
      • Integração com WhatsApp utilizando a Twillio
        • Requisitos para criação de conta no Twilio
        • Criando conta no Twilio
        • Comprando Número
        • Regulatory Compliance
        • Redirecionamento de chamada
        • Code Exchange - Códigos
        • Configurando o Twilio
        • Configurando o EVAGPT
      • Integração com WhatsApp utilizando a Vonage
  • Tutoriais
    • Como criar um Agente
    • Como criar um usuário
    • Como criar uma Lista de Conhecimentos
    • Como criar uma Lista de Competências
    • Como criar um agente que faz chamadas a APIs
    • Como conversar com seus documentos
    • Como conversar com os dados do seu site
    • Filtragem de retorno de API com JSONPath e JMESPath
    • Receitas
      • Criando um agente de SAC
      • Criando um agente que renderiza imagens
      • Criando um agente para o seu site
      • Criando um agente que recomenda produtos
      • Criando um agente de assistência técnica
  • Suporte - Abertura de Chamados
  • Documentação da API
  • Política de Privacidade
Powered by GitBook
On this page
  • Personalização das configurações do modelo
  • Número máximo de tokens
  • Temperatura
  • Penalidade de Frequência
  • Penalidade de Presença
  1. Introdução

Modelos

A EvaGPT oferece suporte a vários modelos para criar experiências envolventes através de agentes de IA conversacional. Isso inclui modelos básicos da OpenAI, como GPT-4 e GPT-3, juntamente com modelos da Anthropic, Mistral, DeepSeek e outros.

Nome do modelo
Descrição curta
Proporção de tokens
Tamanho do contexto

o1

Apresentamos o novo modelo de raciocínio da OpenAI, projetado para lidar com tarefas complexas que exigem amplo conhecimento geral, com suporte a 128K tokens de contexto e informações atualizadas até outubro de 2023. Atenção: para garantir o melhor desempenho, é crucial que a temperatura seja sempre mantida em 1, sem alterações!

3.3333

128000

o3-mini

O o3-mini é um modelo de raciocínio econômico, otimizado para codificação, matemática e ciências. Ele oferece suporte a ferramentas e saídas estruturadas.

0.2444

200000

gpt-4.5

O GPT-4.5 se destaca em tarefas que se beneficiam do pensamento e da conversa criativos e abertos, como escrever, aprender ou explorar novas ideias.

8.3333

128000

gpt-4o-mini

GPT-4o mini é o modelo mais eficiente em termos de custo da OpenAI, sendo mais inteligente e mais barato que o GPT-3.5 Turbo, possuindo boa capacidade de visão. O modelo tem um contexto de 128K e um limite de conhecimento até outubro de 2023.

0.033

128000

gpt-4o

GPT-4o é mais rápido e mais barato que o GPT-4 Turbo, com capacidades de visão mais robustas. O modelo tem um contexto de 128K e um limite de conhecimento até outubro de 2023.

0.5556

128000

gpt-4-turbo

Este é um modelo avançado em desempenho e precisão. Com respostas mais rápidas, interpretação aprimorada e adaptação versátil, oferece uma experiência de conversação fluida e eficiente. Ideal para aplicações que exigem comunicação eficaz com alta qualidade e ótimo custo-benefício.

1.6667

128000

gpt-4

Este é um modelo de inteligência conversacional de última geração, projetado para oferecer respostas rápidas e precisas. Com uma compreensão profunda da linguagem e capacidade de adaptar-se a diferentes contextos, o Intelli-4 garante interações fluídas e eficazes para uma ampla gama de aplicações.

3.3333

8192

gpt-3.5-turbo

GPT-3.5 Turbo é um modelo rápido e econômico para tarefas mais simples.

0.0833

16384

gpt-3.5-turbo-instruct

GPT-3.5 Turbo é um modelo rápido e econômico para tarefas mais simples.

0.1111

4096

gpt-4.1

GPT 4.1 é o modelo principal da OpenAI para tarefas complexas, sendo adequado para resolução de problemas em diversas áreas.

0.4444

1047576

gpt-4.1-mini

GPT 4.1 mini oferece um equilíbrio entre inteligência, velocidade e custo, o que o torna um modelo atraente para muitos casos de uso.

0.0889

1047576

gpt-4.1-nano

gpt-4.1 nano é o modelo gpt-4.1 mais rápido e econômico.

0.0222

1047576

mistral-large-latest

Raciocínio de alto nível para tarefas de alta complexidade. O modelo mais poderoso da família Mistral AI.

0.6667

32000

mistral-small-latest

Raciocínio econômico para cargas de trabalho de baixa latência.

0.1667

32000

claude-v2

Claude 2.0 é um LLM líder da Anthropic que possibilita uma ampla gama de tarefas, desde diálogos sofisticados e geração de conteúdo criativo até instruções detalhadas.

1.3333

100000

claude-v2.1

Claude 2.1 é o mais recente modelo de linguagem de grande porte (LLM) da Anthropic, com uma janela de contexto líder do setor de 200 mil tokens, taxas reduzidas de alucinação e precisão aprimorada em documentos longos.

1.3333

200000

claude-instant-v1

Claude Instant é o LLM da Anthropic mais rápido, de menor preço, mas ainda assim muito capaz.

0.1333

100000

claude-v3

O Claude 3 atinge o equilíbrio ideal entre inteligência e velocidade, especialmente para cargas de trabalho corporativas. Ele oferece utilidade máxima e foi projetado para ser confiável.

0.8333

200000

claude-v3-haiku

O modelo mais rápido e compacto da Anthropic, para capacidade de resposta quase instantânea. Ele responde a consultas e solicitações simples com rapidez.

0.0694

200000

claude-v3-opus

O modelo de IA mais poderoso da Anthropic, com desempenho de alto nível em tarefas altamente complexas. Ele pode navegar por prompts abertos e cenários invisíveis.

4.1667

200000

claude-v3-sonnet

O Claude 3 Sonnet atinge o equilíbrio ideal entre inteligência e velocidade, especialmente para cargas de trabalho corporativas. Ele oferece utilidade máxima e foi projetado para ser confiável.

0.8333

200000

claude-v3.5-haiku

O modelo mais rápido e compacto da Anthropic para respostas quase instantâneas. Ele responde a consultas e pedidos simples com rapidez.

0.2222

200000

claude-v3.5-sonnet

Claude 3 Sonnet atinge o equilíbrio ideal entre inteligência e velocidade, particularmente para trabalhos empresariais. Ele é projetado para ser confiável em implementações de IA em grande escala.

0.8333

200000

deepseek-r1-distill-llama-70b

Esse modelo possui raciocínio de alto nível para tarefas de alta complexidade, apresentando um avanço significativo na velocidade de processamento de linguagem natural e aprendizado profundo, gerando respostas contextualizadas e precisas.

0.055

128000

llama-3.3-70b-versatile

Desenvolvido pela Meta, este modelo é otimizado para tarefas com grandes volumes de dados, capturando relações complexas em textos e sendo adequado para atendimento ao público e sistemas de recomendação, com alto desempenho e eficiência computacional.

0.0439

128000

sonar

Opção leve, com fundamentação por busca em tempo real na internet, mais rápida e mais barata que o Sonar Pro.

0.0556

128000

sonar-deep-research

Realiza pesquisas em tempo real na internet, abrangentes e de nível especializado, e as sintetiza em relatórios acessíveis e acionáveis.

0.4444

128000

sonar-pro

Opção premium, com fundamentação por busca em tempo real na internet, suportando consultas avançadas e acompanhamentos.

0.8333

128000

sonar-reasoning

Opção premium, com fundamentação por busca em tempo real na internet e tecnologia DeepSeek R1 com Cadeia de raciocínio (Chain of Thought - CoT).

0.2778

128000

sonar-reasoning-pro

Modelo de primeira linha, com fundamentação por busca em tempo real na internet e tecnologia DeepSeek R1 com Cadeia de raciocínio (Chain of Thought - CoT) e fundamentação avançada por busca.

0.4444

128000

gemini-1.5-flash

Modelo multimodal rápido com excelente desempenho para tarefas diversas e repetitivas, e uma janela de contexto de 1 milhão de tokens.

0.0167

1048576

gemini-1.5-pro

Modelo de maior inteligência da série Gemini 1.5, com uma inovadora janela de contexto de 2 milhões de tokens.llion token context window.

0.2778

2097152

gemini-2.0-flash

Um modelo multimodal, com excelente desempenho em todas as tarefas, uma janela de contexto de 1 milhão de tokens e projetado para a era dos Agentes.

0.0222

1048576

gemini-2.0-flash-lite

Modelo pequeno e com melhor relação custo x benefício, projetado para uso em grande escala.

0.0167

1048576

gemini-2.5-pro

Um modelo multimodal de alta capacidade, com excelente desempenho em todas as tarefas, com uma janela de contexto de 1 milhão de tokens, e construído para a era dos Agentes.

0.8333

1048576

Escolha o modelo apropriado dependendo do seu caso de uso específico e desempenho desejado, de acordo com suas necessidades.

Personalização das configurações do modelo

Para personalizar as configurações de um modelo, clique em configurações avançadas, escolha o modelo e personalize suas propriedades.

Existem quatro propriedades principais que podem ser personalizadas: Número máximo de tokens, Temperatura, Penalidade de Frequência e Penalidade de Presença.

Número máximo de tokens

Esta propriedade determina o número máximo de tokens que o modelo pode consumir ao gerar uma resposta. Por padrão, isso é definido como o tamanho máximo do contexto para o modelo, mas você pode reduzi-lo para limitar a quantidade de recursos usados pelo modelo. Isso pode ajudar a economizar custos de token, mas também pode reduzir a capacidade do agente de acompanhar a conversa.

Temperatura

Esta propriedade determina o nível de aleatoriedade ou criatividade nas respostas do modelo. Um valor de temperatura mais alto resultará em respostas mais diversas e criativas, enquanto um valor mais baixo resultará em respostas mais conservadoras e previsíveis.

Penalidade de Frequência

Esta propriedade determina o quanto o modelo penaliza a repetição de certas palavras ou frases em suas respostas. Um valor de penalidade de frequência mais alto resultará em respostas mais variadas e menos repetitivas.

Penalidade de Presença

Esta propriedade determina o quanto o modelo penaliza o uso de certas palavras ou frases em suas respostas. Um valor de penalidade de presença mais alto resultará em respostas menos propensas a conter palavras ou frases específicas.

Ao personalizar essas propriedades, você pode ajustar o comportamento do modelo para melhor atender ao seu caso de uso específico e requisitos. No entanto, é importante observar que a alteração dessas propriedades pode ter um impacto significativo no desempenho e na precisão do modelo, portanto, é recomendável experimentar diferentes configurações para encontrar o melhor equilíbrio entre desempenho e criatividade.

PreviousIntroduçãoNextConsumo

Last updated 1 month ago