Modelos

A EvaGPT oferece suporte para que você utilize diferentes modelos de IA, dependendo de suas necessidades, para criar experiências envolventes através de agentes de IA conversacional. Isso inclui modelos da OpenAI, como GPT-4 e GPT-3, juntamente com modelos da Anthropic, Mistral, DeepSeek, Perplexity, Meta e Google.

Nome do modelo
Descrição curta
Proporção de tokens
Tamanho do contexto

gpt-5.2

O GPT-5.2 é o membro rápido e leve da família 5.2, otimizado para conversas rápidas, enquanto mantém forte inteligência geral.

0.7778

400000

gpt-5.1

O oferece raciocínio mais forte, melhor adesão às instruções e um estilo conversacional mais natural.

0.5556

400000

gpt-5

GPT-5 é um modelo de linguagem de nova geração com recursos de raciocínio e desempenho aprimorado em todos os domínios, incluindo codificação, matemática e ciências.

0.5556

400000

gpt-5-Mini

O GPT-5 Mini é a versão econômica do GPT-5, oferecendo excelente desempenho para a maioria das tarefas, sendo mais rápido e acessível que o GPT-5.

0.1111

400000

gpt-5-Nano

O GPT-5 Nano é o modelo mais leve e rápido da família GPT-5, otimizado para tarefas simples que exigem respostas rápidas com sobrecarga computacional mínima.

0.0222

400000

gpt-4.5

O GPT-4.5 se destaca em tarefas que se beneficiam do pensamento e da conversa criativos e abertos, como escrever, aprender ou explorar novas ideias.

8.3333

128000

gpt-4o-mini

GPT-4o mini é o modelo mais eficiente em termos de custo da OpenAI, sendo mais inteligente e mais barato que o GPT-3.5 Turbo, possuindo boa capacidade de visão. O modelo tem um contexto de 128K e um limite de conhecimento até outubro de 2023.

0.033

128000

gpt-4o

GPT-4o é mais rápido e mais barato que o GPT-4 Turbo, com capacidades de visão mais robustas. O modelo tem um contexto de 128K e um limite de conhecimento até outubro de 2023.

0.5556

128000

gpt-4-turbo

Este é um modelo avançado em desempenho e precisão. Com respostas mais rápidas, interpretação aprimorada e adaptação versátil, oferece uma experiência de conversação fluida e eficiente. Ideal para aplicações que exigem comunicação eficaz com alta qualidade e ótimo custo-benefício.

1.6667

128000

gpt-4

Este é um modelo de inteligência conversacional de última geração, projetado para oferecer respostas rápidas e precisas. Com uma compreensão profunda da linguagem e capacidade de adaptar-se a diferentes contextos, o Intelli-4 garante interações fluídas e eficazes para uma ampla gama de aplicações.

3.3333

8192

gpt-3.5-turbo

GPT-3.5 Turbo é um modelo rápido e econômico para tarefas mais simples.

0.0833

16384

gpt-3.5-turbo-instruct

GPT-3.5 Turbo é um modelo rápido e econômico para tarefas mais simples.

0.1111

4096

gpt-4.1

GPT 4.1 é o modelo principal da OpenAI para tarefas complexas, sendo adequado para resolução de problemas em diversas áreas.

0.4444

1047576

gpt-4.1-mini

GPT 4.1 mini oferece um equilíbrio entre inteligência, velocidade e custo, o que o torna um modelo atraente para muitos casos de uso.

0.0889

1047576

gpt-5.3-codex

O GPT-5.3-Codex é um modelo de codificação especializado da OpenAI, otimizado para fluxos de trabalho de engenharia de software e tarefas autônomas de codificação de longa duração.

0.7778

400000

gpt-5.2-codex

Esta é uma versão especializada do GPT-5.2 otimizada para engenharia de software e fluxos de trabalho de codificação. Ele foi projetado tanto para sessões interativas de desenvolvimento quanto para a execução independente e prolongada de tarefas complexas de engenharia.

0.7778

400000

gpt-5.1-codex

O GPT-5.1-Codex é uma versão especializada do GPT-5.1, otimizada para engenharia de software e fluxos de trabalho de codificação, projetado tanto para sessões interativas de desenvolvimento quanto para a execução independente e prolongada de tarefas complexas de engenharia.

0.5556

400000

gpt-5.1-codex-max

O GPT-5.1-Codex-Max é um modelo de codificação por agentes da OpenAI, projetado para tarefas de desenvolvimento de software de longa duração e alto contexto.

0.5556

400000

gpt-5.1-codex-mini

O GPT-5.1-Codex-Mini é uma versão menor e mais rápida do GPT-5.1-Codex.

0.1111

400000

gpt-5-codex

O GPT-5-Codex é uma versão especializada do GPT-5 otimizada para engenharia de software e fluxos de trabalho de codificação. Ele foi projetado tanto para sessões interativas de desenvolvimento quanto para a execução independente e prolongada de tarefas complexas de engenharia.

0.5556

400000

o3

o3 é um modelo versátil e poderoso em diversos domínios. Ele estabelece um novo padrão para tarefas de matemática, ciência, programação e raciocínio visual. Também se destaca em redação técnica e no cumprimento de instruções.

0.4444

200000

o4-mini

Este é o mais recente modelo mini da série o. Ele é otimizado para raciocínio rápido e eficaz, com desempenho excepcionalmente eficiente em tarefas de programação e visuais.

0.2444

200000

o1

Apresentamos o novo modelo de raciocínio da OpenAI, projetado para lidar com tarefas complexas que exigem amplo conhecimento geral, com suporte a 128K tokens de contexto e informações atualizadas até outubro de 2023. Atenção: para garantir o melhor desempenho, é crucial que a temperatura seja sempre mantida em 1, sem alterações!

3.3333

128000

o3-mini

O o3-mini é um modelo de raciocínio econômico, otimizado para codificação, matemática e ciências. Ele oferece suporte a ferramentas e saídas estruturadas.

0.2444

200000

gpt-4.1-nano

gpt-4.1 nano é o modelo gpt-4.1 mais rápido e econômico.

0.0222

1047576

mistral-large-latest

Raciocínio de alto nível para tarefas de alta complexidade. O modelo mais poderoso da família Mistral AI.

0.6667

32000

mistral-small-latest

Raciocínio econômico para cargas de trabalho de baixa latência.

0.1667

32000

claude-4.6-sonnet

Este é o modelo apresenta alto desempenho em programação, agentes desenvolvimento iterativo, navegação em bases de código complexas, gerenciamento de projetos, criação de documentos refinados e automação de fluxos de trabalho.

0.8333

1000000

Claude Opus 4.6

Claude Opus 4.6 é eficiente para programação e tarefas profissionais de longa duração, otimizado para fluxos de trabalho com agentes em múltiplas etapas, grandes bases de código e raciocínio sustentado em trabalhos complexos.

1.3889

1000000

Claude Opus 4.5

Este modelo da Anthropic é otimizado para engenharia de software complexa, fluxos de trabalho agentivos e uso prolongado de computador, oferecendo capacidades multimodais, desempenho competitivo em programação e raciocínio, além de robustez contra injeção de prompts.

1.3889

200000

Claude Sonnet 4.5

Modelo avançado ajustado para agentes, programação de longa duração e raciocínio sustentado.

0.8333

1000000

Claude 3.7 Sonnet

Claude 3.7 Sonnet é um modelo de linguagem de grande porte avançado, com capacidades aprimoradas de raciocínio, programação e resolução de problemas.

0.8333

200000

Claude Haiku 4.5

Este é o modelo rápido e eficiente da Anthropic, oferecendo inteligência por uma fração do custo e da latência dos modelos Claude maiores, igualando o desempenho do Claude Sonnet 4 em tarefas de raciocínio, programação e uso de computador.

0.2778

200000

claude-v2

Claude 2.0 é um LLM líder da Anthropic que possibilita uma ampla gama de tarefas, desde diálogos sofisticados e geração de conteúdo criativo até instruções detalhadas.

1.3333

100000

claude-v2.1

Claude 2.1 é o mais recente modelo de linguagem de grande porte (LLM) da Anthropic, com uma janela de contexto líder do setor de 200 mil tokens, taxas reduzidas de alucinação e precisão aprimorada em documentos longos.

1.3333

200000

claude-instant-v1

Claude Instant é o LLM da Anthropic mais rápido, de menor preço, mas ainda assim muito capaz.

0.1333

100000

claude-v3

O Claude 3 atinge o equilíbrio ideal entre inteligência e velocidade, especialmente para cargas de trabalho corporativas. Ele oferece utilidade máxima e foi projetado para ser confiável.

0.8333

200000

claude-v3-haiku

O modelo mais rápido e compacto da Anthropic, para capacidade de resposta quase instantânea. Ele responde a consultas e solicitações simples com rapidez.

0.0694

200000

claude-v3-opus

O modelo de IA mais poderoso da Anthropic, com desempenho de alto nível em tarefas altamente complexas. Ele pode navegar por prompts abertos e cenários invisíveis.

4.1667

200000

claude-v3-sonnet

O Claude 3 Sonnet atinge o equilíbrio ideal entre inteligência e velocidade, especialmente para cargas de trabalho corporativas. Ele oferece utilidade máxima e foi projetado para ser confiável.

0.8333

200000

claude-v3.5-haiku

O modelo mais rápido e compacto da Anthropic para respostas quase instantâneas. Ele responde a consultas e pedidos simples com rapidez.

0.2222

200000

claude-v3.5-sonnet

Claude 3 Sonnet atinge o equilíbrio ideal entre inteligência e velocidade, particularmente para trabalhos empresariais. Ele é projetado para ser confiável em implementações de IA em grande escala.

0.8333

200000

claude-4-opus

O Claude Opus 4 foi avaliado como o melhor modelo para codificação no momento de seu lançamento, oferecendo desempenho consistente em tarefas complexas, de longa duração, e em fluxos de trabalho com agentes.

4.1667

200000

claude-4.1-opus

Claude Opus 4.1 é o modelo mais poderoso da Anthropic, com recursos aprimorados para raciocínio complexo, codificação e tarefas criativas.

4.1667

200000

claude-4-sonnet

O Claude Sonnet 4 apresenta melhora significativa nas capacidades em relação ao seu antecessor, o Sonnet 3.7, destacando-se tanto em tarefas de codificação quanto de raciocínio, com maior precisão e controle.

0.8333

200000

GLM-5

GLM-5 é o modelo base open-source da Z.AI, projetado para design de sistemas complexos e fluxos de trabalho agentivos, oferecendo desempenho em tarefas de programação em larga escala.

0.1422

202800

GLM-4.7 Flash

GLM-4.7-Flash é o modelo rápido e com boa relação custo-benefício da Z.AI, otimizado para programação, fluxos de trabalho agentivos e uso no mundo real com hardwares mais simples.

0.0222

200000

GLM-4.7

GLM-4.7 é um modelo da Z.AI, com atualizações em programação e raciocínio em múltiplas etapas. Ele demonstra melhorias significativas na execução de tarefas complexas e oferece experiências conversacionais mais naturais.

0.0833

202752

MiniMax M2.5

MiniMax M2.5 é o modelo principal da MiniMax voltado para produtividade, otimizado para programação, automação de escritório e fluxos de trabalho com agentes em múltiplas etapas, com alta eficiência de tokens.

0.0667

204800

Kimi K2.5

Kimi K2.5 é o modelo multimodal principal da MoonshotAI, com forte desempenho em programação, raciocínio e fluxos de trabalho agentivos.

0.1556

256000

deepseek-r1-distill-llama-70b

Esse modelo possui raciocínio de alto nível para tarefas de alta complexidade, apresentando um avanço significativo na velocidade de processamento de linguagem natural e aprendizado profundo, gerando respostas contextualizadas e precisas.

0.055

128000

deepseek-chat-v3-0324

DeepSeek V3, um modelo baseado em mixture-of-experts, é a mais recente iteração da principal família de modelos de chat da equipe DeepSeek. Ele sucede o modelo DeepSeek V2 e apresenta um desempenho muito bom em uma variedade de tarefas.

0.0489

164000

llama-3.3-70b-versatile

Desenvolvido pela Meta, este modelo é otimizado para tarefas com grandes volumes de dados, capturando relações complexas em textos e sendo adequado para atendimento ao público e sistemas de recomendação, com alto desempenho e eficiência computacional.

0.0439

128000

sonar

Opção leve, com fundamentação por busca em tempo real na internet, mais rápida e mais barata que o Sonar Pro.

0.0556

128000

sonar-deep-research

Realiza pesquisas em tempo real na internet, abrangentes e de nível especializado, e as sintetiza em relatórios acessíveis e acionáveis.

0.4444

128000

sonar-pro

Opção premium, com fundamentação por busca em tempo real na internet, suportando consultas avançadas e acompanhamentos.

0.8333

128000

sonar-reasoning

Opção premium, com fundamentação por busca em tempo real na internet e tecnologia DeepSeek R1 com Cadeia de raciocínio (Chain of Thought - CoT).

0.2778

128000

sonar-reasoning-pro

Modelo de primeira linha, com fundamentação por busca em tempo real na internet e tecnologia DeepSeek R1 com Cadeia de raciocínio (Chain of Thought - CoT) e fundamentação avançada por busca.

0.4444

128000

gemini-3.1-pro

Gemini 3.1 Pro é um modelo do Google para raciocínio multimodal de alta precisão em texto, imagem, vídeo, áudio e código, com uma janela de contexto longa.

0.6667

1048576

gemini-3-flash

Gemini 3 Flash é um modelo de raciocínio de alta velocidade e alto valor, projetado para fluxos de trabalho agentivos, conversas em múltiplos turnos e assistência em programação.

0.1667

1048576

gemini-2.5-flash

Um modelo multimodal capaz e de baixo custo, com ótimo desempenho em todas as tarefas e desenvolvido para a era dos Agentes.

0.1944

1048576

gemini-3-Pro

Gemini 3 Pro é o modelo do Google para raciocínio multimodal de alta precisão, combinando forte desempenho em texto, imagem, vídeo, áudio e código.

1

1048576

gemini-1.5-flash

Modelo multimodal rápido com excelente desempenho para tarefas diversas e repetitivas, e uma janela de contexto de 1 milhão de tokens.

0.0167

1048576

gemini-1.5-pro

Modelo de maior inteligência da série Gemini 1.5, com uma inovadora janela de contexto de 2 milhões de tokens.llion token context window.

0.2778

2097152

gemini-2.0-flash

Um modelo multimodal, com excelente desempenho em todas as tarefas, uma janela de contexto de 1 milhão de tokens e projetado para a era dos Agentes.

0.0222

1048576

gemini-2.0-flash-lite

Modelo pequeno e com melhor relação custo x benefício, projetado para uso em grande escala.

0.0167

1048576

gemini-2.5-pro

Um modelo multimodal de alta capacidade, com excelente desempenho em todas as tarefas, com uma janela de contexto de 1 milhão de tokens, e construído para a era dos Agentes.

0.8333

1048576

gpt-image-1-mini

O GPT Image 1 Mini é um modelo de geração de imagens, multimodal, que aceita tanto texto quanto entradas de imagem, e produz saídas de imagem.

0.4444

---

gpt-image-1

O GPT Image 1 é um modelo de geração de imagens, multimodal, que aceita tanto texto quanto entradas de imagem, e produz saídas de imagem.

2.2222

---

gpt-image-1.5

GPT Image 1.5 é um modelo avançado de geração de imagens com qualidade e capacidades multimodais, pois aceita tanto texto quanto imagens como entradas, permitindo uma interação mais rica e dinâmica.

100

---

dalle3

Este modelo é baseado na arquitetura DALL-E 3. É um modelo de alta qualidade que pode gerar imagens a partir de texto. É ajustável e oferece um equilíbrio entre custo e qualidade.

1

---

dalle2

Este modelo é baseado na arquitetura DALL-E 2. É um modelo de alta qualidade que pode gerar imagens a partir de texto. É ajustável e oferece um equilíbrio entre custo e qualidade.

1

---

stablediffusion

Este modelo é baseado na arquitetura Stable Diffusion. É um modelo de alta qualidade que pode gerar imagens a partir de texto. É ajustável e oferece um equilíbrio entre custo e qualidade.

1

---

Escolha o modelo apropriado dependendo do seu caso de uso específico e desempenho desejado, de acordo com suas necessidades.

Personalização das configurações do modelo

Para personalizar as configurações de um modelo, dentro do ambiente de criar Agente ou editar Agente, clique em configurações avançadas, escolha o modelo e personalize suas propriedades.

Existem quatro propriedades principais que podem ser personalizadas: número máximo de tokens, temperatura, penalidade de frequência e penalidade de presença.

Número máximo de tokens

Esta propriedade determina o número máximo de tokens que o modelo pode consumir ao gerar uma resposta. Por padrão, isso é definido como o tamanho máximo do contexto para o modelo, mas você pode reduzi-lo para limitar a quantidade de recursos usados pelo modelo. Isso pode ajudar a economizar custos de token, mas, por outro lado, também pode reduzir a capacidade do agente de responder bem na conversa.

Temperatura

Esta propriedade determina o nível de aleatoriedade ou criatividade nas respostas do modelo. Um valor de temperatura mais alto resultará em respostas mais diversas e criativas, enquanto um valor mais baixo resultará em respostas mais conservadoras e previsíveis.

Penalidade de Frequência

Esta propriedade determina o quanto o modelo aceita a repetição de certas palavras ou frases em suas respostas. Um valor de penalidade de frequência mais alto resultará em respostas mais variadas e menos repetitivas.

Penalidade de Presença

Esta propriedade determina o quanto o modelo aceita o uso de certas palavras ou frases em suas respostas. Um valor de penalidade de presença mais alto resultará em respostas menos propensas a conter palavras ou frases específicas.

Ao personalizar essas propriedades, você pode ajustar o comportamento do modelo para melhor atender ao seu caso de uso específico e seus requisitos. No entanto, é importante observar que a alteração dessas propriedades pode ter um impacto significativo no desempenho e na precisão do modelo, portanto, é recomendável experimentar e testar diferentes configurações para encontrar o melhor equilíbrio entre desempenho e criatividade.

Last updated