Modelos

A EvaGPT oferece suporte para que você utilize diferentes modelos de IA, dependendo de suas necessidades, para criar experiências envolventes através de agentes de IA conversacional. Isso inclui modelos da OpenAI, como GPT-4 e GPT-3, juntamente com modelos da Anthropic, Mistral, DeepSeek, Perplexity, Meta e Google.

Nome do modelo
Descrição curta
Proporção de tokens
Tamanho do contexto

o1

Apresentamos o novo modelo de raciocínio da OpenAI, projetado para lidar com tarefas complexas que exigem amplo conhecimento geral, com suporte a 128K tokens de contexto e informações atualizadas até outubro de 2023. Atenção: para garantir o melhor desempenho, é crucial que a temperatura seja sempre mantida em 1, sem alterações!

3.3333

128000

o3-mini

O o3-mini é um modelo de raciocínio econômico, otimizado para codificação, matemática e ciências. Ele oferece suporte a ferramentas e saídas estruturadas.

0.2444

200000

gpt-5

GPT-5 é um modelo de linguagem de nova geração com recursos de raciocínio e desempenho aprimorado em todos os domínios, incluindo codificação, matemática e ciências.

0.5556

400000

gpt-5-Mini

O GPT-5 Mini é a versão econômica do GPT-5, oferecendo excelente desempenho para a maioria das tarefas, sendo mais rápido e acessível que o GPT-5.

0.1111

400000

gpt-5-Nano

O GPT-5 Nano é o modelo mais leve e rápido da família GPT-5, otimizado para tarefas simples que exigem respostas rápidas com sobrecarga computacional mínima.

0.0222

400000

gpt-4.5

O GPT-4.5 se destaca em tarefas que se beneficiam do pensamento e da conversa criativos e abertos, como escrever, aprender ou explorar novas ideias.

8.3333

128000

gpt-4o-mini

GPT-4o mini é o modelo mais eficiente em termos de custo da OpenAI, sendo mais inteligente e mais barato que o GPT-3.5 Turbo, possuindo boa capacidade de visão. O modelo tem um contexto de 128K e um limite de conhecimento até outubro de 2023.

0.033

128000

gpt-4o

GPT-4o é mais rápido e mais barato que o GPT-4 Turbo, com capacidades de visão mais robustas. O modelo tem um contexto de 128K e um limite de conhecimento até outubro de 2023.

0.5556

128000

gpt-4-turbo

Este é um modelo avançado em desempenho e precisão. Com respostas mais rápidas, interpretação aprimorada e adaptação versátil, oferece uma experiência de conversação fluida e eficiente. Ideal para aplicações que exigem comunicação eficaz com alta qualidade e ótimo custo-benefício.

1.6667

128000

gpt-4

Este é um modelo de inteligência conversacional de última geração, projetado para oferecer respostas rápidas e precisas. Com uma compreensão profunda da linguagem e capacidade de adaptar-se a diferentes contextos, o Intelli-4 garante interações fluídas e eficazes para uma ampla gama de aplicações.

3.3333

8192

gpt-3.5-turbo

GPT-3.5 Turbo é um modelo rápido e econômico para tarefas mais simples.

0.0833

16384

gpt-3.5-turbo-instruct

GPT-3.5 Turbo é um modelo rápido e econômico para tarefas mais simples.

0.1111

4096

gpt-4.1

GPT 4.1 é o modelo principal da OpenAI para tarefas complexas, sendo adequado para resolução de problemas em diversas áreas.

0.4444

1047576

gpt-4.1-mini

GPT 4.1 mini oferece um equilíbrio entre inteligência, velocidade e custo, o que o torna um modelo atraente para muitos casos de uso.

0.0889

1047576

gpt-4.1-nano

gpt-4.1 nano é o modelo gpt-4.1 mais rápido e econômico.

0.0222

1047576

mistral-large-latest

Raciocínio de alto nível para tarefas de alta complexidade. O modelo mais poderoso da família Mistral AI.

0.6667

32000

mistral-small-latest

Raciocínio econômico para cargas de trabalho de baixa latência.

0.1667

32000

claude-v2

Claude 2.0 é um LLM líder da Anthropic que possibilita uma ampla gama de tarefas, desde diálogos sofisticados e geração de conteúdo criativo até instruções detalhadas.

1.3333

100000

claude-v2.1

Claude 2.1 é o mais recente modelo de linguagem de grande porte (LLM) da Anthropic, com uma janela de contexto líder do setor de 200 mil tokens, taxas reduzidas de alucinação e precisão aprimorada em documentos longos.

1.3333

200000

claude-instant-v1

Claude Instant é o LLM da Anthropic mais rápido, de menor preço, mas ainda assim muito capaz.

0.1333

100000

claude-v3

O Claude 3 atinge o equilíbrio ideal entre inteligência e velocidade, especialmente para cargas de trabalho corporativas. Ele oferece utilidade máxima e foi projetado para ser confiável.

0.8333

200000

claude-v3-haiku

O modelo mais rápido e compacto da Anthropic, para capacidade de resposta quase instantânea. Ele responde a consultas e solicitações simples com rapidez.

0.0694

200000

claude-v3-opus

O modelo de IA mais poderoso da Anthropic, com desempenho de alto nível em tarefas altamente complexas. Ele pode navegar por prompts abertos e cenários invisíveis.

4.1667

200000

claude-v3-sonnet

O Claude 3 Sonnet atinge o equilíbrio ideal entre inteligência e velocidade, especialmente para cargas de trabalho corporativas. Ele oferece utilidade máxima e foi projetado para ser confiável.

0.8333

200000

claude-v3.5-haiku

O modelo mais rápido e compacto da Anthropic para respostas quase instantâneas. Ele responde a consultas e pedidos simples com rapidez.

0.2222

200000

claude-v3.5-sonnet

Claude 3 Sonnet atinge o equilíbrio ideal entre inteligência e velocidade, particularmente para trabalhos empresariais. Ele é projetado para ser confiável em implementações de IA em grande escala.

0.8333

200000

claude-4-opus

O Claude Opus 4 foi avaliado como o melhor modelo para codificação no momento de seu lançamento, oferecendo desempenho consistente em tarefas complexas, de longa duração, e em fluxos de trabalho com agentes.

4.1667

200000

claude-4.1-opus

Claude Opus 4.1 é o modelo mais poderoso da Anthropic, com recursos aprimorados para raciocínio complexo, codificação e tarefas criativas.

4.1667

200000

claude-4-sonnet

O Claude Sonnet 4 apresenta melhora significativa nas capacidades em relação ao seu antecessor, o Sonnet 3.7, destacando-se tanto em tarefas de codificação quanto de raciocínio, com maior precisão e controle.

0.8333

200000

deepseek-r1-distill-llama-70b

Esse modelo possui raciocínio de alto nível para tarefas de alta complexidade, apresentando um avanço significativo na velocidade de processamento de linguagem natural e aprendizado profundo, gerando respostas contextualizadas e precisas.

0.055

128000

deepseek-chat-v3-0324

DeepSeek V3, um modelo baseado em mixture-of-experts, é a mais recente iteração da principal família de modelos de chat da equipe DeepSeek. Ele sucede o modelo DeepSeek V2 e apresenta um desempenho muito bom em uma variedade de tarefas.

0.0489

164000

llama-3.3-70b-versatile

Desenvolvido pela Meta, este modelo é otimizado para tarefas com grandes volumes de dados, capturando relações complexas em textos e sendo adequado para atendimento ao público e sistemas de recomendação, com alto desempenho e eficiência computacional.

0.0439

128000

sonar

Opção leve, com fundamentação por busca em tempo real na internet, mais rápida e mais barata que o Sonar Pro.

0.0556

128000

sonar-deep-research

Realiza pesquisas em tempo real na internet, abrangentes e de nível especializado, e as sintetiza em relatórios acessíveis e acionáveis.

0.4444

128000

sonar-pro

Opção premium, com fundamentação por busca em tempo real na internet, suportando consultas avançadas e acompanhamentos.

0.8333

128000

sonar-reasoning

Opção premium, com fundamentação por busca em tempo real na internet e tecnologia DeepSeek R1 com Cadeia de raciocínio (Chain of Thought - CoT).

0.2778

128000

sonar-reasoning-pro

Modelo de primeira linha, com fundamentação por busca em tempo real na internet e tecnologia DeepSeek R1 com Cadeia de raciocínio (Chain of Thought - CoT) e fundamentação avançada por busca.

0.4444

128000

gemini-1.5-flash

Modelo multimodal rápido com excelente desempenho para tarefas diversas e repetitivas, e uma janela de contexto de 1 milhão de tokens.

0.0167

1048576

gemini-1.5-pro

Modelo de maior inteligência da série Gemini 1.5, com uma inovadora janela de contexto de 2 milhões de tokens.llion token context window.

0.2778

2097152

gemini-2.0-flash

Um modelo multimodal, com excelente desempenho em todas as tarefas, uma janela de contexto de 1 milhão de tokens e projetado para a era dos Agentes.

0.0222

1048576

gemini-2.0-flash-lite

Modelo pequeno e com melhor relação custo x benefício, projetado para uso em grande escala.

0.0167

1048576

gemini-2.5-pro

Um modelo multimodal de alta capacidade, com excelente desempenho em todas as tarefas, com uma janela de contexto de 1 milhão de tokens, e construído para a era dos Agentes.

0.8333

1048576

Escolha o modelo apropriado dependendo do seu caso de uso específico e desempenho desejado, de acordo com suas necessidades.

Personalização das configurações do modelo

Para personalizar as configurações de um modelo, dentro do ambiente de criar Agente ou editar Agente, clique em configurações avançadas, escolha o modelo e personalize suas propriedades.

Existem quatro propriedades principais que podem ser personalizadas: número máximo de tokens, temperatura, penalidade de frequência e penalidade de presença.

Número máximo de tokens

Esta propriedade determina o número máximo de tokens que o modelo pode consumir ao gerar uma resposta. Por padrão, isso é definido como o tamanho máximo do contexto para o modelo, mas você pode reduzi-lo para limitar a quantidade de recursos usados pelo modelo. Isso pode ajudar a economizar custos de token, mas, por outro lado, também pode reduzir a capacidade do agente de responder bem na conversa.

Temperatura

Esta propriedade determina o nível de aleatoriedade ou criatividade nas respostas do modelo. Um valor de temperatura mais alto resultará em respostas mais diversas e criativas, enquanto um valor mais baixo resultará em respostas mais conservadoras e previsíveis.

Penalidade de Frequência

Esta propriedade determina o quanto o modelo aceita a repetição de certas palavras ou frases em suas respostas. Um valor de penalidade de frequência mais alto resultará em respostas mais variadas e menos repetitivas.

Penalidade de Presença

Esta propriedade determina o quanto o modelo aceita o uso de certas palavras ou frases em suas respostas. Um valor de penalidade de presença mais alto resultará em respostas menos propensas a conter palavras ou frases específicas.

Ao personalizar essas propriedades, você pode ajustar o comportamento do modelo para melhor atender ao seu caso de uso específico e seus requisitos. No entanto, é importante observar que a alteração dessas propriedades pode ter um impacto significativo no desempenho e na precisão do modelo, portanto, é recomendável experimentar e testar diferentes configurações para encontrar o melhor equilíbrio entre desempenho e criatividade.

Last updated