Modelos
A EvaGPT oferece suporte para que você utilize diferentes modelos de IA, dependendo de suas necessidades, para criar experiências envolventes através de agentes de IA conversacional. Isso inclui modelos da OpenAI, como GPT-4 e GPT-3, juntamente com modelos da Anthropic, Mistral, DeepSeek, Perplexity, Meta e Google.
o1
Apresentamos o novo modelo de raciocínio da OpenAI, projetado para lidar com tarefas complexas que exigem amplo conhecimento geral, com suporte a 128K tokens de contexto e informações atualizadas até outubro de 2023. Atenção: para garantir o melhor desempenho, é crucial que a temperatura seja sempre mantida em 1, sem alterações!
3.3333
128000
o3-mini
O o3-mini é um modelo de raciocínio econômico, otimizado para codificação, matemática e ciências. Ele oferece suporte a ferramentas e saídas estruturadas.
0.2444
200000
gpt-5
GPT-5 é um modelo de linguagem de nova geração com recursos de raciocínio e desempenho aprimorado em todos os domínios, incluindo codificação, matemática e ciências.
0.5556
400000
gpt-5-Mini
O GPT-5 Mini é a versão econômica do GPT-5, oferecendo excelente desempenho para a maioria das tarefas, sendo mais rápido e acessível que o GPT-5.
0.1111
400000
gpt-5-Nano
O GPT-5 Nano é o modelo mais leve e rápido da família GPT-5, otimizado para tarefas simples que exigem respostas rápidas com sobrecarga computacional mínima.
0.0222
400000
gpt-4.5
O GPT-4.5 se destaca em tarefas que se beneficiam do pensamento e da conversa criativos e abertos, como escrever, aprender ou explorar novas ideias.
8.3333
128000
gpt-4o-mini
GPT-4o mini é o modelo mais eficiente em termos de custo da OpenAI, sendo mais inteligente e mais barato que o GPT-3.5 Turbo, possuindo boa capacidade de visão. O modelo tem um contexto de 128K e um limite de conhecimento até outubro de 2023.
0.033
128000
gpt-4o
GPT-4o é mais rápido e mais barato que o GPT-4 Turbo, com capacidades de visão mais robustas. O modelo tem um contexto de 128K e um limite de conhecimento até outubro de 2023.
0.5556
128000
gpt-4-turbo
Este é um modelo avançado em desempenho e precisão. Com respostas mais rápidas, interpretação aprimorada e adaptação versátil, oferece uma experiência de conversação fluida e eficiente. Ideal para aplicações que exigem comunicação eficaz com alta qualidade e ótimo custo-benefício.
1.6667
128000
gpt-4
Este é um modelo de inteligência conversacional de última geração, projetado para oferecer respostas rápidas e precisas. Com uma compreensão profunda da linguagem e capacidade de adaptar-se a diferentes contextos, o Intelli-4 garante interações fluídas e eficazes para uma ampla gama de aplicações.
3.3333
8192
gpt-3.5-turbo
GPT-3.5 Turbo é um modelo rápido e econômico para tarefas mais simples.
0.0833
16384
gpt-3.5-turbo-instruct
GPT-3.5 Turbo é um modelo rápido e econômico para tarefas mais simples.
0.1111
4096
gpt-4.1
GPT 4.1 é o modelo principal da OpenAI para tarefas complexas, sendo adequado para resolução de problemas em diversas áreas.
0.4444
1047576
gpt-4.1-mini
GPT 4.1 mini oferece um equilíbrio entre inteligência, velocidade e custo, o que o torna um modelo atraente para muitos casos de uso.
0.0889
1047576
gpt-4.1-nano
gpt-4.1 nano é o modelo gpt-4.1 mais rápido e econômico.
0.0222
1047576
mistral-large-latest
Raciocínio de alto nível para tarefas de alta complexidade. O modelo mais poderoso da família Mistral AI.
0.6667
32000
mistral-small-latest
Raciocínio econômico para cargas de trabalho de baixa latência.
0.1667
32000
claude-v2
Claude 2.0 é um LLM líder da Anthropic que possibilita uma ampla gama de tarefas, desde diálogos sofisticados e geração de conteúdo criativo até instruções detalhadas.
1.3333
100000
claude-v2.1
Claude 2.1 é o mais recente modelo de linguagem de grande porte (LLM) da Anthropic, com uma janela de contexto líder do setor de 200 mil tokens, taxas reduzidas de alucinação e precisão aprimorada em documentos longos.
1.3333
200000
claude-instant-v1
Claude Instant é o LLM da Anthropic mais rápido, de menor preço, mas ainda assim muito capaz.
0.1333
100000
claude-v3
O Claude 3 atinge o equilíbrio ideal entre inteligência e velocidade, especialmente para cargas de trabalho corporativas. Ele oferece utilidade máxima e foi projetado para ser confiável.
0.8333
200000
claude-v3-haiku
O modelo mais rápido e compacto da Anthropic, para capacidade de resposta quase instantânea. Ele responde a consultas e solicitações simples com rapidez.
0.0694
200000
claude-v3-opus
O modelo de IA mais poderoso da Anthropic, com desempenho de alto nível em tarefas altamente complexas. Ele pode navegar por prompts abertos e cenários invisíveis.
4.1667
200000
claude-v3-sonnet
O Claude 3 Sonnet atinge o equilíbrio ideal entre inteligência e velocidade, especialmente para cargas de trabalho corporativas. Ele oferece utilidade máxima e foi projetado para ser confiável.
0.8333
200000
claude-v3.5-haiku
O modelo mais rápido e compacto da Anthropic para respostas quase instantâneas. Ele responde a consultas e pedidos simples com rapidez.
0.2222
200000
claude-v3.5-sonnet
Claude 3 Sonnet atinge o equilíbrio ideal entre inteligência e velocidade, particularmente para trabalhos empresariais. Ele é projetado para ser confiável em implementações de IA em grande escala.
0.8333
200000
claude-4-opus
O Claude Opus 4 foi avaliado como o melhor modelo para codificação no momento de seu lançamento, oferecendo desempenho consistente em tarefas complexas, de longa duração, e em fluxos de trabalho com agentes.
4.1667
200000
claude-4.1-opus
Claude Opus 4.1 é o modelo mais poderoso da Anthropic, com recursos aprimorados para raciocínio complexo, codificação e tarefas criativas.
4.1667
200000
claude-4-sonnet
O Claude Sonnet 4 apresenta melhora significativa nas capacidades em relação ao seu antecessor, o Sonnet 3.7, destacando-se tanto em tarefas de codificação quanto de raciocínio, com maior precisão e controle.
0.8333
200000
deepseek-r1-distill-llama-70b
Esse modelo possui raciocínio de alto nível para tarefas de alta complexidade, apresentando um avanço significativo na velocidade de processamento de linguagem natural e aprendizado profundo, gerando respostas contextualizadas e precisas.
0.055
128000
deepseek-chat-v3-0324
DeepSeek V3, um modelo baseado em mixture-of-experts, é a mais recente iteração da principal família de modelos de chat da equipe DeepSeek. Ele sucede o modelo DeepSeek V2 e apresenta um desempenho muito bom em uma variedade de tarefas.
0.0489
164000
llama-3.3-70b-versatile
Desenvolvido pela Meta, este modelo é otimizado para tarefas com grandes volumes de dados, capturando relações complexas em textos e sendo adequado para atendimento ao público e sistemas de recomendação, com alto desempenho e eficiência computacional.
0.0439
128000
sonar
Opção leve, com fundamentação por busca em tempo real na internet, mais rápida e mais barata que o Sonar Pro.
0.0556
128000
sonar-deep-research
Realiza pesquisas em tempo real na internet, abrangentes e de nível especializado, e as sintetiza em relatórios acessíveis e acionáveis.
0.4444
128000
sonar-pro
Opção premium, com fundamentação por busca em tempo real na internet, suportando consultas avançadas e acompanhamentos.
0.8333
128000
sonar-reasoning
Opção premium, com fundamentação por busca em tempo real na internet e tecnologia DeepSeek R1 com Cadeia de raciocínio (Chain of Thought - CoT).
0.2778
128000
sonar-reasoning-pro
Modelo de primeira linha, com fundamentação por busca em tempo real na internet e tecnologia DeepSeek R1 com Cadeia de raciocínio (Chain of Thought - CoT) e fundamentação avançada por busca.
0.4444
128000
gemini-1.5-flash
Modelo multimodal rápido com excelente desempenho para tarefas diversas e repetitivas, e uma janela de contexto de 1 milhão de tokens.
0.0167
1048576
gemini-1.5-pro
Modelo de maior inteligência da série Gemini 1.5, com uma inovadora janela de contexto de 2 milhões de tokens.llion token context window.
0.2778
2097152
gemini-2.0-flash
Um modelo multimodal, com excelente desempenho em todas as tarefas, uma janela de contexto de 1 milhão de tokens e projetado para a era dos Agentes.
0.0222
1048576
gemini-2.0-flash-lite
Modelo pequeno e com melhor relação custo x benefício, projetado para uso em grande escala.
0.0167
1048576
gemini-2.5-pro
Um modelo multimodal de alta capacidade, com excelente desempenho em todas as tarefas, com uma janela de contexto de 1 milhão de tokens, e construído para a era dos Agentes.
0.8333
1048576
Escolha o modelo apropriado dependendo do seu caso de uso específico e desempenho desejado, de acordo com suas necessidades.
Personalização das configurações do modelo
Para personalizar as configurações de um modelo, dentro do ambiente de criar Agente ou editar Agente, clique em configurações avançadas, escolha o modelo e personalize suas propriedades.
Existem quatro propriedades principais que podem ser personalizadas: número máximo de tokens, temperatura, penalidade de frequência e penalidade de presença.
Número máximo de tokens
Esta propriedade determina o número máximo de tokens que o modelo pode consumir ao gerar uma resposta. Por padrão, isso é definido como o tamanho máximo do contexto para o modelo, mas você pode reduzi-lo para limitar a quantidade de recursos usados pelo modelo. Isso pode ajudar a economizar custos de token, mas, por outro lado, também pode reduzir a capacidade do agente de responder bem na conversa.
Temperatura
Esta propriedade determina o nível de aleatoriedade ou criatividade nas respostas do modelo. Um valor de temperatura mais alto resultará em respostas mais diversas e criativas, enquanto um valor mais baixo resultará em respostas mais conservadoras e previsíveis.
Penalidade de Frequência
Esta propriedade determina o quanto o modelo aceita a repetição de certas palavras ou frases em suas respostas. Um valor de penalidade de frequência mais alto resultará em respostas mais variadas e menos repetitivas.
Penalidade de Presença
Esta propriedade determina o quanto o modelo aceita o uso de certas palavras ou frases em suas respostas. Um valor de penalidade de presença mais alto resultará em respostas menos propensas a conter palavras ou frases específicas.
Ao personalizar essas propriedades, você pode ajustar o comportamento do modelo para melhor atender ao seu caso de uso específico e seus requisitos. No entanto, é importante observar que a alteração dessas propriedades pode ter um impacto significativo no desempenho e na precisão do modelo, portanto, é recomendável experimentar e testar diferentes configurações para encontrar o melhor equilíbrio entre desempenho e criatividade.
Last updated