Modelos
A EvaGPT oferece suporte a vários modelos para criar experiências envolventes através de agentes de IA conversacional. Isso inclui modelos básicos da OpenAI, como GPT-4 e GPT-3, juntamente com modelos da Anthropic, Mistral, DeepSeek e outros.
o1
Apresentamos o novo modelo de raciocínio da OpenAI, projetado para lidar com tarefas complexas que exigem amplo conhecimento geral, com suporte a 128K tokens de contexto e informações atualizadas até outubro de 2023. Atenção: para garantir o melhor desempenho, é crucial que a temperatura seja sempre mantida em 1, sem alterações!
3.3333
128000
o3-mini
O o3-mini é um modelo de raciocínio econômico, otimizado para codificação, matemática e ciências. Ele oferece suporte a ferramentas e saídas estruturadas.
0.2444
200000
gpt-4.5
O GPT-4.5 se destaca em tarefas que se beneficiam do pensamento e da conversa criativos e abertos, como escrever, aprender ou explorar novas ideias.
8.3333
128000
gpt-4o-mini
GPT-4o mini é o modelo mais eficiente em termos de custo da OpenAI, sendo mais inteligente e mais barato que o GPT-3.5 Turbo, possuindo boa capacidade de visão. O modelo tem um contexto de 128K e um limite de conhecimento até outubro de 2023.
0.033
128000
gpt-4o
GPT-4o é mais rápido e mais barato que o GPT-4 Turbo, com capacidades de visão mais robustas. O modelo tem um contexto de 128K e um limite de conhecimento até outubro de 2023.
0.5556
128000
gpt-4-turbo
Este é um modelo avançado em desempenho e precisão. Com respostas mais rápidas, interpretação aprimorada e adaptação versátil, oferece uma experiência de conversação fluida e eficiente. Ideal para aplicações que exigem comunicação eficaz com alta qualidade e ótimo custo-benefício.
1.6667
128000
gpt-4
Este é um modelo de inteligência conversacional de última geração, projetado para oferecer respostas rápidas e precisas. Com uma compreensão profunda da linguagem e capacidade de adaptar-se a diferentes contextos, o Intelli-4 garante interações fluídas e eficazes para uma ampla gama de aplicações.
3.3333
8192
gpt-3.5-turbo
GPT-3.5 Turbo é um modelo rápido e econômico para tarefas mais simples.
0.0833
16384
gpt-3.5-turbo-instruct
GPT-3.5 Turbo é um modelo rápido e econômico para tarefas mais simples.
0.1111
4096
gpt-4.1
GPT 4.1 é o modelo principal da OpenAI para tarefas complexas, sendo adequado para resolução de problemas em diversas áreas.
0.4444
1047576
gpt-4.1-mini
GPT 4.1 mini oferece um equilíbrio entre inteligência, velocidade e custo, o que o torna um modelo atraente para muitos casos de uso.
0.0889
1047576
gpt-4.1-nano
gpt-4.1 nano é o modelo gpt-4.1 mais rápido e econômico.
0.0222
1047576
mistral-large-latest
Raciocínio de alto nível para tarefas de alta complexidade. O modelo mais poderoso da família Mistral AI.
0.6667
32000
mistral-small-latest
Raciocínio econômico para cargas de trabalho de baixa latência.
0.1667
32000
claude-v2
Claude 2.0 é um LLM líder da Anthropic que possibilita uma ampla gama de tarefas, desde diálogos sofisticados e geração de conteúdo criativo até instruções detalhadas.
1.3333
100000
claude-v2.1
Claude 2.1 é o mais recente modelo de linguagem de grande porte (LLM) da Anthropic, com uma janela de contexto líder do setor de 200 mil tokens, taxas reduzidas de alucinação e precisão aprimorada em documentos longos.
1.3333
200000
claude-instant-v1
Claude Instant é o LLM da Anthropic mais rápido, de menor preço, mas ainda assim muito capaz.
0.1333
100000
claude-v3
O Claude 3 atinge o equilíbrio ideal entre inteligência e velocidade, especialmente para cargas de trabalho corporativas. Ele oferece utilidade máxima e foi projetado para ser confiável.
0.8333
200000
claude-v3-haiku
O modelo mais rápido e compacto da Anthropic, para capacidade de resposta quase instantânea. Ele responde a consultas e solicitações simples com rapidez.
0.0694
200000
claude-v3-opus
O modelo de IA mais poderoso da Anthropic, com desempenho de alto nível em tarefas altamente complexas. Ele pode navegar por prompts abertos e cenários invisíveis.
4.1667
200000
claude-v3-sonnet
O Claude 3 Sonnet atinge o equilíbrio ideal entre inteligência e velocidade, especialmente para cargas de trabalho corporativas. Ele oferece utilidade máxima e foi projetado para ser confiável.
0.8333
200000
claude-v3.5-haiku
O modelo mais rápido e compacto da Anthropic para respostas quase instantâneas. Ele responde a consultas e pedidos simples com rapidez.
0.2222
200000
claude-v3.5-sonnet
Claude 3 Sonnet atinge o equilíbrio ideal entre inteligência e velocidade, particularmente para trabalhos empresariais. Ele é projetado para ser confiável em implementações de IA em grande escala.
0.8333
200000
deepseek-r1-distill-llama-70b
Esse modelo possui raciocínio de alto nível para tarefas de alta complexidade, apresentando um avanço significativo na velocidade de processamento de linguagem natural e aprendizado profundo, gerando respostas contextualizadas e precisas.
0.055
128000
llama-3.3-70b-versatile
Desenvolvido pela Meta, este modelo é otimizado para tarefas com grandes volumes de dados, capturando relações complexas em textos e sendo adequado para atendimento ao público e sistemas de recomendação, com alto desempenho e eficiência computacional.
0.0439
128000
sonar
Opção leve, com fundamentação por busca em tempo real na internet, mais rápida e mais barata que o Sonar Pro.
0.0556
128000
sonar-deep-research
Realiza pesquisas em tempo real na internet, abrangentes e de nível especializado, e as sintetiza em relatórios acessíveis e acionáveis.
0.4444
128000
sonar-pro
Opção premium, com fundamentação por busca em tempo real na internet, suportando consultas avançadas e acompanhamentos.
0.8333
128000
sonar-reasoning
Opção premium, com fundamentação por busca em tempo real na internet e tecnologia DeepSeek R1 com Cadeia de raciocínio (Chain of Thought - CoT).
0.2778
128000
sonar-reasoning-pro
Modelo de primeira linha, com fundamentação por busca em tempo real na internet e tecnologia DeepSeek R1 com Cadeia de raciocínio (Chain of Thought - CoT) e fundamentação avançada por busca.
0.4444
128000
gemini-1.5-flash
Modelo multimodal rápido com excelente desempenho para tarefas diversas e repetitivas, e uma janela de contexto de 1 milhão de tokens.
0.0167
1048576
gemini-1.5-pro
Modelo de maior inteligência da série Gemini 1.5, com uma inovadora janela de contexto de 2 milhões de tokens.llion token context window.
0.2778
2097152
gemini-2.0-flash
Um modelo multimodal, com excelente desempenho em todas as tarefas, uma janela de contexto de 1 milhão de tokens e projetado para a era dos Agentes.
0.0222
1048576
gemini-2.0-flash-lite
Modelo pequeno e com melhor relação custo x benefício, projetado para uso em grande escala.
0.0167
1048576
gemini-2.5-pro
Um modelo multimodal de alta capacidade, com excelente desempenho em todas as tarefas, com uma janela de contexto de 1 milhão de tokens, e construído para a era dos Agentes.
0.8333
1048576
Escolha o modelo apropriado dependendo do seu caso de uso específico e desempenho desejado, de acordo com suas necessidades.
Personalização das configurações do modelo
Para personalizar as configurações de um modelo, clique em configurações avançadas, escolha o modelo e personalize suas propriedades.
Existem quatro propriedades principais que podem ser personalizadas: Número máximo de tokens, Temperatura, Penalidade de Frequência e Penalidade de Presença.
Número máximo de tokens
Esta propriedade determina o número máximo de tokens que o modelo pode consumir ao gerar uma resposta. Por padrão, isso é definido como o tamanho máximo do contexto para o modelo, mas você pode reduzi-lo para limitar a quantidade de recursos usados pelo modelo. Isso pode ajudar a economizar custos de token, mas também pode reduzir a capacidade do agente de acompanhar a conversa.
Temperatura
Esta propriedade determina o nível de aleatoriedade ou criatividade nas respostas do modelo. Um valor de temperatura mais alto resultará em respostas mais diversas e criativas, enquanto um valor mais baixo resultará em respostas mais conservadoras e previsíveis.
Penalidade de Frequência
Esta propriedade determina o quanto o modelo penaliza a repetição de certas palavras ou frases em suas respostas. Um valor de penalidade de frequência mais alto resultará em respostas mais variadas e menos repetitivas.
Penalidade de Presença
Esta propriedade determina o quanto o modelo penaliza o uso de certas palavras ou frases em suas respostas. Um valor de penalidade de presença mais alto resultará em respostas menos propensas a conter palavras ou frases específicas.
Ao personalizar essas propriedades, você pode ajustar o comportamento do modelo para melhor atender ao seu caso de uso específico e requisitos. No entanto, é importante observar que a alteração dessas propriedades pode ter um impacto significativo no desempenho e na precisão do modelo, portanto, é recomendável experimentar diferentes configurações para encontrar o melhor equilíbrio entre desempenho e criatividade.
Last updated