FAQ

Como posso integrar a plataforma EvaGPT com os sistemas da minha empresa?

A integração é feita através de APIs e endpoints específicos, que permitem a comunicação entre nossos agentes de IA e seus sistemas internos. Oferecemos documentação detalhada e suporte técnico para facilitar esse processo. Nossa plataforma é altamente flexível e pode ser personalizada de acordo com seus requisitos técnicos.

Posso treinar o agente de IA para entender os setores e as necessidades da minha empresa?

Sim! A plataforma permite o treinamento personalizado do agente de IA, com base no vocabulário, jargões e processos específicos dos seus setores. Você pode fornecer exemplos de interações e dados históricos para nossa equipe da EvaGPT durante o processo de implantação para ajudar a IA a se tornar mais precisa e eficiente no atendimento e no que se espera dela.

A plataforma oferece suporte a múltiplos idiomas?

Sim, a plataforma oferece suporte a múltiplos idiomas e pode ser configurada para interagir com usuários da forma como você e sua empresa desejam. A IA pode ser treinada para entender o contexto e as nuances linguísticas de cada idioma, garantindo uma experiência mais natural e eficiente.

Como funciona o processo de implementação da plataforma?

O processo de implementação inclui as seguintes etapas:

1) Planejamento: definição dos requisitos, particularidades e regras de negócio da sua empresa e dos objetivos que você deseja alcançar.

2) Criação do Agente e treinamento da IA: para tal, são utilizados os dados fornecidos por você e sua empresa, podendo ser feitas integrações com APIs necessárias. Essa etapa é realizada pela equipe EvaGPT em contato contínuo com a empresa, para que o Agente esteja o mais próximo possível do esperado por vocês.

3) Testes: tanto a equipe EvaGPT quanto membros designados pela empresa realizam testes para validar a funcionalidade e o desempenho do agente, garantindo que tudo esteja funcionando corretamente.

4) Produção: a plataforma é disponibilizada para os usuários finais para ser utilizada.

5) Suporte e curadoria: oferecemos suporte pós-implementação para garantir que a plataforma continue atendendo às suas necessidades e também realizamos curadoria das interações para melhoria contínua.

Qual é o custo da plataforma?

O custo da plataforma varia dependendo do plano escolhido, que é baseado em fatores como número de integrações, quantidade de agentes, volume de interações e funcionalidades específicas requeridas. Oferecemos planos escaláveis para atender a empresas de todos os tamanhos. Para obter um orçamento personalizado, entre em contato com nossa equipe de vendas.

Posso testar a plataforma antes de contratar?

Sim, oferecemos uma versão de demonstração da plataforma (Prova de conceito) para que você possa testar suas funcionalidades, de acordo com suas necessidades, antes de decidir pela contratação. Entre em contato com nossa equipe de vendas para solicitar esse serviço.

O que é um token?

No contexto de LLMs (Large Language Model), um "token" se refere a uma unidade de texto em um documento ou sequência que é tratada como uma unidade pelo modelo de linguagem. Essas unidades de texto podem ser palavras individuais, subpalavras ou até mesmo caracteres, dependendo de como o modelo foi treinado e configurado.

Os tokens são importantes porque os modelos de linguagem, como aqueles baseados em redes neurais, processam o texto em unidades de tokens. Cada token geralmente recebe uma representação numérica específica no modelo, e o modelo gera previsões com base nessas representações.

A quantidade de tokens em uma sequência de texto também é relevante, pois os modelos de linguagem geralmente têm limitações em termos de quantos tokens podem processar de uma só vez devido a restrições de memória e computação. Portanto, ao usar um modelo de linguagem, você precisa estar ciente do número de tokens em sua entrada e garantir que ele esteja dentro dos limites permitidos pelo modelo.

A seguir é apresentado um exemplo da divisão de tokens feita no site da OpenAI:

Imagem 1: divisão de tokens realizada pela ferramenta Tokenizer, disponível em: https://platform.openai.com/tokenizer

O que é o limite de tokens e por que observá-lo?

O limite de tokens em um LLM (Large Language Model) é como um limite de palavras que o modelo pode entender de cada vez. Você pode pensar nisso como um pedaço de texto que o modelo consegue ler de uma só vez.

A razão pela qual você deve ter cuidado com o tamanho dos "prompts" (as instruções ou perguntas que você fornece ao LLM) é que, se o seu prompt for muito longo, ele pode ultrapassar esse limite de tokens. Quando isso acontece, você precisa encurtar o seu prompt ou o texto de entrada de alguma forma.

Se você ultrapassar o limite de tokens, o modelo pode não ser capaz de entender sua pergunta ou instrução corretamente, ou pior, pode cortar sua resposta, o que a torna incompreensível.

Portanto, é importante manter os prompts dentro do limite de tokens do LLM para obter respostas precisas e úteis. Se você precisar de uma resposta mais longa ou detalhada, pode ser necessário dividir sua pergunta em partes menores ou simplificar o texto para que caiba dentro desse limite.

Last updated