Contagem de Tokens do Playground Não Atualiza em Tempo Real Durante Interação

Olá Equipe e Comunidade do Google AI Studio,

tags: token-count

Gostaria de reportar uma regressão na experiência do usuário relacionada à contagem de tokens no Playground do AI Studio. Este problema afeta a visibilidade e o controle do usuário sobre o consumo de tokens.

Contexto do Problema:
Ao submeter prompts para os modelos Gemini no Playground, o painel de contagem de tokens (que exibe o total de tokens do input e output) não é atualizado em tempo real.

Comportamento Observado (Passos para Reproduzir):

  1. Abra uma nova sessão de Playground no Google AI Studio (ou utilize uma sessão existente, independentemente do volume de tokens já acumulado).

  2. Digite e submeta um prompt (pode ser um texto de 1300 a 1600 tokens, como exemplo).

  3. Durante o período de envio do prompt e enquanto a resposta do modelo está sendo gerada, o painel de contagem de tokens permanece completamente em branco.

  4. Observação Importante: Embora o sistema mostre o tempo de processamento em segundos (indicando que a requisição está ativa e não há travamento), a contagem de tokens não aparece.

  5. A contagem total de tokens (input + output) só é exibida após a resposta completa do modelo ser finalizada e totalmente renderizada na tela.

Contraste com Comportamento Anterior:
Anteriormente, a contagem de tokens era dinâmica e progressiva: o número de tokens do input era exibido imediatamente, e a contagem total era atualizada à medida que o modelo gerava a resposta.

Por que este é um problema de UX?

  • Quebra da Visibilidade do Status do Sistema: Mesmo com o indicador de tempo de processamento, a ausência da contagem específica de tokens cria uma lacuna de informação crítica. Usuários precisam saber o consumo de tokens em tempo real para gerenciar suas interações, especialmente considerando limites de contexto e custos.

  • Perda de Controle e Prevenção de Erros: A contagem de tokens é essencial para que o usuário tome decisões informadas, como otimizar prompts ou finalizar sessões antes de atingir limites de performance (como o ‘Muro de Latência’ em ~350k tokens). Sem feedback em tempo real, essa capacidade é prejudicada.

  • Regressão de Usabilidade: A mudança de um comportamento dinâmico (que era mais informativo) para um estático até o final da resposta é percebida como uma regressão, diminuindo a eficiência da interação.

  • Configuração de Ambiente Confirmada: Este comportamento ocorre mesmo com limpeza de cache, navegador atualizado e estando logado na conta Google, descartando problemas do ambiente local do usuário.

Sugestão de Correção:
Sugiro restaurar o comportamento anterior da contagem de tokens, exibindo-a de forma dinâmica:

  • Exibir imediatamente a contagem de tokens do input após o envio do prompt.

  • Durante a geração da resposta, exibir um indicador de processamento e, idealmente, uma contagem progressiva dos tokens de output (se tecnicamente viável sem impactar a performance), ou pelo menos um status claro como ‘Gerando tokens…’.

  • Apresentar a contagem total final de forma clara ao término da resposta.

Impacto no Usuário:
Aumenta a incerteza e a dificuldade de gerenciamento do consumo de tokens. Usuários perdem a capacidade de monitorar proativamente os limites e custos, o que pode levar a um uso menos eficiente da plataforma e a uma percepção de falta de transparência e controle.

Obrigado(a) pela atenção a este feedback

Hi @Rene_Augusto_Negrao ,

Could you please clarify if this issues occur with all models or is it specific to one model? Also, Are you using any System Instructions or Tools (like Code Execution) during these sessions?

@Sonali_Kumari1

Olá bom dia. Então não é em específico, não uso código nenhum. Em qualquer navegador, com caches limpos ou não, com system instruction ou não. A partir do momento em que eu abro um pkayground, ele já começa a ser oculto nos primeiros dígitos.

Obs. Qualquer Modelo gemini 2.5, 3.0 todos os modelos.

Hi @Rene_Augusto_Negrao , To help us replicate the issue and find a fix, could you please share the exact steps to reproduce it along with the screenshot of any relevant output or logs?

1 Like

@SONALI_KUMARI1
Olá boa tarde, então como pedido, segue a captura de tela em 3 etapas


Esse prompt ainda vazio os tokens é visivel


Prompt cheio 1200 tokens os tokens ainda visiveis.

Durante a resposta da AI Studio os tokens não são visiveis só são visiveis após a leitura toda e a resposta.