Olá a todos,
Gostaria de reportar um bug de usabilidade no sistema de feedback que impede a coleta do que acredito ser o tipo mais valioso de dados de treinamento.
O Problema: Controles de Feedback Desaparecem Após a Edição
O fluxo de trabalho ideal para um usuário que quer ajudar a refinar o modelo é:
-
Receber uma resposta da IA.
-
Identificar uma pequena imprecisão ou uma forma de melhorá-la.
-
Usar a função “Editar” (lápis) para corrigir a resposta.
-
Dar um “joinha positivo” na sua própria versão corrigida , enviando ao Google o par de dados “original vs. melhorado”.
No entanto, a interface impede ativamente este fluxo. Assim que uma resposta é editada, os ícones de feedback (“joinha” positivo e negativo) desaparecem permanentemente daquele bloco de resposta, tornando impossível avaliar a versão corrigida.
Por que este é um problema crítico?
-
Quebra do Fluxo de Feedback: Impede que os usuários mais engajados forneçam o feedback mais rico e detalhado possível.
-
Perda de Dados de Treinamento: A plataforma está efetivamente se recusando a coletar “respostas de ouro” corrigidas pelos usuários, que são os exemplos perfeitos para o ajuste fino (fine-tuning) do modelo.
Sugestão de Melhoria:
A solução é simples: os ícones de feedback deveriam permanecer visíveis e funcionais mesmo após uma resposta ser editada, permitindo que o usuário valide sua própria correção.
Corrigir isso não apenas melhoraria a experiência do usuário “treinador”, mas também melhoraria drasticamente a qualidade dos dados de feedback que o Google coleta.
Obrigado.