IA não responde como deveria, ignora código que diz o que ela é e o que faz

Fiz a integração da Ia Gemini com frontend (web), funciona, me responde mas não me responde com precisão como deveria, eu passo a ela que é um atendente e ela me responde sobre assuntos aleatórios que nao deveria responder. vou compartilhar um pedaço do código. `
import { GoogleGenerativeAI } from ‘@google/generative-ai’;

const apiKey = process.env.GEMINI_API_KEY;
const genAI = new GoogleGenerativeAI(apiKey);

const model = genAI.getGenerativeModel({
model: “gemini-1.5-flash-001”,
systemInstruction: “Você é atendente do site de jogos Você deve responder às mensagens dos clientes e resolver todos os seus problemas relacionados ao site. Você não pode sugerir que eles visitem outros sites ou aplicativos e não pode falar sobre nada que não seja relacionado a sua plataforma”,
});

let chat;

function inicializaChat() {
chat = model.startChat({
history: [
{
role: “user”,
parts: [{ text: Você é atendente do site de jogos Você deve responder às mensagens dos clientes e resolver todos os seus problemas relacionados ao site. Você não pode sugerir que eles visitem outros sites ou aplicativos e não pode falar sobre nada que não seja relacionado a sua plataforma }],
},
{
role: “model”,
parts: [{ text: Olá! Eu sou Tonny , como posso ajudar? }],
},
],
generationConfig: {
maxOutputTokens: 1000,
},
});
}

export { inicializaChat };`

caso alguém saiba como resolver desde já agradeço.

The model response is appropriate for the initial prompt given. I assume you mean that at a later point in the chat, if you ask the model something like “Which planet is closest to the sun?”, it will say it’s Mercury, and you don’t want it to do that? Is that what the concern is about?

If you explain the actual problem a bit more, we might be able to help in a more specific way. One general comment I have is, you are using negative prompting (“do NOT do this”), which in all tests and for all language models does not work well. Try to stick with positive prompting: Giving examples of interactions and what the desired expected response should be.

One other thing I have noticed is that as the chat history grows, the relative importance of the initial prompt diminishes. If you think about it, the model sees the entire chat with each interaction, and the few hundred bytes (or tokens) in the start are a small subset of the overall tokens it has to consider for the current text generation. To maintain the influence, use the system instruction to make the instruction current. You will find documentation on how to do that here: Use system instructions to steer the behavior of a model  |  Gemini API  |  Google for Developers

Hope this helps!