A blind date simulator prompt using Chain of Thought for internal state tracking
Posted by Symbiocracy@reddit | LocalLLaMA | View on Reddit | 10 comments
Hi everyone, I built a Gemini Gem using a prompt to simulate a blind date scenario.
I intentionally designed the prompt to generate a very long output. The goal is to force the AI through a Chain of Thought (CoT) process—evaluating internal variables like social battery, defense mechanisms, and "mask fatigue"—before it actually formulates a response.
If you just want the immersive roleplay experience, you can ignore all the calculation blocks and simply scroll down to read the [Final Reply] at the very bottom.
I'm really curious to hear your thoughts on how the interaction feels!
(Note: I highly recommend using Gemini 3.1 Pro for the best results.)
Economy_Leopard112@reddit
This is crazy
Symbiocracy@reddit (OP)
Crazy good or crazy bad?
LagOps91@reddit
Might even be Crazy Crazy
Symbiocracy@reddit (OP)
I'd love to hear any constructive feedback. Honestly, even telling me to seek therapy is totally valid at this point
LagOps91@reddit
Hard to say without more context. Certainly run this by more people you know.
Symbiocracy@reddit (OP)
I deleted it because someone pointed out i post the run page, ill pm you the link if you want to try it
LagOps91@reddit
Not interested, sorry
ps5cfw@reddit
And this Is LOCAL llama, fuck off with your nonlocal content
SpringBeginning8897@reddit
la verdad no funciona debes aprender mucho mas sobre prompt engineer bro te deseo mucha suerte debes investigar mas sobre patrones de lenguaje humanos y humanizados para inteligencias artificiales y indicarle que los sentimientos no los muestre como expresiones escritas en textos eso es un imput que se debe mantener siempre guardado detras de todo tu sistema y el ouput debe salir solo texto natural
Symbiocracy@reddit (OP)
¡Gracias por tus comentarios y sugerencias! De hecho, lo que mencionas sobre 'mantener las emociones ocultas en el backend y emitir solo texto natural' es exactamente la intención de esta arquitectura.
Las descripciones emocionales y los cálculos numéricos que ves en el prompt son una 'Cadena de Pensamiento' (Chain of Thought - CoT) diseñada intencionalmente. Los LLMs necesitan procesar estos estados internos y la fatiga en su espacio de tokens primero para mantener la estabilidad del personaje en conversaciones largas.
En un entorno de aplicación real, todos los registros de cálculo antes del
[Final Reply]son interceptados y ocultados por el código. Por lo tanto, el usuario final nunca ve esto y solo recibe la respuesta puramente natural.Si tienes alguna sugerencia sobre cómo lograr que el LLM retenga este proceso de pensamiento y al mismo tiempo lo oculte (sin depender de un código externo que lo intercepte), ¡te agradecería mucho que la compartieras