Maximofn commited on
Commit
8819376
·
1 Parent(s): a2ee5b7

Añade un parámetro opcional `request` a la función `respond` en `app.py` para permitir la gestión de sesiones en Gradio. Esta modificación incluye la agrupación de todos los turnos de una misma sesión mediante el uso de `session_hash`, mejorando la organización de las interacciones y la trazabilidad de las respuestas del asistente.

Browse files
Files changed (1) hide show
  1. app.py +3 -1
app.py CHANGED
@@ -193,7 +193,7 @@ def _history_preview(history: list[tuple[str, str]] | None, max_turns: int = 3,
193
  return _preview_text(joined, max_chars)
194
 
195
 
196
- def respond(message, history: list[tuple[str, str]]):
197
  """Stream assistant reply via Gemini using OpenAI-compatible API.
198
 
199
  Yields partial text chunks so the UI shows a live stream.
@@ -248,6 +248,8 @@ def respond(message, history: list[tuple[str, str]]):
248
  "has_images": bool(image_parts),
249
  "history_preview": _history_preview(history),
250
  },
 
 
251
  )
252
  pipeline.post()
253
 
 
193
  return _preview_text(joined, max_chars)
194
 
195
 
196
+ def respond(message, history: list[tuple[str, str]], request: gr.Request | None = None):
197
  """Stream assistant reply via Gemini using OpenAI-compatible API.
198
 
199
  Yields partial text chunks so the UI shows a live stream.
 
248
  "has_images": bool(image_parts),
249
  "history_preview": _history_preview(history),
250
  },
251
+ # Agrupa todos los turns de una misma sesión de Gradio
252
+ thread_id=getattr(request, "session_hash", None) if request is not None else None,
253
  )
254
  pipeline.post()
255