Local Deep Research
Asistente de investigacion impulsado por IA. Busca en mas de 10 fuentes (arXiv, PubMed, web y documentos privados) y genera informes completos con citas. Compatible con LLM locales (Ollama) y proveedores en la nube (OpenAI, Anthropic, Google).
Primer inicio
- Abre tu dominio — la Web UI carga en la URL raiz
- Configura tu LLM — selecciona tu proveedor de modelo preferido en la configuracion
- Inicia una consulta de investigacion — escribe una pregunta y deja que el asistente busque, analice y compile un informe
- Revisa el informe — los resultados incluyen citas, enlaces de fuentes y puntuaciones de confianza
Datos persistentes
Los datos de investigacion y la configuracion se almacenan en /data (respaldado por un volumen de Zeabur).
Licencia
MIT — GitHub