Alfred procesa tus documentos personales con inteligencia artificial directamente en tu computadora. Sin enviar datos a la nube. Sin suscripciones. Sin comprometer tu privacidad.
v0.3.0 • Requiere Windows 10 o superior
Todo lo que necesitas en un asistente con IA, sin comprometer tu privacidad
Usa modelos GGUF directamente con llama.cpp. Sin Ollama, sin Python, sin dependencias externas. Todo corre en tu máquina.
Encriptación AES-256-GCM para tus datos. Nunca enviamos información a servidores externos. Tu privacidad es nuestra prioridad.
Extrae y consulta el contenido de tus archivos PDF con PDFium. Adjunta documentos directamente en la conversación.
Soporte nativo NVIDIA CUDA (Turing, Ampere, Ada) con llama.cpp. Inferencia rápida sin capas intermedias ni configuración adicional.
Chat con efectos visuales, renderizado Markdown completo, tablas profesionales y gestión de conversaciones.
Procesa PDF, Word, Excel, texto plano y más. Gestiona grandes colecciones de documentos sin esfuerzo.
A diferencia de otros asistentes con IA, Alfred no requiere conexión a internet para funcionar. Todo se procesa localmente en tu dispositivo.
Nota: Alfred no requiere Ollama ni Python. Solo necesitas un modelo en formato GGUF descargado desde HuggingFace. Una vez configurada la ruta del modelo en la app, todo funciona offline.
Instalación simple en minutos. Sin registro ni suscripciones.
Si tienes una GPU NVIDIA (RTX 20xx o superior), descarga la versión GPU para inferencia acelerada con CUDA. Si no tienes GPU NVIDIA o no estás seguro, descarga la versión CPU — funciona en cualquier PC con Windows.
v0.3.0 • NVIDIA RTX 20xx+ • Windows 10+
v0.3.0 • Sin GPU requerida • Windows 10+
Obtén un modelo compatible desde HuggingFace (ej. Llama 3, Mistral, Phi)
Abre Alfred-Setup.exe y sigue el asistente de instalación
En Configuración, indica la ruta a tu archivo .gguf
El modelo carga de forma lazy al primer mensaje. Todo offline.
Sí, Alfred es completamente gratis y de código abierto bajo Apache License 2.0. No hay costos ocultos, suscripciones ni límites de uso.
Solo para descargar el modelo GGUF desde HuggingFace antes del primer uso. Una vez que tienes el archivo, Alfred funciona completamente offline.
100% privado. Todo se procesa localmente. No hay telemetría, no hay servidores externos, no se envían datos a ningún lugar.
Sí, si tienes una GPU NVIDIA (Turing RTX 20xx o superior), descarga la versión GPU. Alfred usa CUDA nativo para acelerar la inferencia significativamente.
Actualmente Alfred soporta extracción de texto desde archivos PDF (via PDFium). El soporte de otros formatos está en desarrollo.
De momento solo para Windows. Las versiones para macOS y Linux están en desarrollo.