Ollama
llm-local tool
Corre LLMs localmente de forma sencilla
Conceptos clave
modelsmodelfileapi
Ventajas y Desventajas
Ventajas
- + Muy fácil de usar
- + Muchos modelos disponibles
- + API compatible con OpenAI
- + Privacy (local)
Desventajas
- - Requiere hardware potente
- - Modelos grandes consumen RAM
- - Más lento que cloud APIs
Casos de Uso
- Desarrollo local de LLM apps
- Privacy-sensitive apps
- Experimentación