Ir al contenido

¿Por qué local-first?

Este curso te enseña RAG corriendo 100% en tu máquina: Ollama para el LLM, Qdrant en Docker para los vectores, embeddings que bajás una vez y te quedan. Cero API keys, cero suscripciones, cero “se cayó el servicio”.

¿Por qué? Cinco razones, en orden de importancia:

Tus documentos no salen de tu máquina. Si estás indexando contracts, historias clínicas, código propietario o cualquier cosa con NDA, esto no es un detalle — es la diferencia entre poder hacer el experimento o no poder.

Sin API keys = sin facturación. Podés correr 10.000 queries para tunear chunk size sin que te rompan el bolsillo. Iterar rápido es la habilidad clave de un buen ingeniero de RAG, y la nube te castiga la iteración con la tarjeta.

Vos elegís qué modelo de embeddings, qué LLM, qué vector store, qué versión. Si Ollama saca una versión nueva y rompe algo, vos decidís cuándo upgradear. En la nube, te lo cambian sin avisar.

Cuando todas las piezas corren en tu máquina, ves dónde está cada una. Es educativo: el modelo de embeddings es un archivo descargable. El vector store es un proceso de Docker. El LLM es otro proceso. Los conectás vos.

En la nube, todo es “magia detrás de un endpoint”. Aprendés mucho menos.

No hay round-trip a un datacenter. Las queries son rápidas y reproducibles. Esto importa mucho cuando estás midiendo performance del retrieval o del prompt.

Acá viene la parte honesta — porque local-first no es local-forever.

Empezá local, validá local, prototipá local. Cuando el producto pide más, escalás piezas concretas — no todo a la vez.

El curso te da las bases para entender QUÉ migrar y POR QUÉ. Eso es lo que te salva en producción.

Última página del Nivel 0: ¿por qué TypeScript? Hay razones técnicas y razones de mercado, te las cuento.