📄 STACK TECNOLÓGICO OFICIAL v3.0¶
Ecosistema IA BKM¶
Este documento tiene dos bloques con propósitos distintos.
Bloque I — Referencia de herramientas: qué hay disponible, dónde vive y para qué sirve. Consulta rápida para cualquier persona del equipo.
Bloque II — Principios y procesos: cómo se gobierna el stack y cómo evoluciona. Para quien toma decisiones arquitectónicas.
BLOQUE I — REFERENCIA DE HERRAMIENTAS¶
Mapa del ecosistema¶
El ecosistema IA BKM se organiza en cuatro capas:
| Capa | Para qué sirve |
|---|---|
| 🏢 Sistemas Core (CRM y ERP) | Fuente de verdad del negocio. Punto de integración clave. |
| 🟢 Core IA | Sistemas estratégicos de alto impacto. Máxima gobernanza. |
| 🟡 Operativa Ligera | Automatizaciones y asistentes de bajo impacto. Agilidad. |
| 🔵 Laboratorio | Experimentación y validación. Sin impacto en producción. |
🏢 Sistemas Core del Negocio¶
CRM¶
Gestión del embudo comercial, registro de actividad, seguimiento de oportunidades y métricas de conversión. Antes de desarrollar un agente propio, evaluar si el CRM ya ofrece la funcionalidad de forma adecuada.
ERP¶
Gestión financiera, facturación, producción, costes, logística e información post-venta. Si el ERP ofrece capacidades IA adecuadas, se prioriza su uso antes de desarrollar soluciones externas.
📁 Google Drive¶
Entorno operativo del ecosistema. Repositorio de registros vivos: fichas de sistema, tarjetas de valor completadas, plantillas de arquitectura aprobadas y seguimiento de proyectos.
No es la biblioteca estructural del Core IA — eso es GCS. Es el espacio de trabajo colaborativo donde viven los documentos que las personas crean y consultan en su día a día. Cualquier registro operativo del ecosistema vive en Drive, no en el repositorio.
🟢 Core IA — Infraestructura Estratégica¶
Sistemas que impactan decisiones técnicas o comerciales, usan conocimiento oficial, pueden afectar reputación o cultura, o deben escalar estructuralmente.
GCP es la infraestructura de referencia. No significa exclusividad: si una herramienta externa aporta valor justificado puede incorporarse. Ver proceso en Bloque II.
☁️ Google Cloud Platform (GCP)¶
Infraestructura de referencia. Aporta seguridad, IAM unificado, control de accesos, escalabilidad, entornos aislados y logging centralizado.
📊 BigQuery¶
Base de datos estructurada. Registro de interacciones, métricas, análisis, reporting y soporte a sistemas RAG estructurados.
📂 Google Cloud Storage (GCS)¶
Biblioteca documental estructurada. Manuales técnicos, documentación validada, base de conocimiento oficial y fuente primaria para sistemas conversacionales estratégicos. Drive es entorno operativo. GCS es biblioteca estructural del Core IA.
🏛 Gemini Enterprise¶
Capa conversacional gestionada para asistentes estratégicos internos: asistente comercial, mentor técnico, copilots culturales. Integración nativa con GCP, BigQuery y Drive. No sustituye backend programático ni reemplaza APIs propias.
🧠 Vertex AI¶
Plataforma MLOps de referencia. Agnóstica de modelo: acceso a Gemini, Claude, Llama, Mistral y otros desde una única interfaz sin cambio de infraestructura.
Uso: LLM vía API, integración con BigQuery y GCS, automatización avanzada, backend conversacional propio, sistemas con lógica de ejecución.
📚 LlamaIndex¶
Framework de gestión de conocimiento para sistemas RAG en Core IA.
Uso: indexación semántica de bases documentales, recuperación estructurada con trazabilidad precisa hasta el documento origen, lógica de recuperación bajo control propio, desplegado sobre GCP.
Para validar sistemas documentales antes de llegar a Core IA, usar SuperChat o Flowise en Operativa Ligera o Laboratorio.
🐍 Python¶
Lenguaje estándar del ecosistema IA.
⚡ FastAPI¶
Framework de referencia para APIs privadas IA.
🚀 Cloud Run¶
Entorno serverless de referencia para despliegue controlado.
🟡 Operativa Ligera — Infraestructura Ágil¶
Automatizaciones simples, MVPs no críticos, integraciones auxiliares y asistentes departamentales de bajo impacto. Vive fuera de GCP, en servidor propio (VPS).
Migración obligatoria a Core IA si aumenta la criticidad.
🖥 VPS (Servidor Virtual Privado)¶
Entorno de despliegue de la capa operativa ligera. Permitido: n8n, Flowise, microservicios auxiliares, automatización ligera, asistentes LLM gestionados. No permitido: sistemas estratégicos, gestión de conocimiento oficial, procesos críticos sin gobernanza.
🔄 Herramientas de automatización y orquestación (n8n, Flowise)¶
Automatización operativa y prototipado rápido de flujos conversacionales. No sustituyen backend estratégico ni arquitectura productiva de Core IA.
💬 Asistentes LLM Gestionados¶
Plataformas conversacionales con LLMs de terceros: SuperChat, ChatGPT Teams, Claude.ai, Gemini Workspace u equivalentes. Permiten desplegar asistentes funcionales en días, sin desarrollo técnico. La dependencia lógica sobre la plataforma es un trade-off consciente a cambio de velocidad.
Condiciones de uso: - Uso interno restringido al departamento autorizado. No atienden clientes. - Sin datos sensibles: financieros, de clientes, contratos o información con implicaciones legales. - Base de conocimiento limitada y razonablemente estable. - Sin integración con sistemas core (CRM, ERP, BigQuery). - Propietario identificado y ruta de migración consciente al Core IA si escala.
No se define lista cerrada de plataformas: cualquiera que cumpla las condiciones es válida. En caso de duda, consultar al Responsable IA.
🔵 Laboratorio — Infraestructura Experimental¶
Evaluación de herramientas, investigación, testing de frameworks y MVPs de validación antes de decidir capa definitiva. Sin impacto en producción.
Si aporta valor demostrado → migra a Core IA u Operativa siguiendo el proceso de incorporación.
Frameworks evaluables: LangChain, LangGraph, CrewAI, y otros. Solo si la complejidad lo justifica y superan el proceso de incorporación.
BLOQUE II — PRINCIPIOS Y PROCESOS¶
1. Principios del stack¶
- Privacidad y control de datos.
- Integración con los sistemas core del negocio.
- Separación clara entre núcleo estratégico y capas operativas.
- Prioridad a funcionalidades nativas antes de construir soluciones propias.
- Construir solo cuando no exista solución integrada válida.
- Modularidad y escalabilidad progresiva.
- Evitar silos tecnológicos.
- GCP como infraestructura de referencia del Core IA, con apertura controlada a herramientas externas.
- Toda herramienta nueva requiere evaluación antes de incorporarse.
El stack no es un dogma. Es una referencia. Su objetivo es garantizar coherencia, no limitar el valor.
2. Prioridad de construcción¶
Antes de iniciar cualquier desarrollo, aplicar estas preguntas en orden:
- ¿CRM o ERP ya lo resuelven?
- ¿Puede resolverse con un asistente conversacional gestionado sin desarrollo propio?
- ¿Puede resolverse con operativa ligera (automatización o asistente LLM)?
- ¿Requiere backend programático propio en Core IA?
3. Proceso de incorporación de herramientas externas¶
Cualquier herramienta fuera del stack de referencia debe superar una evaluación antes de incorporarse al Core IA.
En Operativa Ligera y Laboratorio la fricción es menor, pero el propietario debe estar identificado.
Preguntas de evaluación para el Core IA:
- ¿Qué problema resuelve que no resuelve el stack actual?
- ¿Por qué es mejor que la alternativa dentro del stack de referencia?
- ¿Qué coste tiene en integración, mantenimiento y gobernanza?
- ¿La lógica de negocio permanece portable?
Si el valor justifica el coste → se incorpora. Si no lo justifica → no se incorpora. Se registra la evaluación y el motivo.
Toda incorporación al Core IA requiere aprobación del Responsable IA. Si tiene impacto transversal o a largo plazo, se registra como ADR en el Log de Decisiones.
4. Principio de Portabilidad Mínima¶
La lógica de negocio debe estar separada de la infraestructura y la plataforma de proveedor.
Lo que debe ser portable: Prompts, lógica de agentes, base de conocimiento documental, reglas de negocio y criterios de evaluación. Deben poder extraerse y desplegarse en otro entorno sin reescribirse.
Lo que puede estar acoplado a la infraestructura: Cómputo, almacenamiento, gestión de identidades y acceso a modelos LLM.
Lo que se debe evitar: Distribuir lógica de negocio dentro de configuraciones propietarias de forma que no sea extraíble si el stack evoluciona.
Este principio aplica a todos los sistemas del ecosistema, independientemente del proveedor. La verificación es simple:
"¿Podría extraerse la lógica de negocio y desplegarse en otro entorno en un plazo razonable?"
Si la respuesta es no, el diseño debe revisarse antes de construir.
Referencia: Log 2026_03 — GCP como infraestructura de referencia con apertura controlada.
Estado: Activo Versión: 3.0 — Marzo 2026 Responsable: Responsable IA BKM