Este es un puesto de trabajo remoto.
Buscamos un Senior Generative AI Software Engineer para diseñar implementar y escalar soluciones basadas en LLMs RAG y agentes inteligentes en entornos productivos. Este rol será clave en la definición de arquitecturas desarrollo de sistemas robustos y optimización continua trabajando directamente con clientes para transformar necesidades de negocio en soluciones GenAI de alto impacto.
Requisitos
- 3 años de experiencia práctica en GenAI/LLMs en producción (RAG agentes NLP).
- Dominio de Python y frameworks como LangChain LlamaIndex o similares.
- Experiencia sólida en:
- Sistemas RAG (embeddings vector DBs como Pinecone Weaviate pgvector).
- Prompt engineering avanzado y diseño de guardrails.
- Integración con APIs de LLMs (OpenAI Anthropic Google etc.).
- Conocimientos en arquitectura de software (APIs microservicios CI/CD).
- Experiencia en despliegue cloud (AWS GCP o Azure).
- Manejo de datos estructurados y no estructurados (ETL procesamiento de documentos).
- Experiencia en evaluación de modelos (precision/recall métricas NLP).
- Conocimientos en seguridad en sistemas AI (PII control de acceso protección ante ataques).
- Inglés avanzado.
Deseables
- Experiencia con agentes multi-agente (AutoGen CrewAI LangGraph).
- Uso de modelos open-source y despliegues self-hosted.
- Técnicas avanzadas de RAG (HyDE multi-query re-ranking).
- Experiencia en MLOps (Docker Kubernetes Terraform).
- Herramientas de observabilidad GenAI (LangSmith LangFuse W&B).
- Fine-tuning (LoRA/QLoRA) o multimodalidad.
Responsabilidades
- Diseñar arquitecturas end-to-end para soluciones GenAI (RAG agentes generación de contenido).
- Implementar pipelines RAG completos: ingestión chunking embeddings vector stores y retrieval optimizado.
- Desarrollar y optimizar prompts avanzados (few-shot CoT ReAct) con mecanismos de control de alucinaciones.
- Integrar LLMs (OpenAI Claude Gemini Llama etc.) en aplicaciones productivas.
- Construir agentes autónomos con capacidad de razonamiento y uso de herramientas (APIs DBs).
- Implementar frameworks de evaluación (métricas de retrieval y generación evaluación humana).
- Desplegar soluciones en cloud (AWS GCP o Azure) asegurando escalabilidad latencia y costo óptimo.
- Monitorear sistemas en producción (calidad performance costos UX).
- Aplicar buenas prácticas de seguridad privacidad y compliance (PII prompt injection).
- Colaborar con stakeholders técnicos y de negocio para definir soluciones y métricas de éxito.
Required Skills:
Requisitos 3 años de experiencia práctica en GenAI/LLMs en producción (RAG agentes NLP). Dominio de Python y frameworks como LangChain LlamaIndex o similares. Experiencia sólida en: Sistemas RAG (embeddings vector DBs como Pinecone Weaviate pgvector). Prompt engineering avanzado y diseño de guardrails. Integración con APIs de LLMs (OpenAI Anthropic Google etc.). Conocimientos en arquitectura de software (APIs microservicios CI/CD). Experiencia en despliegue cloud (AWS GCP o Azure). Manejo de datos estructurados y no estructurados (ETL procesamiento de documentos). Experiencia en evaluación de modelos (precision/recall métricas NLP). Conocimientos en seguridad en sistemas AI (PII control de acceso protección ante ataques). Inglés avanzado. Deseables Experiencia con agentes multi-agente (AutoGen CrewAI LangGraph). Uso de modelos open-source y despliegues self-hosted. Técnicas avanzadas de RAG (HyDE multi-query re-ranking). Experiencia en MLOps (Docker Kubernetes Terraform). Herramientas de observabilidad GenAI (LangSmith LangFuse W&B). Fine-tuning (LoRA/QLoRA) o multimodalidad.
Este es un puesto de trabajo remoto. Buscamos un Senior Generative AI Software Engineer para diseñar implementar y escalar soluciones basadas en LLMs RAG y agentes inteligentes en entornos productivos. Este rol será clave en la definición de arquitecturas desarrollo de sistemas robustos y optimi...
Este es un puesto de trabajo remoto.
Buscamos un Senior Generative AI Software Engineer para diseñar implementar y escalar soluciones basadas en LLMs RAG y agentes inteligentes en entornos productivos. Este rol será clave en la definición de arquitecturas desarrollo de sistemas robustos y optimización continua trabajando directamente con clientes para transformar necesidades de negocio en soluciones GenAI de alto impacto.
Requisitos
- 3 años de experiencia práctica en GenAI/LLMs en producción (RAG agentes NLP).
- Dominio de Python y frameworks como LangChain LlamaIndex o similares.
- Experiencia sólida en:
- Sistemas RAG (embeddings vector DBs como Pinecone Weaviate pgvector).
- Prompt engineering avanzado y diseño de guardrails.
- Integración con APIs de LLMs (OpenAI Anthropic Google etc.).
- Conocimientos en arquitectura de software (APIs microservicios CI/CD).
- Experiencia en despliegue cloud (AWS GCP o Azure).
- Manejo de datos estructurados y no estructurados (ETL procesamiento de documentos).
- Experiencia en evaluación de modelos (precision/recall métricas NLP).
- Conocimientos en seguridad en sistemas AI (PII control de acceso protección ante ataques).
- Inglés avanzado.
Deseables
- Experiencia con agentes multi-agente (AutoGen CrewAI LangGraph).
- Uso de modelos open-source y despliegues self-hosted.
- Técnicas avanzadas de RAG (HyDE multi-query re-ranking).
- Experiencia en MLOps (Docker Kubernetes Terraform).
- Herramientas de observabilidad GenAI (LangSmith LangFuse W&B).
- Fine-tuning (LoRA/QLoRA) o multimodalidad.
Responsabilidades
- Diseñar arquitecturas end-to-end para soluciones GenAI (RAG agentes generación de contenido).
- Implementar pipelines RAG completos: ingestión chunking embeddings vector stores y retrieval optimizado.
- Desarrollar y optimizar prompts avanzados (few-shot CoT ReAct) con mecanismos de control de alucinaciones.
- Integrar LLMs (OpenAI Claude Gemini Llama etc.) en aplicaciones productivas.
- Construir agentes autónomos con capacidad de razonamiento y uso de herramientas (APIs DBs).
- Implementar frameworks de evaluación (métricas de retrieval y generación evaluación humana).
- Desplegar soluciones en cloud (AWS GCP o Azure) asegurando escalabilidad latencia y costo óptimo.
- Monitorear sistemas en producción (calidad performance costos UX).
- Aplicar buenas prácticas de seguridad privacidad y compliance (PII prompt injection).
- Colaborar con stakeholders técnicos y de negocio para definir soluciones y métricas de éxito.
Required Skills:
Requisitos 3 años de experiencia práctica en GenAI/LLMs en producción (RAG agentes NLP). Dominio de Python y frameworks como LangChain LlamaIndex o similares. Experiencia sólida en: Sistemas RAG (embeddings vector DBs como Pinecone Weaviate pgvector). Prompt engineering avanzado y diseño de guardrails. Integración con APIs de LLMs (OpenAI Anthropic Google etc.). Conocimientos en arquitectura de software (APIs microservicios CI/CD). Experiencia en despliegue cloud (AWS GCP o Azure). Manejo de datos estructurados y no estructurados (ETL procesamiento de documentos). Experiencia en evaluación de modelos (precision/recall métricas NLP). Conocimientos en seguridad en sistemas AI (PII control de acceso protección ante ataques). Inglés avanzado. Deseables Experiencia con agentes multi-agente (AutoGen CrewAI LangGraph). Uso de modelos open-source y despliegues self-hosted. Técnicas avanzadas de RAG (HyDE multi-query re-ranking). Experiencia en MLOps (Docker Kubernetes Terraform). Herramientas de observabilidad GenAI (LangSmith LangFuse W&B). Fine-tuning (LoRA/QLoRA) o multimodalidad.
View more
View less