AWS Cloud Engineer / DevOps Engineer (Python + Serverless) en Nublit | Torre

AWS Cloud Engineer / DevOps Engineer (Python + Serverless)

Transformarás la infraestructura cloud y datos con Python y AWS, impulsando soluciones de IA innovadoras.
Emma destaca
La IA de Emma escribió esto. Habla con Emma para editarlo.
Freelance
Recurrente
Compensación USD40/hora
Negociable
location_on
Remoto (cualquier lugar)
skeleton-gauges
Excluiste los match de trabajo con .
Para deshacerlo, ve a la sección ‘Tus habilidades e intereses’ de tus preferencias.
Revisar preferencias
Publicado hace 3 meses

Requisitos y responsabilidades


Nombre del Perfil AWS Cloud Engineer / DevOps Engineer (Python + Serverless) Solutions Engineer (AWS + Containers + Python) Responsabilidades Edge (PC con GPU + Docker + cámaras) * Mantener y evolucionar el stack Docker (compose, redes, volúmenes, logging). * Actualizar módulos Python dentro de contenedores (refactor, performance, packaging). * Observabilidad y operación: logs estructurados, métricas, healthchecks, rotación de logs, monitoreo básico del host. * Buenas prácticas de despliegue: versionado de imágenes, rollback, tags, registry (ECR idealmente). * Manejo de dependencias de AI (clientes OpenAI/Bedrock), control de tokens/costos, reintentos. AWS Backend (serverless + datos) * Evolucionar Lambdas (Python): calidad, tests, layers, IAM mínimo necesario. * Operar y mantener S3 y DynamoDB: diseño de claves/índices (GSI), TTL, costos, particionado/estructura de prefijos S3, lifecycle policies, encriptación, versioning cuando aplique. * Integraciones típicas del pipeline: SQS, EventBridge, API Gateway, Step Functions (según arquitectura). Infraestructura como código (IaC) * Convertir la infraestructura actual a IaC con AWS SAM o SAM + CloudFormation: templates por ambiente (dev/test/prod), parámetros, outputs, stack splitting. * CI/CD: build/test/deploy (pipeline), promoción por entornos. * Gobernanza: manejo de secrets (SSM/Secrets Manager), roles por ambiente, naming, tagging, budgets/alarms. Explotación de datos / BI (QuickSight) * Preparar datos para consumo: datasets desde S3 (Athena/Glue) o export desde DynamoDB, catálogo/particiones. * Modelado simple para BI: dataset “evento”, “cámara”, “alerta”, “resultado AI”. * Construcción inicial de tableros: KPIs operativos (eventos por zona, alertas, falsos positivos, latencia, etc.). Skills técnicos indispensables * AWS Core: IAM (políticas, roles, trust relationships), S3 (policies, lifecycle, encryption, event notifications), DynamoDB (diseño de tabla, GSI, capacity/costos, paginación, TTL), Lambda (Python, layers, timeouts, memory, concurrency), CloudWatch (logs, métricas, alarms). * Python / Ingeniería: Python “producción” (typing básico, estructura de proyecto, tests con pytest, linters), Boto3 sólido, manejo de retries/backoff, idempotencia y manejo de errores. * Containers / Linux: Docker, docker-compose, debug de contenedores, redes, volúmenes, performance, Linux básico (systemd opcional, storage, permisos). * IaC / Deploy: AWS SAM (template.yaml, sam build/deploy, parámetros por env), CI/CD (GitHub Actions, GitLab CI, Jenkins). Skills deseables * Video / Edge: Familiaridad con NVR, cámaras, streams (RTSP, FPS, snapshots), optimización de pipelines de imágenes (batching, throttling). * Data / QuickSight: Athena/Glue (particiones, crawlers, schema evolution), QuickSight (datasets, SPICE, permisos, dashboards), buen criterio de modelado para analítica. * AI Ops: Integración con OpenAI/Bedrock, control de costo y latencia, observabilidad de prompts/respuestas (trazabilidad por request-id).
Opcionalmente, puedes añadir más información después (beneficios comunes, preguntas de pre-selección, etc.)
check_circle

Pago confirmado

Un miembro del equipo de Torre se pondrá en contacto contigo en breve

Mientras tanto, continúa agregando información a tu trabajo.