Objetivo del cargo
Diseñar y liderar la estrategia de arquitectura de datos en AWS, definiendo soluciones escalables y costo-eficientes para data lakes, data warehouses y arquitecturas modernas de datos.
Establecer arquitecturas de referencia para ecosistemas de datos en la nube, incluyendo patrones de ingesta, procesamiento, almacenamiento y consumo de datos.
Asegurar que las arquitecturas propuestas se integren con los modelos de interoperabilidad definidos por Arquitectura Empresarial del Grupo, incluyendo desacoplamiento digital, reutilización de componentes y gestión centralizada.
Diseñar arquitecturas de data lake y lakehouse utilizando AWS S3, AWS Glue, Amazon Athena, Amazon EMR y AWS Lake Formation.
Implementar arquitecturas de data warehouse modernas con Amazon Redshift, incluyendo estrategias de particionamiento, distribución y optimización de queries.
Desarrollar diseño de pipelines de datos serverless utilizando AWS Lambda, Step Functions, Kinesis y EventBridge para procesamiento en tiempo real y batch.
Diseñar e implementar arquitecturas de streaming analytics con Amazon Kinesis, MSK (Managed Streaming for Apache Kafka) y Amazon OpenSearch.
Establecer marcos de MLOps utilizando Amazon SageMaker, MLflow y herramientas de CI/CD para modelos de machine learning.
Implementar estrategias de data governance utilizando AWS Glue Data Catalog, Lake Formation y herramientas como Collibra o Informatica en AWS.
Crear arquitecturas de BI y visualización integrando Amazon QuickSight con fuentes de datos empresariales.
Desarrollar estrategias de migración de datos usando AWS Database Migration Service (DMS) y AWS DataSync.
Implementar arquitecturas de CDC (Change Data Capture) para sincronización en tiempo real entre sistemas operacionales y analíticos.
Diseñar soluciones de data quality y data observability utilizando Great Expectations, Apache Airflow y herramientas de monitoreo custom.
Establecer arquitecturas de seguridad de datos con AWS IAM, KMS, Secrets Manager y VPC para protección de información sensible.
Crear documentación técnica, patrones de arquitectura y best practices para equipos de desarrollo y operaciones
EDUCACIÓN
INGENIERÍA en SISTEMAS o TECNOLOGÍAS DE LA INFORMACIÓN LICENCIATURA en INFORMÁTICA o AFÍN
MAESTRÍA/CERTIFICACIONES
Maestría en Datos o áreas de Ciencias de la Computación (Opcional) Maestría en Ciencias de la Computación (Opcional)
Arquitecto de soluciones certificado por AWS – Profesional
EXPERIENCIA
5+ años en arquitectura y ingeniería de datos con enfoque en soluciones cloud
5+ años de experiencia hands-on diseñando e implementando soluciones en AWS
5+ años liderando proyectos de migración a data lakes y modernización de plataformas de datos
Experiencia comprobable en arquitecturas para big data (TB/PB scale) y high-throughput systems
Track record en optimización de performance y reducción de costos en AWS (>30% savings)
CONOCIMIENTO
Arquitectura AWS: Servicios core de datos (S3, Glue, Athena, Redshift, EMR, Kinesis, Lambda, Step Functions)
Ingeniería de datos: Apache Spark, Apache Kafka, Apache Airflow, DBT.
Lenguajes de programación: Python, SQL, Scala, Java para procesamiento distribuido de datos
Infraestructura como código: Terraform, AWS CloudFormation, AWS CDK para automatización de infraestructura
Containerización: Docker, Kubernetes, Amazon EKS para workloads de datos containerizados
CI/CD: Jenkins, GitLab CI, AWS CodePipeline para automatización de despliegues Monitoreo y Observabilidad: CloudWatch, X-Ray, Grafana,
Prometheus para monitoreo de pipelines Metodologías ágiles: Scrum, DevOps, DataOps para gestión de proyectos de datos
Frameworks de arquitectura: TOGAF, Zachman Framework aplicados a arquitecturas de datos Gobierno de datos, implementación de data catalogs y lineage
Prestaciones superiores a las de la ley
Recuerda que al dar clic en POSTULARME deberás completar tus evaluaciones en tu página de candidato. La postulación estará completa una vez que termines todas las evaluaciones
Tu proceso de selección simple, inteligente y moderno
