¿Estás buscando desafíos y un lugar donde puedas encontrar un ambiente de trabajo cercano mientras aprendes constantemente?
Somos una empresa con un propósito claro: "TRANSFORMAR la vida de las personas siendo el aliado TECNOLÓGICO más confiable". ¡Prepárate y sé parte de esta aventura!
¿Qué encontrarás?
Retos técnicos y personales
Un equipo conectado con el crecimiento.
Un equipo donde tu bienestar físico y mental es importante.
Una cultura de mejora continua, fresca y colaborativa donde puedes encontrar una oportunidad y personas dispuestas a apoyarte.
Nuestro programa Kaizen Hub donde puedes crecer y desarrollar tus talentos donde será todo un reto y un juego, acompañado de feedback constante por tus líderes, mentorías y coaching por parte de Sofka U ¡Saca tu mejor potencial!
Programas dirigidos a potencializar tus competencias, viviendo diariamente la mejora continua y promoviendo tu bienestar físico y emocional. Se llaman Happy Kaizen y We Sofka, en donde contarás con diferentes beneficios que irás adquiriendo en el tiempo cómo pólizas de salud para ti, tu familia y mascotas, ahorro con propósito, gimnasio y más.
¿Qué buscamos?
Arquitecto de Datos Semi Senior con un sólido conocimiento en arquitecturas Big Data y experiencia en la integración de Databricks con AWS. Con habilidades avanzadas en la orquestación de pipelines de datos, así como en el procesamiento de grandes volúmenes de datos a través de arquitecturas Batch y Lambda. Este rol es clave para asegurar que nuestras soluciones de datos sean robustas, eficientes y estén alineadas con las mejores prácticas del sector. Responsabilidades:
Diseñar e implementar arquitecturas de datos escalables y eficientes en entornos de producción.
Integrar Databricks con AWS para la orquestación y gestión de pipelines de datos.
Optimizar queries y gestionar bases de datos distribuidas en entornos SQL y No SQL.
Implementar sistemas de almacenamiento distribuido (S3, Redshift, Delta Lake) y garantizar su rendimiento.
Desarrollar soluciones de procesamiento en tiempo real utilizando Apache Kafka y Flink.
Automatizar procesos ETL en Databricks y gestionar flujos de trabajo utilizando servicios de AWS como Glue, Lambda y Step Functions.
Colaborar con otros equipos técnicos para garantizar la calidad y eficiencia de los datos.
Conocimientos técnicos requeridos:
Arquitectura Big Data y integración de Databricks con AWS.
Gestión de bases de datos SQL y No SQL en entornos de producción.
Procesamiento distribuido y almacenamiento (S3, Redshift, Delta Lake).
Manejo de Apache Kafka y Flink para soluciones de streaming.
Automatización de procesos ETL en Databricks.
¡PRESENTATE!
Condiciones
Contrato a término indefinido, nos encantan las relaciones a largo plazo por lo que queremos que formes parte de esta familia por mucho tiempo.
Puedes estar ubicado en cualquier lugar del mundo, ¡nos gusta que trabajes de forma remota! Pero si te encuentras en Medellín y Bogotá queremos que dos días al mes trabajes desde casa Sofka, buscando generar SINERGÍAS y FORTALECER lazos con tu equipo de trabajo, además que compartas un rico almuerzo... ¿Y por qué no? una bebida para refrescarte. Adicional si quieres ir mas días a la oficina tendrás tu almuerzo reservado para ese día.
¿Buscas crecimiento profesional? Puedes diseñar tu plan carrera acorde a lo que buscas y te quieres proyectar.