Factory . Desarrollar y optimizar procesos de datos en Azure Databricks . Mantener y mejorar pipelines existentes... de Azure Databricks , Databricks SQL , Python y PySpark . Experiencia trabajando con grandes volúmenes de datos. Inglés nivel...
Desde Kinetic Talent, estamos en b squeda de Data Analyst (SQL Server Databricks) para sumarse a empresa cliente rubro...
Factory. Desarrollar y optimizar procesos de datos en Azure Databricks. Mantener y mejorar pipelines existentes, asegurando.... Experiencia práctica diseñando pipelines con Azure Data Factory y Azure Synapse. Dominio de Azure Databricks, Databricks SQL...
Factory . Desarrollar y optimizar procesos de datos en Azure Databricks . Mantener y mejorar pipelines existentes... de Azure Databricks , Databricks SQL , Python y PySpark . Experiencia trabajando con grandes volúmenes de datos. Inglés nivel...
con Databricks y servicios en la nube. Se requiere experiencia en desarrollo de APIs con Python y FastAPI, asĂ como en despliegue...
Lugar:
Argentina | 02/02/2026 18:02:04 PM | Salario: S/. No Especificado | Empresa:
PwC. El candidato adecuado tendrá experiencia en Azure, incluidos Databricks, Data Factory y Data Lake, junto con habilidades en SQL...
Factory. Desarrollar y optimizar procesos de datos en Azure Databricks. Mantener y mejorar pipelines existentes, asegurando.... Experiencia práctica diseñando pipelines con Azure Data Factory y Azure Synapse. Dominio de Azure Databricks, Databricks SQL...
Desde Kinetic Talent, estamos en busqueda de Data Analyst (SQL Server & Databricks) para sumarse a empresa cliente...
Factory . Desarrollar y optimizar procesos de datos en Azure Databricks . Mantener y mejorar pipelines existentes... de Azure Databricks , Databricks SQL , Python y PySpark . Experiencia trabajando con grandes volúmenes de datos. Inglés nivel...
Factory . - Desarrollar y optimizar procesos de datos en Azure Databricks . - Mantener y mejorar pipelines existentes... . - Dominio de Azure Databricks , Databricks SQL , Python y PySpark . - Experiencia trabajando con grandes volĂşmenes de datos...