数据工程师

SGV & Co.

面议
远程工作1-3年经验专科全职
分享

远程工作详情

工作开放国家菲律宾

语言要求英语

此远程作业对特定国家的候选人开放。请确认您是否想要继续,尽管有可能的位置限制

职位描述

显示原文

职位描述

角色概述:

数据工程师负责设计、开发和维护可扩展的数据管道和基础设施,重点利用Databricks和数据湖技术。该角色与数据科学家、分析师和业务团队合作,确保数据在分析中的高效处理、存储和可访问性。数据工程师将在将原始数据转变为有价值的结构化格式以及优化数据工作流程以支持整个组织的数据驱动决策方面发挥关键作用。


主要职责:

设计、实现和管理可扩展的数据管道,以便在使用Databricks和数据湖技术进行提取、处理和存储。

与数据科学家、分析师和业务利益相关者合作,以理解数据需求并确保解决方案满足分析需求。

将多个数据源(例如,数据库、API、云存储)整合到中央存储库(如数据湖)中,确保数据可以轻松访问并针对性能进行优化。

使用Databricks和其他大数据工具开发和自动化ETL(提取、转换、加载)流程。

架构和优化数据湖基础设施,以便为结构化和非结构化数据存储和处理。

应用数据验证、转换和清理流程,以确保所有管道中的数据一致且高质量。

自动化数据工作流程,以保证无缝数据处理和快速访问分析和机器学习。

使用AWS、Google Cloud和Azure等云平台构建可扩展的云数据解决方案。

确保遵循数据隐私、安全和数据处理及处理的法律法规标准。

故障排除、监控和优化数据管道,以确保高可用性、性能和错误解决方案。

记录数据管道的架构、最佳实践和流程,以促进知识共享和跨团队的合作。


核心能力:

Databricks专业知识:具有使用Databricks构建数据管道、优化处理性能和使用Spark进行大规模数据处理的扎实经验。

数据湖知识:对数据湖架构及管理结构化和非结构化数据的最佳实践有很强的理解。

编程技能:熟练使用Python、Java或Scala构建和自动化数据工作流。

云平台经验:熟练使用云平台(AWS、Azure、Google Cloud)。

ETL自动化:在使用像Apache Airflow和Databricks工作流的平台中自动化ETL流程方面具有专业知识。

数据集成:能够将多个源的数据整合并简化为一个统一的分析管道。

人事管理技能:有效领导、激励和发展团队的能力。包括设定明确的目标、提供建设性反馈、解决冲突并营造积极的工作环境。

协作技能:强大的团队合作精神,能够向技术和非技术利益相关者传达复杂的技术概念。


所需技能:

作为数据工程师的经验,特别是在Databricks和数据湖技术方面的经验。

熟练使用SQL管理和查询大型数据集的专业知识。

具有Databricks、Apache Spark和相关大数据工具的实践经验。

精通云平台(AWS、Azure、Google Cloud)。

熟悉ETL自动化工具,如Apache Airflow和Databricks工作流。

对于使用Python、Java或Scala进行数据处理和管道开发有较强的编程能力。

出色的解决问题能力,能够排除和解决复杂的数据工程挑战。

职位要求

请参见职位描述。

数据建模ETL流程SQLPython数据仓库大数据技术云计算数据管道自动化NoSQL数据质量保证
Preview

Boss

HR ManagerSGV & Co.

发布于 25 April 2025

举报

Bossjob安全提醒

如果该职位要求您在海外工作,请保持警惕,谨防欺诈。

如果你在求职过程中遇到有以下行为的雇主, 请立即举报

  • 扣留您的身份证,
  • 要求您提供担保或收取财产,
  • 迫使你投资或筹集资金,
  • 收集非法利益,
  • 或其他非法情况。