大数据开发工程师是做什么的?

2022-09-28 08:29:14
大数据开发工程师要负责数据仓库建设、ETL开发、数据分析、数据指标统计、大数据实时计算平台及业务开发、平台建设及维护等工作内容。熟练掌握数据仓库、hadoop生态体系、计算及二次开发、大数据平台工具的开发:开发平台、调度系统、元数据平台等工具,该岗位对于技术要求较高。

大数据开发工程师的岗位要求有哪些:

1、本科以上学历,计算机相关专业,对数据处理、数据建模、数据分析等有深刻认识和实战经验
  2、熟悉HiveSQL语言,熟悉shell, python等脚本语言
  3、有hadoop、spark、flink等大数据平台的使用经验
  4、有数据仓库建设、商业数据分析、增长项目经验
  5、java/scala至少熟练使用一种
  6、熟练掌握Hadoop及Map-Reduce应用开发,熟练掌握HBase、Hive、Storm、spark等大数据开发工具
  7、熟悉至少一种实时计算引擎 Storm,SparkStreaming, Flink, 对hadoop生态其他组件有一定了解,比如 HBase, hadoop, Hive, Druid等
  熟悉Hadoop/Spark/Hive/HBase等大数据工具,主导过大型数据平台建设者优先;
  9、精通SQL,熟悉常用的关系型数据库、非关系性数据库和数据仓库,具有SQL性能优化经验;
  9、了解微服务开发理念、实现技术,熟悉常见设计模式,熟练掌握SSH开发框架,熟练进行Java、Python代码编写,熟悉多线程编程
  10、有Hadoop/Hive/Spark/Storm/Zookeeper 等相关开发经验或从事分布式相关系统的开发工作
  11、熟悉Linux/Unix系统和丰富的Java开发经验
  12、3年以上企业级数据仓库开发经验,有大规模集群应用开发经验优先
  13、熟悉数据仓库理论,具备复杂业务需求梳理能力
  14、熟练SQL开发,精通Mysql等关系型数据库
  15、熟悉Linux系统,具备shell、python等脚本开发能力者优先
  16、学习能力强,喜欢研究开源新技术,有团队观念,具备独立解决问题的能力,具备扎实的计算机理论基础, 对数据结构及算法有较强的功底

看到这些要求是不是吓一跳?别慌,小编综合了多家大型互联网公司的招聘要求进行一个罗列,供大家参考了解,不同的公司对于技术的侧重点不尽相同

大数据开发工程师岗位核心职责(需要做什么):
  
  1、大数据基础平台、大数据能力开放平台、大数据交易平台的搭建与优化;
  2、基于大数据平台(Hadoop)的数据仓库工具Hive/Spark/HBase, ETL调度工具,数据同步工具的开发、使用、集成和自动化运维,以及多租户与权限控制策略的实现;
  3、研发基于大数据平台的数据仓库平台产品;
  4、参与大数据平台的容量规划、持续交付、业务监控、应急响应,保证平台正常运行。
  5、利用大数据相关技术实现对数据的加工、分析、挖掘、处理、及数据可视化等相关工作。
  6、推动团队内成员技术经验分享,关注相关前沿技术研究,通过新技术服务团队和业务。

大数据开发工程师需要具备大数据基础知识、大数据平台知识和大数据场景知识三方面的知识结构。大数据基础知识:数学基础、统计学基础和计算机基础。数学基础是大数据从业者重要的基础,因为大数据的核心是算法设计,而数学是算法设计的基础。统计学基础知识也是大数据从业者必须掌握的内容,包括基本的统计方法、绘制方法、统计算法等内容。计算机基础则包括操作系统(Linux)、计算机网络、数据结构、算法设计、数据库等内容。
根据国内的发展形势,大数据未来的发展前景会非常好。自 2018 年企业纷纷开始数字化转型,一二线城市对大数据领域的人才需求非常强烈,未来几年,三四线城市的人才需求也会大增。

在大数据领域,国内发展的比较晚,从 2016 年开始,仅有 200 多所大学开设了大数据相关的专业,也就是说 2020 年第一批毕业生才刚刚步入社会,我国市场环境处于急需大数据人才但人才不足的阶段,所以未来大数据领域会有很多的就业机遇。
薪资高、缺口大,自然成为职场人的“薪”选择!