崗位職責:
1、負責規劃大數據存儲模式并對大數據技術進行選型,參與大數據框架的搭建;
2、負責數據倉庫和大數據處理模塊的架構設計和開發;
3、負責海量數據的處理、分析、統計、挖掘工作;
4、解決大數據相關的疑難技術問題;
5、 負責大數據平臺的的運維。
崗位要求:
1、精通數據庫操作,熟練掌握Linux操作系統及相關的優化,具備一定的網絡通信基礎,能獨立搭建系統環境。
2、Java研發3年以上,大數據開發經驗2年以上;
3、熟悉大數據storm、hive、kafka、redis、ES、hadoop、MQTT、spark、impala、hbase、zookeeper等技術;
4、具有新能源行業從業經驗者優先;
5、具有性能測試工作經驗和測試工具使用經驗者優先。
1、負責規劃大數據存儲模式并對大數據技術進行選型,參與大數據框架的搭建;
2、負責數據倉庫和大數據處理模塊的架構設計和開發;
3、負責海量數據的處理、分析、統計、挖掘工作;
4、解決大數據相關的疑難技術問題;
5、 負責大數據平臺的的運維。
崗位要求:
1、精通數據庫操作,熟練掌握Linux操作系統及相關的優化,具備一定的網絡通信基礎,能獨立搭建系統環境。
2、Java研發3年以上,大數據開發經驗2年以上;
3、熟悉大數據storm、hive、kafka、redis、ES、hadoop、MQTT、spark、impala、hbase、zookeeper等技術;
4、具有新能源行業從業經驗者優先;
5、具有性能測試工作經驗和測試工具使用經驗者優先。
職位類別: 數據庫開發工程師
舉報
全選
申請職位
-
15-25K/月申請職位負責大數據類項目的技術攻關和研發工作,涉及技術包括但不限Hadoop平臺類工具、Spark、Kafka、GoldenGate、IBM MQ、內存數據庫等; 負責數據類項目的ETL設計及開發工作; 負責業務系統數據源的調..
-
10-25K/月申請職位崗位職責: 1、負責Hadoop、HBase、spark等大數據平臺 規劃、部署、監控、系統優化等; 2、負責公司大數據平臺的運維管理工作; 3、處理公司大數據平臺各類異常和故障,確保系統平臺的穩定運行; 4..
-
15-25K/月申請職位職位描述 1. 負責數據分析、加工、清理、處理程序的開發; 2. 負責數據相關平臺的搭建、維護和優化。 任職要求 1. 計算機相關專業,全日制本科及以上學歷,3年以上大數據相關工作經驗; 2...
-
面議申請職位1、深入理解業務需求,抽象系統數據模型,對數據進行清洗、分析、統計及接口開發。2、按時按質完成公司下達程度開發、系統評測等工作任務。3、定期維護系統程序,快速處理反饋回來的系統bug。職位要..
-
15-20W/年申請職位主要工作職責: 1.大數據平臺建設:負責大數據集群搭建;負責大數據平臺展現層的研發工作;負責大數據集群及平臺端的日常運維; 2.大數據開發:根據業務需求進行大數據技術架構的設計;負責支撐各項..
-
2-4/月申請職位職責描述:1、運用數據挖掘方法和技術,深入挖掘和分析海量商業數據;2、完善和優化算法,以技術驅動公司業務成長,體現技術價值;負責基于歷史數據與實時流數據的分析與策略優化;3、應用機器學習..
-
2-3/月申請職位崗位職責:1、基于分布式技術構建數據平臺,解決海量視覺數據的存儲、計算需求;2、將人工智能與分布式計算相結合,構建高性能的數據處理流程和系統,實現人工智能算法的落地;3、能獨立構建多元化..
-
2-4/月申請職位崗位職責:1、負責建設公司大數據平臺,為公司用戶提供穩定、易用的大數據平臺工具和便捷、酷炫的數據產品;2、參與并主導大數據平臺工具鏈的設計、開發以及后續維護;3、參與數據產品的研發,助力..
-
面議申請職位職責描述:1、熟知公司業務數據和業務變化,構建業務數據模型;2、進行數據研發和分析,支持業務優化、監控和考核;3、維護業務數據模型,驗證數據質量,保障數據完整和可靠;4、用系統化的方法分析..
-
2-3/月申請職位崗位職責:1、負責整合規劃數據倉庫/BI解決方案以及具體的設計建模工作。2、負責數據集成、數據管理的設計、開發、迭代、優化和維護工作。3、負責業務需求數據分析、系統搭建與實現工作。任職要求:..
- 公司規模:100 - 499人
- 公司性質:民營企業
- 所屬行業:網絡產品開發
- 所在地區:湖北-武漢市-江夏區
- 聯系人:舒女士
- 手機:會員登錄后才可查看
- 郵箱:會員登錄后才可查看
- 郵政編碼:430200
工作地址
- 地址:武大科技園航域二期A3棟1008






