<input id="6mae2"></input>
  • <menu id="6mae2"><tt id="6mae2"></tt></menu>
  • <menu id="6mae2"><tt id="6mae2"></tt></menu>
  • <menu id="6mae2"><u id="6mae2"></u></menu>
    <menu id="6mae2"></menu>
    • EN
     

    職場百科   職場文庫   招聘信息   企業服務

    您所在的位置:最新招聘信息 >全國職位信息 >Hadoop工程師招聘信息

    職位推薦:金融保安直營店導購員助理醫生醫院保潔家具方案設計師養老顧問臨床推廣經理多媒體設計師內賬會計WEB前端室內裝修工招商證券微商代理小區物業管理數字媒體藝術

    職位分類:不限

    更多
    更多:

    已選條件:
    Hadoop工程師
    清除條件
    全選
    申請職位

    數據架構工程師北京三六九數動科技有限公司北京-朝陽區3-4萬/月01-23

    學歷要求:本科|工作經驗:3-4年|公司性質:民營公司|公司規模:1000-5000人

    職責:1. 負責 看準網/看準App 基礎 數據pipeline 的研發2. 包括 數據 的 存儲 和 計算 相關的 系統 和 平臺。 支持 數據分析,挖掘,處理 等 在線,離線數據服務。要求:1. 985/211 計算機相關專業畢業2. 熟悉 Linux 環境,熟悉 C++/Java/Python 多種 或 一種 語言。3. 熟悉數據存儲,計算 相關的 系統,框架,例如 Mysql,HDFS,Hive, Spark 等的開發工作。4. 有 搜索,推薦,抓取 等系統的離線數據流架構優先。5. 好奇心強,有技術熱情,有探索精神,追求真理,有良好的學習能力,能夠有邏輯的思考和表達。6. 良好的團隊協作意識。

    立即申請
    收藏

    hadoop大數據工程師武漢安問科技發展有限責任公司武漢-東湖新技術產業開發區1.2-2萬/月01-23

    學歷要求:大專|工作經驗:3-4年|公司性質:民營公司|公司規模:少于50人

    工作內容:1、搭建和維護Hadoop集群,解決海量數據不斷增長面臨的挑戰;2、負責海量信息分析處理,系統設計;3、負責根據業務場景,項目需求抽取、分析處理。任職要求:1、計算機或相關專業,本科及以上學歷,兩年以上大數據相關工作經驗(有項目主導經驗優先);2、熟悉Hadoop以及Hadoop生態圈上的各種應用的幾種,如HBase、HDFS、ES、ZooKeeper、Yarn等,能解決Hadoop的復雜問題;3、有部署大規模Hadoop集群的經驗者優先;4、熟悉面向對象設計思想和設計模式,熟悉數據結構和常用的算法,熟悉Linux平臺,可以編寫代碼編程使用Spark開發大數據處理系統;5、熟悉軟件開發流程和配置庫的使用,擁有軟件開發流程中的代碼規范意識、配置管理規范意識、文檔撰寫規范意識和團隊合作溝通交流意識。

    立即申請
    收藏

    大數據應用工程師(深圳光明)深圳市德奧信息技術有限公司深圳-光明新區1-1.5萬/月01-23

    學歷要求:本科|工作經驗:2年|公司性質:民營公司|公司規模:50-150人

    崗位職責:1、參與項目實時平臺的框架搭建,并進行優化。2、負責流式數據的實時傳遞、清洗、轉換、計算,以及大規模數據的存儲和查詢服務3、通過優化產品和提升技術,不斷完善數據平臺、數據標簽、大數據畫像、推薦系統、數據預測、運營支持、決策支撐等相關體系。4、為團隊引入創新的技術、創新的解決方案,用創新的思路解決業務問題任職資格崗位要求:1.掌握Hadoop生態,精通Hive,能夠熟練編寫hql進行開發,熟悉數據倉庫的架構體系。2.熟悉使用Java和Scala編程。3.精通Spark streaming/Flink實時計算框架。4.熟悉使用Canal監控Mysql的數據,精通Kafka框架的調優和使用。5.熟練掌握Hbase/ElasticSearch等使用方法6.有良好的質量監控意識和數據敏感度,邏輯思維能力和理解能力強。7.能夠快速融入團隊、善于溝通和表達,工作積極主動,有責任心。8.有一定數據分析經驗,或數據分析、機器學習等相關系統搭建經驗者優先。

    立即申請
    收藏

    大數據架構師安永全球商務服務(大連)有限公司大連1.5-2萬/月01-22

    學歷要求:本科|工作經驗:5-7年|公司性質:外資(歐美)|公司規模:500-1000人

    As part oAs part of our EY-GDS D&A (Data and Analytics) team, we help our clients solve complex business challenges with the help of data and technology. We dive deep into data to extract the greatest value and discover opportunities in key business and functions like Banking, Insurance, Manufacturing, Healthcare, Retail, Manufacturing and Auto, Supply Chain, and Finance.The opportunityWe’re looking for SENIORs (Big Data Architects) with strong technology and data understanding having proven delivery capability. This is a fantastic opportunity to be part of a leading firm as well as a part of a growing Data and Analytics team.Your key responsibilitiesDevelop standardized practices for delivering new products and capabilities using Big Data technologies, including data acquisition, transformation, and analysis.Interact with client technology leaders, understand their business goals, create, architect, propose, develop and deliver technology solutionsDefine and develop client specific best practices around data management within a Hadoop environment on Alicloud Recommend design alternatives for data ingestion, processing and provisioning layersDesign and develop data ingestion programs to process large data sets in Batch mode using HIVE, Pig and Sqoop technologiesDevelop data ingestion programs to ingest real-time data from live sources using Apache Kafka, Spark Streaming and related technologiesSkills and attributes for successStrong understanding & familiarity with all Hadoop Ecosystem components and Hadoop Administrative FundamentalsStrong understanding of underlying Hadoop Architectural concepts and distributed computing paradigmsExperience in the development of Hadoop APIs and MapReduce jobs for large scale data processing.Hands-on programming experience in Apache Spark using SparkSQL and Spark Streaming or Apache StormHands on experience with major components like Hive, PIG, Spark, MapReduceExperience working with NoSQL in at least one of the data stores - HBase, Cassandra, MongoDBExperienced in Hadoop clustering and Auto scaling.Good knowledge in apache Kafka & Apache FlumeKnowledge of Spark and Kafka integration with multiple Spark jobs to consume messages from multiple Kafka partitions Knowledge of Apache Oozie based workflow Hands-on expertise in Alibaba cloud services is expected, and experience of other cloud platforms such as AWS, and/or Microsoft Azure would be an additional advantageCertifications in data integration tooling, including Alibaba Cloud Big Data, Informatica, Talend, Azure Data Factory or equivalent would be welcomeSolid understanding of ETL methodologies in a multi-tiered stack, integrating with Big Data systems like Hadoop and Cassandra.Experience with BI, and data analytics databases Experience in converting business problems/challenges to technical solutions considering security, performance, scalability etc.Experience in Enterprise grade solution implementations.Knowledge in Big data architecture patterns [Lambda, Kappa]Experience in performance bench marking enterprise applicationsExperience in Data security [on the move, at rest]Strong UNIX operating system concepts and shell scripting knowledgeTo qualify for the role, you must haveFlexible and proactive/self-motivated working style with strong personal ownership of problem resolutionExcellent communicator (written and verbal formal and informal)Ability to multi-task under pressure and work independently with minimal supervisionStrong verbal and written communication skills in Mandarin and English. Experience of Cantonese would be beneficialMust be a team player and enjoy working in a cooperative and collaborative team environment.Adaptable to new technologies and standardsParticipate in all aspects of Big Data solution delivery life cycle including analysis, design, development, testing, production deployment, and supportMinimum 5 years hand-on experience in one or more of the above areas.Minimum 5 years industry experienceIdeally, you’ll also have· Project management skillsClient management skillsSolutioning skills What we look forPeople with technical experience and enthusiasm to learn new things in this fast-moving environmentWhat working at EY offersAt EY, we’re dedicated to helping our clients, from start–ups to Fortune 500 companies — and the work we do with them is as varied as they are.You get to work with inspiring and meaningful projects. Our focus is education and coaching alongside practical experience to ensure your personal development. We value our employees and you will be able to control your own development with an individual progression plan. You will quickly grow into a responsible role with challenging and stimulating assignments. Moreover, you will be part of an interdisciplinary environment that emphasizes high quality and knowledge exchange. Plus, we offer:Support, coaching and feedback from some of the most engaging colleagues aroundOpportunities to develop new skills and progress your careerThe freedom and flexibility to handle your role in a way that’s right for you f our EY-GDS D&A (Data and Analytics) team, we help our clients solve complex business challenges with the help of data and technology. We dive deep into data to extract the greatest value and discover opportunities in key business and functions like Banking, Insurance, Manufacturing, Healthcare, Retail, Manufacturing and Auto, Supply Chain, and Finance. The opportunity We’re looking for SENIORs (Big Data Architects) with strong technology and data understanding having proven delivery capability. This is a fantastic opportunity to be part of a leading firm as well as a part of a growing Data and Analytics team. Your key responsibilities Develop standardized practices for delivering new products and capabilities using Big Data technologies, including data acquisition, transformation, and analysis.Interact with client technology leaders, understand their business goals, create, architect, propose, develop and deliver technology solutionsDefine and develop client specific best practices around data management within a Hadoop environment on Alicloud Recommend design alternatives for data ingestion, processing and provisioning layersDesign and develop data ingestion programs to process large data sets in Batch mode using HIVE, Pig and Sqoop technologiesDevelop data ingestion programs to ingest real-time data from live sources using Apache Kafka, Spark Streaming and related technologies Skills and attributes for success Strong understanding & familiarity with all Hadoop Ecosystem components and Hadoop Administrative FundamentalsStrong understanding of underlying Hadoop Architectural concepts and distributed computing paradigmsExperience in the development of Hadoop APIs and MapReduce jobs for large scale data processing.Hands-on programming experience in Apache Spark using SparkSQL and Spark Streaming or Apache StormHands on experience with major components like Hive, PIG, Spark, MapReduceExperience working with NoSQL in at least one of the data stores - HBase, Cassandra, MongoDBExperienced in Hadoop clustering and Auto scaling.Good knowledge in apache Kafka & Apache FlumeKnowledge of Spark and Kafka integration with multiple Spark jobs to consume messages from multiple Kafka partitions Knowledge of Apache Oozie based workflow Hands-on expertise in Alibaba cloud services is expected, and experience of other cloud platforms such as AWS, and/or Microsoft Azure would be an additional advantageCertifications in data integration tooling, including Alibaba Cloud Big Data, Informatica, Talend, Azure Data Factory or equivalent would be welcomeSolid understanding of ETL methodologies in a multi-tiered stack, integrating with Big Data systems like Hadoop and Cassandra.Experience with BI, and data analytics databases Experience in converting business problems/challenges to technical solutions considering security, performance, scalability etc.Experience in Enterprise grade solution implementations.Knowledge in Big data architecture patterns [Lambda, Kappa]Experience in performance bench marking enterprise applicationsExperience in Data security [on the move, at rest]Strong UNIX operating system concepts and shell scripting knowledge To qualify for the role, you must haveFlexible and proactive/self-motivated working style with strong personal ownership of problem resolutionExcellent communicator (written and verbal formal and informal)Ability to multi-task under pressure and work independently with minimal supervisionStrong verbal and written communication skills in Mandarin and English. Experience of Cantonese would be beneficialMust be a team player and enjoy working in a cooperative and collaborative team environment.Adaptable to new technologies and standardsParticipate in all aspects of Big Data solution delivery life cycle including analysis, design, development, testing, production deployment, and supportMinimum 5 years hand-on experience in one or more of the above areas.Minimum 5 years industry experience Ideally, you’ll also have · Project management skillsClient management skillsSolutioning skills What we look for People with technical experience and enthusiasm to learn new things in this fast-moving environment What working at EY offers At EY, we’re dedicated to helping our clients, from start–ups to Fortune 500 companies — and the work we do with them is as varied as they are. You get to work with inspiring and meaningful projects. Our focus is education and coaching alongside practical experience to ensure your personal development. We value our employees and you will be able to control your own development with an individual progression plan. You will quickly grow into a responsible role with challenging and stimulating assignments. Moreover, you will be part of an interdisciplinary environment that emphasizes high quality and knowledge exchange. Plus, we offer: Support, coaching and feedback from some of the most engaging colleagues aroundOpportunities to develop new skills and progress your careerThe freedom and flexibility to handle your role in a way that’s right for you

    立即申請
    收藏

    大數據工程師中國太平洋保險(集團)股份有限公司上海-徐匯區20-35萬/年01-12

    學歷要求:本科|工作經驗:3-4年|公司性質:國企|公司規模:5000-10000人

    工作職責:(1)負責軟件系統代碼的實現,編寫代碼和開發文檔(2)負責進行系統的功能定義,程序設計(3)根據設計文檔或需求說明完成代碼編寫、調試、測試與維護(4)分析并解決軟件開發過程中的問題(5)配合技術經理完成相關任務目標任職資格:(1) 計算機相關專業全日制本科及以上學歷;(2) 3年以上工作經驗,其中至少2年大數據開發經驗,熟悉Hadoop大數據處理系統的開發,搭建及部署(3) 精通JAVA語言,熟悉Linux開發環境(4) 熟悉hadoop生態系統項目的使用(hdfs、hive、hbase、spark、zookeeper,yarn等)(5) 學習和理解能力強,具有一定的系統分析能力,及獨立解決問題的能力(6) 具備良好的團隊合作精神和承受壓力的能力(7) 擁有金融類產品開發經驗者優先。

    立即申請
    收藏

    大數據研發工程師“前程無憂”51job.com(上海)上海01-08

    學歷要求:碩士|工作經驗:1年|公司性質:外資(非歐美)|公司規模:1000-5000人

    工作地點:張江 崗位職責: -參與基于大數據平臺的網站用戶行為分析業務; 任職要求: -碩士學歷,計算機軟件開發等相關專業;-軟件基礎理論知識扎實,具有良好的數據結構、算法功底;-精通java, 對分布式計算、數據挖掘有深入了解者優先;-熟悉Hadoop、Storm、HBase、Hive等框架者優先;-思維敏捷,對工作有較高的熱情和驅動力,具有良好的團隊合作意識。

    立即申請
    收藏

    大數據開發工程師中國石油天然氣管道工程有限公司成都1-2.5萬/月12-30

    學歷要求:本科|工作經驗:1年|公司性質:國企|公司規模:1000-5000人

    A) 基于Hadoop進行MapReduce、Hive和HBase的應用開發;B) 維護和管理大規模Hadoop集群,解決不斷增長的海量數據帶來的存儲和計算挑戰;C) 大數據平臺數據清洗、轉換和建模的開發;要求:1, 熟悉Hadoop/HBase/Spark/hive生態環境體系的搭建和管理,掌握Hadoop、HBase、MapReduce、HDFS、Hive、Kylin、Zookeeper等開源項目的原理和使用方法,具有實際集群搭建和調優經驗;2, 熟悉并有Java開發經驗,有大平臺架構開發經驗;3, 掌握至少一種NoSQL數據庫,具有真正項目使用經驗;4, 掌握數據分析的基本流程,擅長數據采集、清洗、分析等環節;5, 熟悉后端服務(Restful Api 服務實現)優先;6, 熟悉使用sqlserver、oracle、mysql一種;7, 良好團隊協作和溝通能力;8, 全日制本科及以上學歷,1-3年及以上工作經驗。

    立即申請
    收藏

    高級大數據開發工程師中國電信集團系統集成有限責任公司北京-西城區1.5-2萬/月12-04

    學歷要求:碩士|工作經驗:3-4年|公司性質:國企|公司規模:10000人以上

    1、負責公司大數據平臺設計方案和架構;2、負責方案中核心部分研發和技術預研工作;3、指導研發人員實施大數據平臺建設;4、負責大數據平臺維護和持續優化;5、負責配合其他團隊推進大數據平臺在企業內的推廣應用。任職要求:1、3年以上大數據平臺設計架構經驗,有DCH、HDP平臺經驗者優先;2、熟悉Hadoop技術生態,如HDFS、YARN、MapReduce、Spark、HBASE、zookeeper、Ambari、Zeppelin等;3、具備大數據平臺各組件調優能力,有一定組件源碼優化經驗;4、熟悉操作系統及Linux操作系統的配置管理及優化方法,能獨立排查及解決操作系統層的各類問題;5、具有較強的學習能力、邏輯分析能力、問題排查能力;良好的溝通表達能力,具備項目管理經驗者優先;6、全日制統招碩士研究生學歷以上。

    立即申請
    收藏

    大數據開發工程師比亞迪股份有限公司深圳1.2-2萬/月01-22

    學歷要求:本科|工作經驗:3-4年|公司性質:民營公司|公司規模:10000人以上

    崗位職責: 1、負責大數據分析平臺的功能優化與運維異常問題處理;  2、復雜公有云爬蟲云數據實時監控與遠程數據同步;  3、參與數據湖搭建,以及數據全鏈路的開發,包括內部與外部數據的采集、數據同步、數據清洗與標準化、數據模型設計、離線數據處理、實時數據處理、數據服務化、數據可視化等  4、熟悉NLP文本模型的參數輸入輸出與樣本訓練過程,掌握模型的本地部署過程,新版本發布,文本模型的關鍵詞補充;  5、根據用戶需求,為用戶提供大數據技術解決方案,進行大數據項目方案匯報講解;  6、負責大數據平臺對ES的數據存儲信息的調用實現數據統計分析。招聘要求:1、全日制本科及以上學歷(學信網可查詢),計算機及其相關專業;2、熟悉大數據HADOOP生態系統HDFS,HBASE,HIVE,KAFKA、SPARK,IMPALA組件;3、熟練使用以下編程語言中的至少一種:Java、 C、Scala,或者腳本語言中的至少一種:Python, Perl, R;4、有使用開源工具KETTLE,SQOOP對接數據經驗;5、能獨立處理把數據源的數據采集到Hadoop上存儲,非結構化數據源需解析成結構化數據,并完成數據分析輸出用戶報表;6、能獨立處理把Hadoop上的數據輸出給第三方系統使用;7、良好的編程能力、算法設計能力,具備大規模語料數據處理經驗,具備良好的數學和統計學基礎;8、有開源項目經驗,使用過KERAS+TENSORFLOW開發的優先。

    立即申請
    收藏

    大數據開發工程師中軟國際科技服務有限公司佛山1.2-2萬/月01-20

    學歷要求:大專|工作經驗:2年|公司性質:合資|公司規模:10000人以上

    技能要求:Hadoop,Hive,Spark,Python,大數據開發,數據加工技能要求:Hadoop,Hive,Spark崗位職責:1、負責大數據相關系統功能模塊的需求分析和設計;2、負責大數據相關系統功能的技術實現,核心代碼開發及日常維護工作;3、應用大數據、數據挖掘、分析建模等技術,對海量數據進行分析挖掘;4、負責大數據平臺的技術更新,編撰技術規范;5、負責系統的問題分析和改進、優化系統性能、保障系統穩定性任職要求:1、計算機、數學、統計學、信息系統等相關專業,具有2-4年以上軟件開發經驗;2、精通Hive,Spark,ElasticSearch,Kafka,Storm等大數據技術;3、精通Oracle、MySQL等數據庫的開發和優化,熟悉Hive SQL開發;4、熟悉SAS、Python的開發使用;5、具備較好的溝通能力與創新能力,具備較強的獨立分析問題及解決問題能力,有鉆研精神,有責任感和主動擔當意識。

    立即申請
    收藏

    后臺開發崗中信銀行國際(中國)有限公司 CITIC Bank International (China) Limited深圳-福田區01-18

    學歷要求:本科|工作經驗:3-4年|公司性質:外資(非歐美)|公司規模:150-500人

    1、協助銀行各類軟件系統的整體架構和設計,并對核心、重要模塊進行編碼實現;2、與業務、產品、設計、測試等團隊緊密配合;3、協助項目設計方案設計、評審和開發代碼的走查;4、協助各項目的研發實施,掌握核心及關鍵技術,維護研發文檔及代碼資產;5、負責分析系統研發瓶頸問題,解決各種疑難雜癥,對系統進行性能調優;6、研究行業內解決方案和新技術,提出建設性的意見;7、領導交辦的其他工作。任職要求:1、有大中型銀行項目研發經驗,參與過高頻交易系統、網銀系統、互聯網金融從業經驗優先。具備組織管理能力,能夠協調整個項目分析、設計和實施工作等;2、具有面向對象分析、設計、開發能力,精通OO,AOP,設計模式;3、具有專業技術基礎,熟悉傳統J2EE相關技術(EJB、JSP、Servlet等),熟悉SpringCloud,dubbo等開源框架,熟悉Java頁面模板技術;4、熟悉MySQL、MongoDB等數據庫開發與設計以及緩存系統REDIS或Memcached的設計和研發;5、熟練使用Linux操作系統,以及Shell、Python等至少一種腳本編程;6、掌握JVM性能調優、了解常見JVM垃圾收集算法、Java并發框架與庫、了解Java內存模型,了解Weblogic;7、掌握系統安全的專業技術知識、標準和相關安全產品(如移動安全、防火墻、入侵檢測、漏洞掃描、身份認證等);8、具備良好的需求分析能力、業務和技術方案策劃和設計能力;9、具備良好的職業操守,誠實守信、品行端正,無不良記錄。

    立即申請
    收藏

    Hbase開發工程師北京陌陌科技有限公司北京-朝陽區1.5-3萬/月12-12

    學歷要求:本科|工作經驗:2年|公司性質:上市公司|公司規模:1000-5000人

    崗位職責:1、負責陌陌內部PB級hbase存儲集群的規劃、維護和調優等;2、基于hbase給業務團隊研發高性能、高效穩定存儲服務;3、跟進hbase及hadoop社區版本新特性調研及升級。任職要求:1、2年以上java開發經驗,了解JVM調優,熟練使用shell或python;2、熟悉hadoop生態,理解hbase/hdfs/zookeeper架構和工作原理;3、極強的責任心和快速解決問題的能力;4、有大規模hbase集群運維經驗或對hbase存儲原理熟悉者優先。

    立即申請
    收藏

    大數據開發(外派)神州數碼信息服務股份有限公司上海-浦東新區1.5-1.7萬/月01-23

    學歷要求:大專|工作經驗:3-4年|公司性質:上市公司|公司規模:5000-10000人

    崗位職責:大數據開發人員,外派中金所現場開發崗位要求:1、正規學校畢業4年以上,學信網可查學歷。2、負責數據清洗、處理、分析等場景的開發。3、熟悉Hadoop,有數據開發經驗。4、掌握Java或Python等編程語言。5、有大數據開發分析經驗。6、具有金融行業經驗優先。

    立即申請
    收藏

    Hadoop大數據開發工程師上海大唐移動通信設備有限公司上海1.8-2.8萬/月01-23

    學歷要求:本科|工作經驗:5-7年|公司性質:國企|公司規模:500-1000人

    1、負責運營商流量分析云計算平臺的基礎架構的維護,監控,優化和升級等日常工作;2、負責處理數據平臺Hadoop/Hive/Hbase/Storm/Spark等疑難問題的研究和解決;3、深入研究社區的各類大數據技術和產品,能夠引入并實施;4、根據業務需求開發各類工具;5、幫助團隊提供大數據分析相關能力。任職要求:1、7年以上工作經驗,5年及以上大數據工作經驗;2、在可擴展、高性能,高并發,高穩定性系統設計,開發和調優方面有實際經驗;3、JAVA技術知識扎實,熟悉IO,多線程,集合類等基礎框架,熟悉緩存,消息,搜索等機制;4、對Hadoop/Spark/Storm生態有豐富的經驗;5、有良好的系統分析能力、故障診斷能力者優先;6、有大型分布式系統架構的實際經驗;7、有人工智能相關開發經驗優先、熟練使用python語言開發工具的優先、有通信企業工作經驗優先。

    立即申請
    收藏

    大數據分析工程師仁和藥業股份有限公司異地招聘0.6-1.2萬/月01-22

    學歷要求:大專|工作經驗:2年|公司性質:上市公司|公司規模:5000-10000人

    ???樟樹上班???崗位職責:1.參與KPI指標體系管理;2.負責深入業務線,制定業務指標,反饋業務問題,為業務發展提供決策支持;3.負責數據建模,基于業務規律和數據探索構建數據模型,提升數據利用效率和價值;4.負責多維度決策支持管理報表的開發、應用。任職要求:1.精通SQL,擅長對復雜SQL進行優化;2.熟悉開源數據平臺及相關技術,如:Hadoop、Spark、Hive、Python、R、Confluent Kafka、Storm、Flink;3.熟練掌握數據挖掘技術,熟悉數據模型開發,有能力將數據轉化為有價值信息;4.2年以上相關從業經驗。

    立即申請
    收藏

    高級研發工程師-共享技術(J10764)易車公司北京-海淀區1.5-3萬/月01-22

    學歷要求:本科|工作經驗:5-7年|公司性質:外資(歐美)|公司規模:1000-5000人

    工作職責:1. 數據中臺服務開發(數據資產平臺開發,用戶畫像)。2. 后端基礎開發平臺。3. 業務服務接口開發。任職資格:1.統招本科以上計算機相關專業。2.精通Java、Spring、Mybatis開發;熟練使用隊列,鏈表,哈希表,字典等數據結構;精通微服務、Spring Cloud、Nginx;熟悉mysql等數據庫;熟練掌握Linux命令,服務端部署;熟悉大數據相關技術:ES,Redis,Kafka,Hadoop,Hbase,Spark 等。有中臺相關開發經驗者優先。3.五年至六年以上相關工作經驗。4.誠實穩重,執行力強、善于思考、責任心強;

    立即申請
    收藏

    后端開發工程師-上海-08379神州數碼供應鏈上海-長寧區1.5-2.5萬/月01-19

    學歷要求:本科|工作經驗:2年|公司性質:上市公司|公司規模:5000-10000人

    1、 負責公司的大數據產品的開發實施和技術維護;2、 負責技術攻關項目的實施,負責相關產品性能的持續優化;3、 支持配合公司的相關項目的技術實施,為相關項目提供產品級的技術支持和服務;4、 負責相關技術文檔的制定和維護;5、 為公司的大數據產品的運營提供技術支撐和服務。任職要求:1、 全日制統招本科及以上學歷,數學、統計、和計算機相關專業優先;2、 5年以上的軟件開發經驗,3年以上的大數據項目或大數據產品的技術實施和研發交付的實戰經驗;3、 在智慧城市、智慧供應鏈領域有產開發和交付經驗的優先;4、 有數據中臺產品開發經驗的優先;5、 熟悉并具備動手能力: K8S,Hadoop,Hive,Hbase,Java,Python,Alicloud;6、 具備嚴謹認真的工作態度,學習能力強,具備較強的分析解決問題的能力;7、 具備優秀的團隊協作精神,具備良好的抗壓能力;學歷要求: 本科

    立即申請
    收藏

    大數據基礎技術高級工程師廣發銀行股份有限公司佛山-南海區2-4萬/月12-08

    學歷要求:本科|工作經驗:5-7年|公司性質:國企|公司規模:500-1000人

    工作職責:1、負責大數據集群運維管理,以及數據總線、流計算平臺、離線計算平臺、分布式數據庫的開發運維管理等工作,保障集群穩健運行; 2、負責集群容量規劃,架構審核,能解決高難度的故障隱患、疑難雜癥。在性能優化時,負責攻克大數據量,高并發,高穩定性,易用性等各種技術難點; 3、研究與跟蹤大數據基礎新技術發展方向,并能在團隊內進行推廣應用。任職要求:1、本科及以上學歷,5年以上工作經驗; 2、 精通java開發技術,對JVM性能調優有較深刻的理解,具備豐富的java程序故障分析經驗; 3、 精通Hadoop生態圈,掌握數據存儲Hadoop、HBase、HDFS,數據收集Kafka、Flume、Canal、LogStash,分析計算Spark、Hive、presto,實時計算Flink、Storm,數據索引ES等大數據基礎軟件的環境搭建技術,能解決環境搭建過程中的問題; 4、 具備生產環境快速trouble-shooting能力,能解決大數據基礎環境中出現的疑難雜癥,能進行基礎環境的參數調優,具備閱讀源碼解決環境問題能力者優先,開源項目commiter或貢獻過patch 者更佳。

    立即申請
    收藏

    大數據架構師(J10557)銀聯商務股份有限公司上海2-4萬/月12-05

    學歷要求:本科|工作經驗:5-7年|公司性質:國企|公司規模:10000人以上

    工作職責:1、參與hive、spark、flink、kafka、hbase、kylin等組件的應用開發工作;2、參與大數據離線計算集群、大數據實時計算集群等平臺的性能改進、功能擴展、故障分析等工作;3、參與離線開發平臺、實時開發平臺等數據中臺項目的開發工作;4、參與大數據自助取數平臺、大數據自助分析平臺的開發工作;5、參與其他項目任務。任職資格:1、計算機或相關專業本科及以上學歷,5年以上大數據開發或運維工作經驗; 2、熟悉linux開發環境,會寫shell腳本,熟練掌握Java/Python/Go語言中的一種;3、了解hive、spark、flink、kafka、hbase、kylin等大數據組件的技術原理和基本配置,有實際開發運維經驗,能解決開發工作中的日常問題;4、有大型實時數據數倉建設經驗優先; 5、大型互聯網公司或金融機構大數據平臺架構與建設經驗優先。

    立即申請
    收藏

    大數據開發工程師深圳市達熙科技有限公司深圳2-4萬/月01-23

    學歷要求:本科|工作經驗:3-4年|公司性質:民營公司|公司規模:少于50人

    大數據開發工程師薪資范圍:稅后人民幣 20-40K/月*13薪 +月度績效,996工作制工作職責:負責spark、hadoop、flink計算平臺的設計和開發工作,構建高效穩定的計算平臺,為業務提供大數據分析所需的海量計算服務;負責數據倉庫、以及機器學習平臺的建設。任職要求:計算機相關專業,本科及以上學歷,2年以上大數據平臺開發、運維經驗;對spark、hadoop平臺計算原理有深刻理解,能夠閱讀spark、hadoop源碼;對社區有源碼貢獻者優先;熟悉spark流計算框架或其他開源實時計算框架;有數據倉庫建設經驗者優先;數據大數據算法經驗、機器學習平臺建設經驗者優先;精通JAVA、熟練掌握MapReduce原理及數據分析相關的二次開發;對新技術充滿熱情,具有良好的學習能力、團隊協作能力和溝通能力;能承受較大的工作壓力。

    立即申請
    收藏

    全選
    申請職位
    共13頁,到第確定

    精英競拍匯-中高端人才求職平臺

    互聯網專場
    招聘職位: 后端開發,前端開發,移動端開發,測試,產品/設計/運營
    金融專場
    招聘職位: 財務審計,合規與風險控制,后臺運營,投行,銷售
    房地產專場
    招聘職位: 房地產開發,建筑工程,規劃設計,商業,市場營銷
    汽車專場
    招聘職位: 汽車新能源,軟件與汽車電子,生產制造,質量管理,供應鏈管理
    跑得快游戏