目前課程版本:8.1 升級時間:2020.07.11 查看詳細
我們的課程幫助了近500名零基礎的學員高薪就業,近2000名學生正在努力蛻變中。0基礎也能高薪就業的大數據課程。
全面升級Spark核心就業項目,新增第四代大數據處理框架Flink,強化推薦系統實戰并擴充至7天。
所有項目均是來自企業實戰項目,報表分析、日志分析、推薦系統/廣告系統、反欺詐系統、為就業提供強力保障。
課程全面覆蓋大數據技術,數據收集、存儲、計算、挖掘、展現,離線分析/實時分析/內存計算一網打盡。
大數據時代已然到來,在數據已經在一線企業、中小型企業、傳統企業、互聯網企業全面落地。就業不再局限于互聯網行業。
職位技能要求 | V7.0 | V8.1 | 說明 |
了解HDFS, Hbase, Kafka、Flink等原理 | 有 | 更強化 | V8.1對HDFS、HBase、Kafka、Flink原理進一步強化,例如:HBase布隆過濾器、預分區、Kafka再均衡、Flink狀態管理、一致性深度剖析 |
熟悉Linux系統,熟練掌握JAVA或Scala語至少一種 | 有 | 更強化 | V8.1對Java課程、Scala課程進一步升級,在Java多線程、爬蟲、網絡編程、JVM都進行強化,這樣對后續的分布式框架學習會有更有力的支撐。 |
熟悉一種關系型數據庫,具備一定的SQL功底 | 有 | 更強化 | V8.1通過更多的項目來保障學生的SQL編程能力,更多的指標保證學生有足夠多的練習 |
精通多維數據建模和ETL開發 | 有 | 更強化 | V8.1從項目一開始就能夠教會學生如何基于業務進行數據倉庫建模、維度建模、分層。并在課堂上手把手帶學生編寫ETL代碼, |
了解Hadoop相關組件Hive/hbase/sqoop等,具備整體ETL/DW/BI的思想 | 有 | 更強化 | 在V8.1技術課程中,清晰的分析Hive、Hbase、sqoop的操作、運行流程、底層原理,并且結合項目中具體的業務場景,將這些技術真正用起來,學生在項目中學會有深度業務的ETL、DW、BI開發 |
熟練使用 MR/Spark Streaming/hive/spark 解決業務問題 | 有 | 更強化 | V8.1課程中清晰介紹批處理框架以及流處理框架的運行特點,并深度解析如何針對不同的計算引擎進行調優。更涵蓋了Structured Streaming、以及Flink的優秀流式框架應用以及原理。并在物流項目、車聯網項目、知行在線教育等項目中都有具體的業務應用 |
熟悉Linux下開發, 熟練使用shell/python等腳本語言; | 有 | 更強化 | V8.1課程強化SHELL腳本編程,并手把手帶學生學會編寫在大數據項目中如何使用SHELL進行調度程序開發,在高級課程中學習Python大數據技術生態圈,涵蓋Python數據分析、PySpark、數據挖掘等內容 |
負責大數據實時、離線處理程序開發,根據產品需求,設計開發數據處理程序 | 有 | 更強化 | V8.1課程中有大量的實時、離線項目,學生只有通過大量練習,才能更好地掌握分布式程序的編寫技巧,更能具備多個行業的數據處理特點 |
面向業務目標,對數據模型、數據分布、數據傳輸、數據存儲等方面進行大數據場景的功能開發 | 部分 | 更完整 | V8.1課程更注重培養學生的業務分析、建模、代碼轉換實現能力,每一個行業、每一個項目都會進行業務場景的深度解析,并且每個項目都是從采集、預處理、分析到最終應用完整流程,學生通過項目能夠學習真正企業級的項目 |
有數據分析相關經驗, 了解基本數據分析工具; | 部分 | 有 | 課程中包含了常用的一些數據分析方法,包括分類、對比、趨勢等分析,并通過使用ETL、BI工具來進行快速處理、展示 |
有大規模數據收集,日志處理經驗; | 部分 | 更完整 | V8.1課程中涵蓋了多行的多種數據采集方式,因為不同行業數據接口不一樣,要通過不同方式采集數據,例如:證券數據通過socket+Flume自定義source采集、物流數據采用Oracle Golden Gate、Canal進行實時采集、車聯網通過云服務器+Kafka采集等,這樣學生才能具備豐富的收集處理經驗 |
了解機器學習算法; | 有 | 有 | V8.1課程涵蓋機器學習算法,并將這些算法與數據挖掘結合應用,基于這些算法進行數據挖掘建模,并進行參數調優,減少模型的誤差率 |
深入研究過大數據框架的運行機制、實現原理、源碼者。 | 部分 | 更強化 | V8.1講解框架都會深度剖析框架的底層原理,結合代碼和配圖給學生講解設計原因,不僅要保證內容深度,還有兼顧學生能夠學會 |
0基礎0經驗的小白人員;想通過更低的成本來試一下自己是否適合做大數據相關工作的轉型人員。
注:獲取更多免費學習視頻+資料+筆記,請加QQ:2632311208。
全日制脫產,每周5天上課, 上兩天課休息一天的上課方式(實際培訓時間可能因法定節假日等因素發生變化)
部分校區可能會根據實際情況有所調整,詳情可詢咨詢老師 點擊咨詢
大數據基礎班課程大綱 | |||
階段名稱 | 主講內容 | 技術要點 | 學習目標 |
零基礎數據倉庫課程 | 操作系統基礎 | 計算機基礎知識、Linux環境搭建、遠程連接工具、文件操作命令、壓縮解壓縮命令、文件查找命令、系統管理命令、權限管理、網絡服務管理命令、VI等。 | 掌握企業級ETL平臺的kettle; 掌握BI的可視化平臺Superset; 掌握Kettle ETL處理設計思想; 掌握大數據企業開發中最常見的的linux的操作; 掌握一款主流數據庫客戶端工具DataGrip; 掌握企業MySQL的調優方案; 掌握大數據分析中數據全量及增量同步解決方案; 掌握生產環境中數據分析程序的部署解決方案。 |
關系型數據庫 | 數據庫環境搭建、SQL語言(DDL、DML、DQL)、多表查詢、索引等。 | ||
可視化ETL平臺 | 數據倉庫與ETL、Kettle安裝部署、數據抽取與裝載、表輸入、表輸出、插入/更新、switch/case等組件使用、Kettle作業等。 | ||
BI可視化開發 | Superset部署、開發,涵蓋Charts開發、Dashboard開發。 | ||
電商數據倉庫實戰 | 電商業務背景、案例架構、數據倉庫增量同步、ETL開發、指標SQL開發、Kettle作業調度、Superset可視化展示等。 |
本課程適合于計算機專業,有一定Java基礎、通過入學考核的未工作人士。
提示:測試題主要考察您是否具備Java基礎,以便我們統一入學基礎,更好地開展教學工作。如果您感覺測試題很難,我們建議您參加我們的Java基礎班學習。
全日制脫產,每周5天上課, 上兩天課休息一天的上課方式(實際培訓時間可能因法定節假日等因素發生變化)
部分校區可能會根據實際情況有所調整,詳情可詢咨詢老師 點擊咨詢
大數據就業班課程大綱 | |||
階段名稱 | 主講內容 | 技術要點 | 學習目標 |
Java語言編程 | 編程基礎 | Java概述、Java程序入門、常量與變量、數據類型、運算符、流程控制語句、方法、數組。 | 可掌握的核心: 掌握Java程序基礎數據類型; 掌握開發中常用類如集合、IO流、常用類等操作; 掌握Java異常處理機制; 掌握反射、網絡編程、多線程開發; 掌握Jsoup的網絡爬蟲開發; 掌握JDBC操作; 掌握ETL數據處理和BI報表開發 。 可以解決的問題: 具備JavaSE開發能力。 市場價值: 可勝任初級爬蟲工程師崗位。 |
面向對象 | 面向對象思想、類與對象、成員變量和局部變量、封裝、 this關鍵字、構造方法。 | ||
常用類 | Object類、String、StringBuilder等。 | ||
集合操作 | 數據結構、List、Set、Map等。 | ||
IO操作 | 字節輸入流、序列化、字節輸出流、Apache Commons IO等。 | ||
Java基礎增強 | 反射、網絡編程、多線程、注解等。 | ||
JDBC | JDBC基本概述、JDBC入門和步驟分析、DriverManager詳解、Connection詳解、Statement詳解、ResultSet詳解、Driver接口介紹、JDBC的CRUD操作、SQL注入分析、PreparedStatement詳解、JDBC的使用案例、連接池基礎、C3P0連接池的使用。 | ||
Maven | Maven環境搭建、Maven構建、自動化構建、本地倉庫&中央倉庫、pom.xml、依賴管理、坐標、依賴、生命周期等、IDEA下的Maven使用。 | ||
爬蟲案例 | Jsoup、MySQL高級、JDBC、ETL、BI | ||
Hadoop技術棧 | Linux操作系統高級 | Linux shell編程、awk、sed、cut、ssh、scp、expect、yum、nestat、top 、iostat等高級命令使用。 | 可掌握的核心: 掌握shell編程; 掌握ZooKeeper原理并應用; 掌握HDFS的使用和MapReduce編程; 理解MapReduce原理和調優; 掌握Yarn的原理和調優; 掌握Hive的使用和調優。 可以解決的問題: 具備Hadoop開發能力、離線數據倉庫開發能力。 市場價值: 可勝任初級Hadoop工程師崗位。 |
大數據基礎和硬件介紹 | 大數據的特點、分布式存儲概念、分布式計算的概念、服務器種類介紹、機架、交換機、網絡拓撲、Raid、IDC數據中心。 | ||
Zookeeper | Zookeeper的應用場景、架構和原理、存儲模型、選舉機制、客戶端操作。 | ||
HDFS | HDFS設計的特點、Master-Slave架構、Block塊存儲、RF拷貝因子、機架感知、Block拷貝策略、讀寫流程、HDFS Federation、HDFS Snapshots、NameNode HA架構和原理、HDFS管理員常用操作、HDFS權限控制。 | ||
MapReduce | MapReduce架構和原理、Split機制、MapReduce并行度、Combiner機制、Partition機制、自定義Partition、MapReduce序列化、自定義排序、數據壓縮。 | ||
YARN | Yarn原理和架構、Yarn高可用、Container資源的封裝(CPU、內存和IO)、資源調度策略(FIFO、Fair和Capacity)。 | ||
Hive | Hive原理和架構、HQL操作、數據類型、分區、分桶、臨時表、Meta Store服務、HiveServer內置函數、自定義UDF和UDAF、數據壓縮、存儲格式、自動化腳本、常見性能優化、explain執行計劃詳解。 | ||
項目一(在線教育) | 1、還原大型在線教育的大數據平臺。 2、建立企業數據倉庫,統一企業數據中心,把分散的業務數據集中存儲和處理。 3、項目從需求調研、設計、版本控制、研發、測試到落地上線,涵蓋了項目的完整工序。 4、挖掘分析海量用戶行為數據,定制多維數據集合,形成數據集市,供各個場景主題使用。 |
基于CM自動部署和配置、 數據倉庫建模、離線數倉架構分層、 使用Git版本控制和CodeReview、使用Oozie進行作業調度、Hive2的使用和調優、 Sqoop進行Mysql和Hive的雙向海量數據同步、使用拉鏈表完成增量數據的統計分析、使用FineReport完成數據可視化。 |
可掌握的核心: 掌握從需求、設計、研發、測試到落地上線的完整項目流程; 掌握大量教育行業的真實業務邏輯,涉及20多個主題,100多個指標; 掌握海量數據如何調優、使用拉鏈表、增量數據處理,以及Hive函數的具體應用等; 掌握基于CM的大數據環境部署和管理; 掌握數據倉庫的核心概念和應用; 掌握常用離線大數據技術:Oozie、Sqoop、Hive等; 掌握FineReport可視化。 可以解決的問題: 具備企業級離線數據倉庫開發能力,深入教育行業需求,提升學員在行業的核心競爭力。 市場價值: 可勝任Hadoop工程師、離線數據倉庫工程師、ETL開發工程師、FineReport BI開發工程師等崗位。 |
數據微服務接口開發 | Spring | Spring Boot整合Spring MVC、 使用Spring Boot整合MyBatis開發、搭建Eureka注冊中心、Feign、使用Spring Cloud Gateway搭建微服務網關。 | 可掌握的核心: 掌握SpringBoot整合SpringMVC開發; 掌握SpringBoot整合MyBatis開發; 掌握Eureka搭建; 掌握Feign的使用。 可以解決的問題: 具備后端數據微服務接口開發,可勝任通過Spring技術架構完成微服務搭建??赏瓿善髽I級數據微服務接口開發。 市場價值: 可勝任后端開發工程師崗位。 |
Spring Boot | |||
Spring Cloud | |||
實時生態圈 | 分布式緩存系統 | Redis原理及架構、Redis Cluster原理及架構、Redis常用操作、HBase原理及架構、預分區、LSM結構、Bloom Filter、co-processor、結合Phoneix進行優化查詢、Kafka原理及架構分析、分布式實時計算架構和思想、ElasticSearch開發、Logstash數據采集、Kibana數據可視化。 | 可掌握的核心: 掌握Redis原理及架構; 掌握Redis命令操作、及數據結構; 掌握Hbase原理及架構; 掌握HBase命令操作、MapReduce編程; 掌握Phoneix二級索引優化查詢; 掌握ELK開發。 可以解決的問題: 具備使用Hbase和Redis開發調優能力、ELK海量數據處理能力。 市場價值: 可勝任ELK開發工程師、Hadoop開發工程師等崗位。 |
萬億級NoSQL海量數據存儲 | |||
分布式流處理平臺 | |||
Elastic Stack | |||
Flink Stream | Flink DataStream的使用、Flink SQL開發、Flink 性能監控、Flink調優、Flink SQL執行計劃、Hive + Flink SQL、Kafka + Flink、Watermark、Checkpoint、任務調度與負載均衡、狀態管理、Flume+Kafka+Flink+Hbase+Sqoop+Canal+MySQL案例實戰。 | 可掌握的核心能力: 掌握Kafka原理及架構; 掌握KafkaStreams開發; 掌握基于Flink進行實時和離線數據處理、分析; 掌握基于Flink的多流并行處理技術; 掌握千萬級高速實時采集技術。 可解決的現實問題: 具備Kafka消息隊列開發和調優能力、Flink流式和批量數據開發能力。 市場價值: 可勝任初級實時計算開發工程師、初級Flink開發工程師等崗位。 |
|
Flink DataSet | |||
Flink Runtime | |||
Flink SQL | |||
Flink實戰 | |||
項目二(證券、物聯網任選其一) | 1、實時監控證券市場的每日業務交易,實現對證券市場交易數據的統計分析 2、搭建監察預警體系,包括:預警規則管理,實時預警,歷史預警,監察歷史數據分析等 3、股市行情交易數據實時采集、實時數據分析、多維分析,即席查詢,實時大屏監控展示 |
項目采用流處理計算引擎Flink,實時處理100萬筆/s的交易數據 基于企業主流的流處理技術框架:Flume、Kafka、Flink、Hbase等 基于Hive和Kylin的批數據處理,可進行海量多維分析 Hbase5日內秒級行情億級規模,MySQL5日內分時行情千萬級規模 T-5日內實時行情毫秒響應,T-5日外的歷史行情秒級響應 數據存儲以HDFS、Hive、Hbase應對PB級規模數據 項目涵蓋主流離線數倉的技術和OLAP分析引擎 OLAP分析引擎以Kylin和Druid實現離線和實時的指標分析 隊列服務以低延遲、高吞吐-百萬筆/秒的Kafka保障數據接收 緩存服務基于Redis的高速緩存,實現數據快速交換 TB級別的實時日處理數據、存儲PB級歷史數據 主備雙大數據平臺保障。 |
可掌握的核心能力: 掌握基于FTP、Flume + Kafka的實時數據采集開發; 掌握TB級海量規模下Flink實時處理開發,保證實時計算高容錯; 掌握三種不同時間維指標的存儲、計算方案(Druid、MySQL、HBase),例如:毫秒級\秒級\分時等時間維; 掌握基于Kylin的即席快速OLAP開發; 掌握基于Flink CEP的實時預警監控開發; 掌握基于Spring Boot的數據服務接口開發。 可解決的現實問題: 具備TB級規模下毫秒級Flink實時計算程序開發、架設能力,并具備不同應用場景下多種存儲引擎的技術引擎優化能力。以及項目上線部署、運維監控能力。 市場價值: 可勝任實時計算開發工程師、Flink開發工程師、實時數倉開發工程師等崗位。 |
Spark技術棧 | Scala語言 | Scala基礎、變量聲明、數據類型、條件表達式、塊表達式、循環、方法和函數、數組、元組、集合、Iterator、構造器、伴生對象、Akka編程。 | 可掌握的核心: 掌握Scala語言基礎、數據結構; 掌握Scala語言高階語法特性; 掌握Spark的RDD、DAG、CheckPoint等設計思想; 掌握SparkSQL結構化數據處理,Spark On Hive整合; 掌握Spark Streaming整合Kafka完成實時數據處理; 掌握Spark Streaming偏移量管理及Checkpoint; 掌握Structured Streaming整合多數據源完成實時數據處理。 可以解決的問題: 具備Spark全棧開發能力,滿足大數據行業多場景統一技術棧的數據開發,提供就業核心競爭力。 市場價值: 可勝任初級Spark開發工程師、初級大數據平臺開發工程師、初級大數據開發工程師等崗位。 |
Spark core | Spark架構和原理(運行機制、Driver和Executor、spark任務提交流程)、RDD開發和原理(Partition、Task、RDD的依賴關系、RDD的容錯機制、RDD的存儲級別、RDD的緩存機制)、廣播變量 、DAG原理(DAG思想、DAG的生成、DAG的處理過程)。 | ||
Spark sql | Spark SQL架構和原理、DataFrame、DataSet DSL和SQL開發、Spark多數據源整合(txt、CSV、Json、parquet、JDBC、Hive)、Spark SQL執行計劃原理、Spark SQL性能調優。 | ||
Spark Streaming | Spark Streaming流式開發、DStream API、整合多數據源、偏移量管理。 | ||
Structured Streaming | Structured Streaming開發(input、output、window、watermark、過期數據操作、去重等)、Structured Streaming多數據源整合(socket、Kafka)、 Flume+kafka+Structured Streaming案例實戰。 |
||
項目三 (物流、電信任選其一) |
1、基于一家大型物流公司研發的智慧物流大數據平臺,日訂單上千萬 2、圍繞訂單、運輸、倉儲、搬運裝卸、包裝以及流通加工等物流環節中涉及的數據信息等 3、提高運輸以及配送效率、減少物流成本、更有效地滿足客戶服務要求,并針對數據分析結果,提出具有中觀指導意義的解決方案 |
涵蓋離線業務和實時業務、ClickHouse實時存儲和計算引擎、 Kudu + Impala準實時分析系統、基于Docker搭建異構數據源、以企業主流的Spark生態圈為核心技術(Spark、Spark SQL、Structured Streaming)、ELK全文檢索、Spring Cloud數據微服務開發、實時監控地圖開發、存儲和計算性能調優、還原企業搭建大數據平臺的完整過程。 | 可掌握的核心能力: 掌握Docker環境部署、管理操作; 掌握基于Oracle + MySQL異構數據源數據處理技術; 掌握基于Oracle Golden Gate以及Canal的實時采集技術; 掌握Kudu + Spark的快速離線數據處理、分析技術; 掌握Kudu + Impala即席數據分析技術; 掌握基于ClickHouse高性能存儲、計算引擎技術; 掌握基于ELK的全文檢索技術; 掌握Kudu、Spark的調優能力; 掌握基于Spring Cloud的數據微服務接口開發技術。 可解決的現實問題: 具備基于Docker搭建不同數據源、實時采集開發能力,并具備構建高性能數據存儲處理大數據平臺開發能力。 市場價值: 可勝任中級Spark開發工程師、中級大數據平臺開發工程師、中級大數據開發工程師等崗位。 |
項目四 (電商、票務任選其一) |
1、分析來自全品類B2B2C電商系統,以電商核心流程為主線進行數據分析,支撐運營 2、建立基于用戶的全面分析體系,從多個維度建立基于用戶的運營體系 3、實時分析用戶訪問流量、訂單、店鋪等運營指標 |
涵蓋Kettle同步MySQL數據采集方案、JS埋點 + Flume實時用戶點擊行為數據采集方案 、Spark on hive數據倉庫解決方案、Apache Superset可視化方案、Kylin交互式快速數據分析方案、Canal MySQL業務數據實時采集方案、Flink實時ETL處理解決方案、Flink + Druid實時數倉解決方案、HBase + Phoenix明細數據實時查詢方案、Flink CEP實時風控方案、Azkaban作業調度調度方案。 |
可掌握的核心能力: 掌握Spark + Hive構建離線數倉; 掌握Kafka + Flink + Druid構建實時數倉; 掌握基于Kettle的數據ETL處理技術; 掌握離線數倉和實時數倉分層架構; 掌握基于Parquet + Snappy的存儲、壓縮技術; 掌握Spark處理數據傾斜問題; 掌握基于Redis + Flink實時ETL處理技術; 掌握基于Spark引擎的Kylin Cube構建技術; 掌握Kylin的碎片管理、Cube調優、增量構建等技術; 掌握基于Flume、Canal的實時采集技術; 掌握基于Proto Buf的高效序列化技術; 掌握基于HBase + Phoenix的快速數據查詢技術; 掌握基于Flink CEP的實時風控處理技術; 掌握基于Superset的BI開發技術。 可解決的現實問題: 具備主流Spark + Hive離線數倉開發技術,并具備海量數據處理性能調優能力,具備實時數倉架構能力,構建毫秒級的實時計算平臺。 市場價值: 可勝任高級離線數倉開發工程師、高級實時數倉開發工程師、高級大數據開發工程等崗位。 |
可選擇線下或線上 | |||
大數據平臺化開發 | 大規模大數據集群部署、大規模集群運維監控 | 涵蓋主流的一些大數據平臺,涵蓋CDH、HDP、Apache、云平臺等部署方案,引入各家的最佳實踐。包含基于平臺下的各個組件的運維,包括Prometheus、Zabbix、Grafana、Eagle、CM、Ambari、Ganglia等。 | 可掌握的核心能力: 掌握大數據組件的常用運維方法解決實際的運維方案; 掌握大數據框架必備的數據結構及常用的數據結構; 掌握企業級大數據架構原理及源碼深入剖析; 掌握PySpark、PyFlink等Python大數據生態技術; 掌握大數據數據挖掘常見的算法及應用場景; 掌握數據中臺構建思路及實戰; 掌握數據科學常見的問題方法; 掌握大型互聯網公司常見面試題。 可解決的現實問題: 具備大數據平臺運維能力; 具備企業數據中臺構建能力; 具備大數據數據挖掘、機器學習模型開發、調優能力; 具備Apache頂級項目二次開發能力、源碼級調優開發能力; 具備大型企業大數據平臺架構能力。 市場價值: 直通BAT等大廠。 |
大數據數據中臺 | 大數據數據體系建設、管理 | 基于Altlas元數據管理工具進行數據血緣分析、構建數據地圖,構建統一存儲計算平臺,建立數據類目體系、標簽類目體系、數據資產管理,并基于數據中臺構建數據應用服務。 | |
大廠解決方案實戰 | 出行、電商、視頻、社交等領域大數據解決方案 | 大型門戶可視化任務提交解決方案、大型旅游出行服務平臺統一性能監控平臺解決方案、B2B2C電商集中實時采集消息隊列存儲方案、出行平臺實時風控性能調優方案、大型電商雙十一千萬級實時處理調優、視頻網站海量用戶行為數據計算調優。 | |
大數據常見架構與設計 | 一線大廠技術架構 | 美團點評實時數倉架構、拼多多離線數倉架構、小米快速OLAP分析架構、抖音小視頻實時推薦架構。 | |
新零售項目實戰 | 新零售大數據項目實戰,離線實時全覆蓋 | 本項目基于國內大型新零售巨頭開發的大數據平臺,基于高性能方案構建離線數倉、以及實時數倉。該項目涵蓋完整的業務,包括銷售、屢單、會員、促銷、商品、客戶等主題,每個主題涵蓋大量真實的業務場景,項目手把手帶著學生開發基于新零售場景下的離線、實時業務。本項目采用Hive+Presto架構構建高性能的離線處理方案,并采用基于ClickHouse的實時數倉,實現秒級OLAP分析。 | |
工業大數據項目實戰 | 制造業大數據項目實戰 | 本項目基于國內大型的設備制造商大數據項目開發。該企業在全球范圍內銷售設備,設備涵蓋加油站相關的所有,例如:加油機、油罐建設、加氣機、自助設備等設備生產制造、設計、銷售,并提供全球性的服務。在國內重點客戶為:中國石油、中國石化、以及各個地域的大型企業。在國內,業務覆蓋的油站約8W座,設備數量50W臺。拿加油機設備來說,一臺設備包含了眾多的配件,每個配件的維護,設備信息的上報,服務工作人員的調度、GPS跟蹤定位等,企業經過多年的經營,積累了海量的數據。集群公司為了能夠確保企業精細化運營,決定進行數字化轉型,依托于大數據技術,以客戶、生產、服務、運營為核心,打造一個全方位的數字化平臺。 | |
大數據數據挖掘 | 企業級大數據數據挖掘解決方案 | 機器學習基礎、SparkMl&SparkMllib基礎實戰、Python核心基礎、Python數據科學庫基礎(Numpy、Pandas、Matplotlib、Seaborn、Imblearn-Learn、Scikit-Learn)、Python數據挖掘案例、PyHdfs、PyHive、PyHbase、Kafka-Python、PySpark、PyFLink案例實戰。 | |
BAT直通車 | 互聯網公司常見面試題及應用場景剖析 | BAT大數據常見的面試精選題、一線大廠多領域場景剖析、HDFS、MapReduce、Hive、Flume、Sqoop等面試題精講、Spark、Spark Streaming等面試題精講、Flink面試題精講、底層數據結構面試題精講。 |
備注:該課程大綱僅供參考,實際課程內容可能在授課過程中發生更新或變化,具體授課內容最終以各班級課表為準。
每晚對學員當天知識的吸收程度、老師授課內容難易程度進行評分,老師會根據學員反饋進行分析,對學員吸收情況調整授課內容、課程節奏,最終讓每位學員都可以跟上班級學習的整體節奏。
為每個就業班都安排了一名優秀的技術指導老師,不管是白天還是晚自習時間,隨時解答學員問題,進一步鞏固和加強課上知識。
為了能輔助學員掌握所學知識,黑馬程序員自主研發了6大學習系統,包括教學反饋系統、學習難易和吸收分析系統、學習測試系統、在線作業系統、學習任務手冊、學員綜合能力評定分析等。
末位輔導隊列的學員,將會得到重點關心。技術輔導老師會在學員休息時間,針對學員的疑惑進行知識點梳理、答疑、輔導。以確保知識點掌握上沒有一個學員掉隊,真正落實不拋棄,不放棄任何一個學員。
從學員學習中的心態調整,到生活中的困難協助,從課上班級氛圍塑造到課下多彩的班級活動,班主任360度暖心鼓勵相伴。
小到五險一金的解釋、面試禮儀的培訓;大到500強企業面試實訓及如何針對性地制定復習計劃,幫助學員拿到高薪Offer。