JAVA小谢:都是网上抓的资源,随便下载,弄了玩的

大数据工作岗位求职简历(优秀篇)

时间:2025-05-20 06:12:00 简历模板资源网 简历范文

【#大数据工作简历范文#】简历不仅是个人经历的罗列,更是展示独特优势的关键。 以下是小编整理的大数据工作简历范文,同时,简历模板资源网还提供精美简历模板免费下载,欢迎大家阅读参考。

大数据优秀篇

个人信息

姓名:张三

意向岗位:大数据

意向城市:广东广州

电话:xxx

邮箱:xxx

性别:男

年龄:28岁

毕业院校:xxx大学

籍贯:广东广州

教育背景

时间:20xx.9-20xx.6

学校名称:xxx大学

专业名称:软件工程

GPA:3.8/4.0

排名:前10%

学术奖学金:获得国家奖学金

校内活动和荣誉:曾任职学生会宣传部部长,获得“优秀学生干部”称号

工作经验

时间:20xx.9-20xx.6

公司性质:私营企业

所属行业:互联网

公司名称:xxx有限公司

担任职位:大数据开发工程师

工作描述:

  1. 参与公司内部大数据平台的搭建与维护,优化数据处理流程,提升数据处理效率。

  2. 负责公司大数据平台的数据清洗、数据分析、数据可视化等工作。

  3. 开发并维护基于Spark和Hadoop的大数据处理系统,实现数据的实时分析与处理。

  4. 与团队成员紧密合作,完成公司各类数据项目的开发与优化。

工作成果:

  1. 在职期间,负责的数据清洗项目将数据处理效率提升了30%。

  2. 优化了公司内部的数据分析流程,使得数据处理速度提升了40%。

  3. 通过大数据分析,为公司制定了一套有效的营销策略,提升了公司业绩20%。

项目经验

时间:20xx.8-20xx.10

项目名称:xxx项目1

项目角色:后台开发

项目描述:

该项目是基于B2C模式的电子商务网站,经营范围包括数码相机、镜头、胶片机、摄影必备、摄像机等。本项目主要包括后台管理系统、前台交易系统、用户认证系统、搜索系统、支付系统及其周边系统采用SOA面向服务的分布式架构方式进行开发,并采用分布式和集群的方式将业务系统进行部署。

责任描述:

  1. 商品发布模块、购物车模块、用户模块、商品秒杀;

  2. 商品发布模块包括:商品分类的加载、图片上传;

  3. 购物车模块包括:添加购物车功能、迷你购物车功能、操作购物车功能;

  4. 用户模块包括:用户的注册登录、用户账户验证;

  5. 秒杀模块包块:解决超卖和少卖的问题;

技术描述:

  1. 使用Cookie+Session+DB实现购物车,根据用户的登录状态分为6种情况;

  2. Session作为登录状态下的购物车缓存,用户登录的时候,还要分情况进行Cookie和DB购物车的合并;

  3. 用Zookeeper和Dubbo搭建服务接口,实现不同应用模块之间的相互调用;

  4. Redis借助LUA脚本解决秒杀的超卖问题;

  5. 前后台数据的传输与存储采用JSON格式;

时间:20xx.12-20xx.4

项目名称:xxx项目2

项目角色:后台开发

项目描述:

项目描述:数据统计分析平台针对用户不同行为记录用户一个Session中所有Action的日志。以这些日志为基础,通过大数据技术分析计算,平台对网站的各种用户行为(访问行为、购物行为、广告点击行为等)进行分析。从而帮助决策者更好地制定公司发展策略,最终达到用大数据技术来帮助提升公司的业绩、营业额以及市场占有率的目标。项目主要使用了Spark Core,Spark Sql,Spark Streaming技术和Flume、Kafka、MapReduce、Hive、Zookeeper框架实现了用户访问Session统计的需求。

责任描述:

  1. 参与整体框架的设计与搭建,框架间的兼容性调整;

  2. 调优Flume数据采集过程,保证数据的完整性和可靠性;

  3. 编写MapReduce,对离线数据进行清洗;

  4. 编写Shell脚本,将Hdfs数据导入Hive表中;

  5. 利用SparkCore和SparkSql进行离线分析;

  6. 利用SparkStreaming和Kafka低级消费者API进行实时需求分析;

  7. Spark性能调优;

技术描述:

  1. Flume数据采集的设计,集群的搭建;

  2. KafkaSink可以通过自定义拦截器来设置某个Event的Header中的Key或者Topic属性;

  3. 借助SparkStreaming编写Kafka低级消费者API,利用Spark的CheckPoint切断血缘关系,并且借助Zookeeper框架实现偏移量的维护,进行实施需求的处理;

  4. 借助自定义累加器分析得到Session各范围访问步长、访问时长占比统计;

  5. 借助广播变量来保存计算的到的随机抽取索引表来对Session进行抽取;

  6. 利用SparkSql中的开窗函数统计各区域Top3商品;

  7. 借助updateStateByKey算子统计实时广告点击量;

  8. 通过reduceByKeyAndWindow算子统计最近一小时广告实时点击量;

实习经验

时间:20xx.9-20xx.6

公司名称:xxx有限公司

职位名称:大数据开发实习生

实习描述:

在实习期间,主要负责公司内部大数据平台的搭建与维护,优化数据处理流程,提升数据处理效率。

工作内容:

  1. 参与公司内部大数据平台的搭建与维护,优化数据处理流程,提升数据处理效率。

  2. 负责公司大数据平台的数据清洗、数据分析、数据可视化等工作。

  3. 开发并维护基于Spark和Hadoop的大数据处理系统,实现数据的实时分析与处理。

  4. 与团队成员紧密合作,完成公司各类数据项目的开发与优化。

工作成果:

  1. 在职期间,负责的数据清洗项目将数据处理效率提升了30%。

  2. 优化了公司内部的数据分析流程,使得数据处理速度提升了40%。

  3. 通过大数据分析,为公司制定了一套有效的营销策略,提升了公司业绩20%。

自我评价

为人稳重、大方,认真对待工作,开朗自信,待人真诚,有优良的团队精神,强烈的责任心,良好的沟通协调能力。决策能力、计划能力、谈判能力强,具备良好的敬业精神和职业道德操守,有很强的感召力和凝聚力。

专业技能

  1. 熟悉Hadoop平台上的MapReduce、Hive、Spark应用维护与管理;

  2. 熟悉基于Hadoop的MapReduce、Hive、Hpark应用开发;

  3. 熟悉Spark Core,Spark Sql, Spark Streaming的Scala开发;

  4. 熟悉Hbase工作机制、集群的搭建、相关应用的开发;

  5. 熟悉Kafka的工作原理和高级、低级API的相关开发;

  6. 能够使用Hive进行海量数据的查询分析;

  7. 熟悉使用Flume采集日志,及相关优化设计;

  8. 熟悉Redis缓存数据库的储存机制,主从复制、集群搭建、Redis持久化方式,如AOF,RDB;

  9. 熟悉Linux操作系统、常用命令及Shell脚本;

10. 熟悉JVM的内存结构,调优及GC算法;

11. 熟悉MySQL日常操作,了解Sql优化;

12. 熟悉SSM等后台框架的基本应用;

《大数据工作岗位求职简历(优秀篇).doc》
将本文的Word文档下载到电脑,方便收藏和打印
推荐度:
点击下载文档

【大数据工作岗位求职简历(优秀篇)】相关文章: