大数据开发个人简历参考「精选篇」
编辑:幻主简历 时间:2024-04-05 来源:幻主简历

如何撰写一份既能凸显你大数据开发能力,又能吸引招聘者眼球的简历呢?接下来,我们将通过一份精选的大数据开发个人简历参考案例,来帮助大家撰写一份令人印象深刻的简历。

大数据开发个人简历参考.jpg

大数据开发个人简历参考「精选篇」:

求职意向

求职类型:全职   

意向岗位:大数据开发   

意向城市:广东广州   

薪资要求:面议   

求职状态:随时到岗   

教育背景

时间:20xx.9-20xx.6   
学校名称:幻主简历大学   
专业名称:信息管理与信息系统   
学校描述:主修课程:管理信息系统 信息资源管理 经济学原理 运筹学 信息系统开发与管理 ERP 计算机网络 数据库原理
辅修课程:企业资源计划 企业管理 人力资源管理 客户关系管理 财务管理 会计学 组织行为学
GPA:3.86/5(专业前10%) 已过英语四、六级,计算机二级

实习经验

时间:20xx.9-20xx.5   
公司名称:广州幻主简历有限责任公司   
职位名称:(大数据开发实习)   
实习公司:杭州小草信息技术有限公司
项目名称:防刷票反爬虫系统
项目描述:通过一定的规则帮助公司进行同一用户识别,避免单一用户对商品进行大量采购、囤货,从而导致价格波动异常,对疑似同一用户进行标注,当人工确认其为同一用户之后,对其进行商品购买限制。
软件环境:nginx、lua、kafka、SparkStreaming、redis、mysql
系统架构:
一、通过lua脚本获取官网的http请求数据,进行数据条数的统计和日志记录,之后写入kafka生成端 ;
二、使用SparkStreaming拉取kafka中的数据,对拉取到的数据进行数据处理,并把处理后的数据推送到kafka中; 三、使用SparkStreaming再次从kafka中拉取处理后的数据,对拉取来的数据进行实时计算,将计算结果实时推送给redis,mysql保存计算结果;
四、从redis中读取实时数据进行可视化展示。
项目职责:
1.用nginx+lua+kafka技术,将数据采集到kafka;
2.使用sparkStreaming,对数据进行处理。即过滤不需要的请求,对过滤后的数据进行解析,将数据转成json之后发送给kafka ;
3.使用sparkStreaming计算规则。从数据库读取流程信息,计算出流程下的规则指标(如单位时间IP请求次数),以总体规则判断当前IP是否为爬虫。
2017.01-2017.08
(Java开发实习)                                          
实习公司:广州幻主简历有限责任公司  
项目名称:电商系统
项目描述:网上商城是一个综合性的B2B2C平台。商家可申请入驻到平台进行商品销售,会员可浏览商品、搜索商品、使用购物车、购买商品下订单,以及参加秒杀团购等各种活动。网站前台共分为门户、搜索、商品详情页、购物车、秒杀、用户中心、单点登陆系统等7个模块以及商家管理后台和运营商管理后台两个管理后台。
软件环境:SSM(springmvc+spring+mybatis)、dubbox、angularJS + Bootstrap、freemarker、nginx、solr、redis、Activemq、mysql、mycat
系统架构:
一、系统是基于SOA架构设计,采用当当的dubbox作为服务中间件,前端采用angularJS + Bootstrap,操作简便用户体验好;
二、商品详细页使用freemarker做静态化页面来提高系统的性能,使用nginx做负载均衡服务器以应对大规模的用户量的并发;
三、电商搜索系统采用当前最流行的全文检索技术solr集群实现;
四、系统中使用redis集群做缓存,使用Activemq做消息中间件;
五、后台数据库使用mysql数据库,使用mycat做读写分离。
项目职责:
1.采用一个FastDFS一个分布式文件系统来保存电商系统文件,解决商品图片过多问题,解决了存储空间的水平扩展、负载均衡以及服务器的高可用问题;
2.通过使用redis解决系统缓存问题,为了便于对缓存数据进行管理,采用hash(键值对)格式来存储;
3.使用solr作为全文检索服务器,实现搜索功能。在solr中配置跟业务相关的业务域,从数据库中把相关的数据导入到索引库中;
4.搭建SolrCloud集群,通过zookeeper+solr实现,使用SolrCloud处理数据量大、并发量高的搜索。

自我评价

1.不管是读万里书,还是行万里路,最重要的是人一直保持学习和向上的心态在路上,平时会阅读大数据以及机器学习等各个领域官方文档,并且在GITHUB\CSDN\博客园等积极学习,同时踊跃参加ApacheCN的官方文档翻译活动。
2.坚守自己的人格,热爱生活并努力活在当下,积极扩展和延伸知识面,努力做到与时俱进并且将知识与理论相结合,将知识的触角努力伸到各个领域,活到老,学到老。
3.乐于助人、坦诚率真;严于律己,宽于待人。平时在项目中积极和同事进行沟通和交流,互帮互助共同完成任务,在生活中也对新兴的知识进行探讨和学习,一起成长,一起进步。
4.力所能及做好每一件事,自认为在每一个角色做好每一件分内的事便是尊严,也是自我价值的体现。在学习和工作中付出汗水,收获成长,明白真正的顺其自然是竭尽所能之后的不强求,而不是两手一摊的不作为,努力做到在学习、生活以及工作中尽量少留下遗憾。
5.革命尚未成功,路还很长,需要保持热情与持久的耐心,一路学习,在思考中前行,在总结中积累,在反思中沉淀,收获成长!

专业技能

一、语言
能够使用Java进行编程;
 能够使用scala进行Spark操作;
 能使用Linux基本的操作命令,熟悉shell脚本编程;
 能够使用python2.7部署爬虫;
 能够顺利阅读开源网站,较好的英文阅读能力;
二、数据分析框架
1.Hadoop
理解hadoop的分布式文件系统,能够搭建Hadoop架构和Hadoop集群,并能使用CDH快速部署集群;
掌握MapReduce原理,能够根据业务需求完成Map/Reduce编程;
2.Spark
熟悉Spark任务调度和资源调度过程,会使用Spark常用的算子;
能够独自完成Spark集群的搭建,能使用SparkSQL、进行数据查询、分析、统计;
能够使用Spark Sql进行数据处理和能够使用SparkStreaming进行流式计算;
3.Flink
了解Flink工作流程以及了解运行原理;能够使用Flink进行流式计算,对数据进行流处理、批处理;
三、数据传输工具
1.Flume:会使用Flume收集数据,能够独立完成其集群的部署;
2.Kafka:理解kafka的工作机制,能够独立完成其集群的部署;
3.Sqoop:能够使用Sqoop工具,实现非关系型数据库与非关系型数据库表数据交互;
四、数据库技术
1.hive:会编写hql语句进行业务处理,以及hive的优化 ;
2.Hbase、Redis:理解hbase的存储原理,可以进行基础的操作;
3.Mysql:能够对Mysql数据库进行数据操作,会使用JDBC等工具;
五、其他
了解ELK技术栈、SSM框架、ElasticSearch、Solr服务器、Azkaban、Oozie定时任务原理、机器学习、推荐算法;

工作项目经验

2017.02-2019.08
0.5年电商系统Java开发经验/2年金融大数据、气象大数据、第三产业大数据开发经验
2019.02-2019.08
(大数据开发)
任职公司:广州幻主简历有限责任公司  
项目名称:杭州银行大数据平台
项目描述:公司承接了杭州银行金融风控平台的开发工作。开发完成的模块有:风险查询,用户真实性查询,事件管理,黑名单展示,监控警告,用户管理,权限管理等。项目集合了传统ERP系统的功能,并整合了大数据架构及相关技术,通过GBDT+LR算法构建模型有效对风险进行预估,并对涉黑用户进行预警和管理。
软件环境:spark、flume、hbase、solr、zookeeper
系统架构:
一、将本行存储在Oracle数据库中的现有用户信息,黑名单信息同过ftp服务器可将dbf文件下载到HDFS当中 ;
二、通过用户手机号确定通讯地址,GPS确定用户所在位置,APP权限获取wifi位置,IP地址等,这些类直接整合成字段,下沉到Hive表;
三、基特征工程与用户画像进行基于规则的金融风控系统;
四、基于邻接点算法的社交网络设计。
项目职责:
1.将人行征信(企业及个人),联网核查身份信息,公安部对外集中查控等第三方数据整合进Hive中去 ;
2.对上述信息进行特征工程,对字段进行更细粒度的划分,并建立新表;
3.建立风险查询服务;
4.定期对老数据进行清洗,空出更多的存储空间;
5. 将特征工程代码上传到服务器,并及时更新业务相关代码;
6.同设备客户数大于N的设备、IP距离大于N公里且为新开账户、SIM卡号与IP距离大于N公里、短时间内注册数太多、频繁调整额度进行标注,用户发出预警,并延长审核时间,将有信用污点的用户加入黑名单;
7.建立实时业务线,整合内存数据库Memo-cache,Spark Streaming,并利用内存和SSD建立索引和存储服务,提高并发能力;
8.建立线下预警业务,不允许黑名单和满足反欺诈规则用户线下申请;
9.利用邻接点算法计算用户影响及权重;
10.利用接口读取到的通话记录,通讯录,社交媒体等信息建立社交网络。
2018.06-2019.01
(大数据开发)
任职公司:广州幻主简历有限责任公司  
项目名称:气象数据实时处理平台
项目描述:本项目基于spark-streaming的流式处理功能,实现了实时统计自动站各要素观测值的功能,并提供了实时查询各种要素统计数据的服务,为预报员和其他气象工作人员提供了精准的自动站实况和要素统计数据。
软件环境:spark、flume、hbase、solr、zookeeper
系统架构:
一、本项目采用了flume技术,spark-streaming技术、CDH技术和hbase技术;
二、flume技术完成自动站数据从观测台站到CDH平台的实时发送;
三、spark-streaming技术实现对自动站数据的流式处理和要素统计的并行化处理,以提高运算时效;
四、hbase为系统提供数据存储服务,CDH技术为系统提供平台支撑和运行环境。
项目职责:
1. 负责将自动站原始数据转为离散流对象序列进行入库操作;
2. 负责自动站常规要素中的温度极值,风极值以及的实时统计;
3. 参与Hbase的二级索引的构建工作。

志愿者经历

2016.06-2016.09
中国银行
数据分析员、信息处理员
数据分析:整理并分析以及处理公司工作报告、总结、规划、计划、决议和通告等数据,负责大事记和有关资料的数据采集、数据整理等数据管理工作。
信息处理:负责上级交办的各种信息处理以及分类、汇总工作。收发有关信息文件、信函等。做会议记录,整理会议信息摘要和信息简报,了解会后的贯彻执行情况。

技能特长

1.良好的信息素养,在专业学习的过程中,养成乐良好的信息处理习惯,有良好的信息检索以及处理能力;
2.敏锐的信息嗅觉,对信息具有较强的敏感程度,养成透过信息发掘内在本质的习惯,增强数据挖掘的能力;
3.较为专业和全面的数据分析和处理能力,对数据进行归纳、分类、总结,同时得出结论和现象本质;
4.结构化思维,善于对数据进行归纳、分类以及结构化处理,发掘数据内在结构联系以及更深层次的价值,利于使用大数据技术以及更好体现大数据价值;

简历在线制作下载(传送门):立即在线制作

《大数据开发个人简历参考「精选篇」.doc》
将本文的Word文档下载到电脑,方便收藏和打印
推荐度:
点击下载文档
资讯来源说明:本文章来自网络收集,如侵犯了你的权益,请联系QQ:509053849。
继续阅读相关文章
最新更新