python简历工作经历范文(5篇)
编辑:幻主简历 时间:2024-12-20 来源:幻主简历

【#python简历#】简历的质量直接关系到求职的成功与否。那么,如何写好一份简历呢? 以下是小编整理的python简历工作经历范文(5篇),同时,幻主简历网还提供精美简历模板以及简历在线制作工具,欢迎大家阅读参考。

python简历工作经历范文1:

时间:20xx.6-20xx.3公司名称:幻主简历xxx有限公司1职位名称:Python爬虫工程师



  • 根据开发需求,独立构造并实施了5个项目的详细方案,成功提升了项目执行效率20%

  • 对10个目标站点进行深入的结构分析,实现了页面高效抓取,数据提取准确率提升至98%,并完成了数据的清洗及结构化入库工作,数据量累计达百万级

  • 负责后续采集系统的日常维护,通过定期优化,系统稳定性提高了30%,故障率降低至原来的1/5

  • 高效完成领导安排的各项任务,包括紧急数据采集任务3次,均按时完成并超出预期目标

时间:20xx.6-20xx.5
公司名称:幻主简历xxx有限公司2
职位名称:Python爬虫工程师

  • 精准把握开发需求,设计并实施了6个爬虫项目的实施方案,有效缩短了项目周期15%

  • 对复杂目标站点进行深度解析,实现了数据的精准抓取与高效清洗,入库数据量日均增长5万条

  • 更新并维护了代理IP池和cookies池,通过持续优化,爬取成功率从80%提升至95%

  • 积极响应领导安排,完成了4次特殊数据采集任务,均获得高度评价

时间:20xx.7-20xx.6
公司名称:幻主简历xxx有限公司3
职位名称:Python开发工程师

  • 依据开发文档和需求,独立完成了10个功能模块的研发工作,代码质量高,可维护性强

  • 完成了20个业务对应的后端接口开发,并撰写了详尽的说明文档,为前端团队提供了有力支持

  • 在团队协作中,主导修复了15个关键bug,有效提升了系统稳定性,并参与了项目的整体优化工作,性能提升10%

  • 高效完成领导安排的其他开发工作,包括紧急需求响应3次,均快速响应并圆满完成

时间:20xx.9-至今
公司名称:幻主简历xxx有限公司1
职位名称:Python后端开发+深度学习+爬虫

  1. 独立完成了3个web后台的搭建工作,项目实现逻辑清晰,数据库设计合理,有效支撑了业务的高效运行

  2. 针对客户提出的算法需求,成功实现了5种算法的效率优化,并具体实现了3种新算法,提升了业务处理能力

  3. 深入研究了深度学习相关论文,成功复现了2篇论文的模型,并完成了业务化部署,从开发到部署的整个流程均独立完成,项目上线后效果显著

python简历工作经历范文3:

时间:20xx.7-20xx.7
公司名称:幻主简历xxx有限公司2
职位名称:Python后端开发工程师

  1. 基于Python成功实现了公司Web产品后台项目的10个功能开发、调试和维护工作,确保了系统的稳定运行

  2. 根据公司设计文档或需求说明,独立完成了8个功能模块的编写工作,代码质量高,逻辑清晰

  3. 严格遵循RESTful风格对接口进行设计,完成了20个API接口的开发工作,提升了系统的可扩展性和易用性

  4. 全程参与了2个web项目的分析、设计、开发及后续部署等工作,为项目的成功上线做出了重要贡献

  5. 协助测试工程师完成了功能模块中基础功能的测试工作,及时修改了发现的10个Bug,确保了系统的质量

python简历工作经历范文4:

时间:20xx.6-至今   
公司名称:幻主简历公司1   
职位名称:运维开发工程师   
产品介绍:
《STK监管平台》采用Jenkins体系,提供了基于Prometheus架构与ELK架构的物联网内部监控管理系统;集成了告警管理,监控管理,日志管理以及事件管理等多种功能,因而具有较强的实用性、统一性、事件性和安全性
职责范围:
首要,负责运维监控体系、日志采集方案的建设、维护和实施;
主要,负责接口公司IT支撑部、信息安全部的监控类相关工作;
次要,负责部门统一日志监控告警平台的设计和开发工作。
工作业绩:
1、搭建Prometheus高可用监控系统,建设监控自动化接入Jenkins任务。承载部门15个区域,2000多台服务器,25类监控接入与管理。并创建自动备份任务,使监控数据冷存储1年,在线存储6月
2、搭建ELK基于k3s+docker高可用日志系统,建设日志自动化接入Jenkins任务。承载了部门15个区域,2000多台服务器,并支持3种日志类型采集,采集量可达100亿条/日。并使用elasticsearch-curator索引存储自动化管理工具,对日志数据冷热转换及合并关删操作
3、STK监管平台开发。利用django+celery+vue3实现了日志监控全生命周期管理、ES集群管理、告警管理及事件管理,为业务侧提供了平台化的日志监控管理工具
4、golang自定义Exporter编写。为业务侧提供用户个性化定制监控工具,共计编写了5类
5、实现日志、监控服务基于云原生的建设维护;为部门智慧安消平台提供了云原生环境下基于loki、grafana的日志、监控能力,支撑业务侧进行容器编排环境下,服务监控和日志排查等工作
6、实现基于SRE方法论的黄金指标监控及告警对全量业务的覆盖,优化了监控看板,提升了看板的可读性
7、保障了各项目(行车卫士、路尚、车务通、网关)新环境部署业务监控、业务日志的监控生命周期管理,及相关故障处理、使生产环境业务监控日志有7*24小时运作
时间:20xx.5-20xx.9   
公司名称:幻主简历公司2   
职位名称:运维开发工程师   
产品介绍:
《Knowru平台》是一款专为金融数据分析提供快速构建数据模型并提供API的模型构建系统。平台目前在美洲及东南亚部分地区银行及贷款公司运用,在国内主用于小雨点公司。平台主要由国外团队开发,国内人员辅助开发及维护。  
职责范围:
负责Knowru平台的维护与优化
工作业绩:
1、全方位测试Knowru平台,编写测试报告,并完善平台操作使用手册,采用了Curl命令行测试,以及Postman压力测试,并运用Typora编写测试分析文档
2、部署Knowru平台在AWS云平台北京服务区,基于AWS云服务部署,运用Ubuntu 16.04系统,Docker-ce容器等各项技术支持
3、实现用户无操作定时(session time out)退出,基于Django框架,采用SimpleJWT JSON Web认证机制
4、实现支持R语言构建数据模型,运用Docker打包R相关镜像
5、实现在AWS上创建docker-machine时,用存在的密钥对,采用boto3模块,完善参数
时间:20xx.8-20xx.4   
公司名称:幻主简历公司3   
职位名称:Python后端开发工程师   
产品简介:
《SAM周界安防报警集成平台软件》是为机场及需要保护区域订制的一款专属周界安防智能预警和报警管理系统;SAM平台已成功在杭州萧山国际机场、郑州新郑国际机场、昆明长水国际机场和成都双流国际机场等多个区域安装运行。
职责范围:
首要,负责软件平台相关API(应用程序接口)开发工作;
主要,负责协助软件平台数据库开发及测试;
其次,负责协助软件平台测试及现场安装、调试工作。
工作业绩:
1、建立SAM平台与Peclo摄像机之间的通讯,采用RJ485串口服务器通讯协议
2、建立SAM平台与视频平台之间的通讯,采用RabbitMQ、HTTP、ZeroMQ通讯协议
3、建立SAM平台与迈高报警平台之间的通讯,提供SDK软件开发工具包,采用TCP/IP传输协议
4、建立SAM平台前端与数据库之间的通讯,运用RESTful API Web Service模式,采用Sanic与Sanic JWT框架,并运用apiDoc工具编写接口文档
5、建立SAM平台后端数据库,参与后端数据库开发,采用PostgreSQL数据库
6、测试SAM平台,配置网络、前端设备与服务器,编写测试报告与配置说明文档,采用Markdown文档编辑器
7、建立三方数据处理API,将前端设备报警数据与对应数据库数据进行运算,并将结果发往前端,采用RabbitMQ协议与MongoDB数据库
8、安装部署SAM平台到服务器,采用Docker镜像部署

python简历工作经历范文5:

时间:20xx.7-20xx.8
公司名称:幻主简历xxx有限公司1
职位名称:Python工程师

  • 需求分析与文档编写:深度参与了5个项目的需求分析工作,准确理解业务需求,并撰写了详细的需求文档和业务逻辑流程图,文档质量高,为项目后续开发奠定了坚实基础。

  • 性能优化:针对公司核心系统进行了性能优化,通过重构代码、优化数据库查询等方式,成功将系统响应时间缩短了30%,显著提升了用户体验。

  • 新技术研究与应用:积极学习并引入了3项新技术到项目中,包括最新的Python框架和机器学习算法,有效提升了项目的技术水平和开发效率。

  • 数据分析与机器学习:负责公司数据分析工作,利用Python和机器学习技术,对海量数据进行了深入挖掘和分析,为公司决策提供了有力的数据支持。同时,参与了2个机器学习模型的构建和训练,模型准确率均达到了90%以上。

  • 项目升级与维护:参与了公司多个项目的后期升级工作,负责了新功能的开发和老功能的优化,确保了系统的稳定运行和持续迭代。

  • 代码编写与WEB后端开发:负责了公司WEB后端代码的编写工作,完成了10个功能模块的开发,代码质量高,可维护性强。同时,解决了在开发过程中遇到的多个技术难题。

  • 多平台数据采集:设计并实现了多平台的数据采集方案,成功从5个不同平台采集到了海量数据,为公司的数据分析和业务决策提供了丰富的数据资源。

  • 反爬策略制定与实施:针对数据采集过程中遇到的各种反爬问题,制定了有效的反爬策略,并成功实施了3次反爬措施,有效提升了数据采集的效率和稳定性。

  • 分布式爬虫框架设计:参与了分布式爬虫框架的设计工作,负责了框架的核心模块开发,框架上线后,爬虫效率提升了50%,大大缩短了数据采集的时间成本。

简历在线制作下载(传送门):立即在线制作

《python简历工作经历范文(5篇).doc》
将本文的Word文档下载到电脑,方便收藏和打印
推荐度:
点击下载文档
资讯来源说明:本文章来自网络收集,如侵犯了你的权益,请联系QQ:509053849。
继续阅读相关文章
最新更新

联系客服

很高心认识你,感谢选择幻主简历
如遇问题,可快速联系客服解决

客服在线时间 :8:00-24:00

返回顶部