硕博人才网 (http://www.shuobo114.cn) | 网站首页 打印简历 添加到人才库 |
王红迁的个人简历更新日期:2018-02-02 学历:硕士 工作经验:3-5年 浏览:6次
|
||||
基本信息 | ||||
真实姓名: | 王红迁 | 性别: | 男 | |
年龄: | 29 岁 | 身高: | 170CM | |
婚姻状况: | 未婚 | 户籍所在: | 山东兖州 | |
最高学历: | 硕士 | 现有职称: | ||
联系地址: | 安徽合肥 | 工作经验: | 3-5年 | |
刷新时间: | 2018-02-02 | 有效期至: | 2016-09-09 |
求职意向 | |||||
期望工作地点: | 江苏、西安、重庆、四川、山东 | 期望岗位性质: | 全职 | 期望月薪: | 面议元/月 |
期望从事的岗位: | 职业技术教师 高等教育 教育培训 讲师/助教 | ||||
期望从事的行业: | 院校/高等教育 学术科研/院所 互联网/电子商务 |
教育经历 | |||||
最高学历: | 硕士 | 毕业学校: | 东南大学 | 所学专业: | 软件工程 |
教育背景: | 2010年09至2013年06 东南大学 软件工程 2011-2012 参加NI的《NI 2012年毕业设计竞赛》获得二等奖并收录在《NI 2012毕业设计竞赛获奖论文简介》; 2010-2011 东南大学软酷网项目实训团体二等奖、东南大学三好研究生及苏州市工业园区独墅湖奖学金; 2005年09至2009年06 聊城大学 信息与计算科学 |
技能特长与工作经验 | |||||
外语语种: | 英语 | 语种水平: | 熟练 | 电脑水平: | 精通 |
技能描述: | 本人具有数学和计算机专业背景,基础知识扎实。工作期间,从事Java系统、大数据平台和大数据分析以及数据检索的工作。熟悉HDFS、MapReduce、Storm、Spark、Hive、Hbase、Mahout、Sqoop、Flume、Python、Java、Mysql、Shell、Linux开发工具。 我的学习能力,科研能力出众,并且性格开朗,善于与人交流合作。 |
||||
工作经历: | A、2015年08— 至今 科大讯飞股份有限公司 云平台研发部大数据平台工程师 (1)云知道大数据检索平台:旨在利用SolrCloud、Thrift-Rpc、HDFS、Hbase、MapReduce、RocketMQ、Tomcat及Java技术实现讯飞语音云和AiUi系统的日志查询平台,日志每天新增4亿条,该平台可以实现实时和离线索引,提供多个关键字段查询、详细日志查询以及日志下载的服务。 (2)大数据统一分析平台:旨在利用MapReduce、HDFS、Avro、SequenceFile、Mysql、Flume、Oozie及Java技术实现从原始日志到各种分析结果的自动化分析框架,该框架可以支持Avro、Sequence、Json、Text等格式的文件并且业务的分析只需要用户给出数据处理的脚本和配置文件即可,这样提高分析报表的开发效率,方便更好的管理数据分析任务,并将该系统融入Maple平台。 (3)大数据集群度量系统:旨在利用HDFS、Mysql、Spark、Java、Python、Shell、Jetty及RestFul技术实现三地大数据平台性能监控系统,该系统可完成对Mapreduce、Spark任务运行性能以及三地集群存储性能分析,给出集群每天6000多job消耗资源以及任务预计运行情况,并将度量以邮件报表的形式发布和将该服务插入到讯飞大数据管理Maple平台给出任务的实时和历史性能展示。 (4)讯飞大数据平台升级及优化:旨在利用ClouderManger、Shell、Python技术实现讯飞三地Hadoop集群的升级以及结合任务运行情况,维护hadoop集群,分析集群的性能并进行相应的优化;调研hadoop on docker弹性资源调度可行性和实现机制。 (5)Avro数据展示系统 :旨在开发一款识别avro格式文件的工具,利用该工具用户可识别avro格式的文件,并将文件转换成JSON格式文件,并可以获得该avro格式文件的schema、meadata,以便于融入到讯飞大数据Maple平台,以便于用户从web界面上展示。 B、2013年06至2015年08 上海网达软件股份有限公司 大数据开发工程师 (1)数据挖掘和分析系统:旨在利用Mapreduce、Hive、Hbase、Flume、Mahout、Mysql、Sqoop及Java web技术实现对网达渠道推广运营平台中数据挖掘和分析,该系统主要完成对日志文件的分析,主要包括指定信息筛选及相关性分析,以便于给出数据展示和推荐,同时对关键数据给出定时统计,并对统计给出数据分析报表。 (2)云存储系统:旨在结合HDFS及Redis技术开发一款同时适合存放海量大文件和海量小文件的云存储服务器系统,该系统一方面通过Fuse挂载,使其满足Posix标准,同时开发web用户界面;通过Shell脚本完成自动配置Hadoop集群、挂载Fuse系统以及权限管理,同时配置Ganglia系统监控集群性能。 C、2012年12—2013.05 天泽股份有限公司 软件工程师工程师(实习) (1)车联网大数据系统平台:旨在利用Kafka、Storm、Hbase、HDFS、MapReduce、Mysql、Redis及Java web技术实现大数据平台系统,该系统可完成对车载数据的离线和实时的分析,实时分析完成对上传数据的分析并下发指令到终端,离线分析完成对上传数据的报表分析。 (2)汽车代驾系统:旨在开发一款为汽车代驾公司服务的综合管理平台,该系统是基于B/S的模式,在SSH框架下的Java EE Web应用,主要涵盖了订单管理、会员管理、财务管理等功能,因此有望应用到现实中的代驾服务行业。 |
自我评价 |
本人具有数学和计算机专业背景,基础知识扎实,我的学习能力,科研能力出众,并且性格开朗,善于与人交流合作; |
求 职 信 |
本人具有数学和计算机专业背景,基础知识扎实,工作期间,从事大数据平台和大数据分析以及数据检索的工作。熟悉HDFS、MapReduce、Storm、Spark、Hive、Hbase、Mahout、Sqoop、Flume、Python、Java、Mysql、Shell、Linux开发工具,并且在工作之中,对HDFS、MapReduce、Hbase源码进行了研究。 我的学习能力,科研能力出众,并且性格开朗,善于与人交流合作,具备IT人员所需的抗压能力。 现将我的简历一并附上,希望您考虑我的应聘要求。 |
联系方式 |