| 工作地点:成都(4~6K)公司名称:藏格矿业股份有限公司工作职责1、信息安全应急、安全管理方向。2、数据治理、数据管理方向。3、系统开发方向。4、数字化方向。任职资格1、学历要求:本科及以上学历;2、专业要求:网络空间安全、通信工程、电子信息工程、数据科学与大数据技术等相关专业。 |
| 工作地点:成都(5~7K)公司名称:上海汉得信息技术股份有限公司工作职责:1、负责大数据平台的部署和规划建设;2、转换业务需求,参与数据仓库(离线、实时)和数据应用的建设、开发和维护(仅限成都)。职位要求:1、熟悉或精通java、SSM、Spring Boot、scala者优先,了解接触过Unix或者Linux;2、对Hadoop、Hive、HBase、Spark、FLINK等分布式平台有一定了解者优先;3、参与过数据处理、分析、挖掘、数仓等相关项目者优先;4、对一些常用分类、聚类等算法,诸如SVM、随机森林、XGBOOST、GBDT、RNN、CNN等有一定了解者优先;5、具备扎实的专业基础,良好的沟通能力,主动积极,乐于面对挑战;6、具备优秀的自我学习和独立思考能力,乐于钻研技术,对新技术领域有良好洞察力和关注度;7、具有良好的团队协作精神,富有工作激情、创新欲望和责任感。专业要求:1、大数据、计算机、软件工程、信息管理与信息系统等计算机相关专业;2、有计算机相关课程的其他专业(在计算机软件编程相关方面有较强能力者不限制专业)。 |
| 工作地点:成都(5~7K)公司名称:中建电商云筑网职位描述:1、协助公司业务应用系统的日常部署、版本发布、配置变更及线上故障排查,保障应用的高可用性。2、参与建设应用层的立体化监控体系(Prometheus + Grafana),配置告警策略,协助发现并处理异常。3、维护常见中间件(如 Nginx、Tomcat、MySQL、Redis、RocketMQ 等)。4、学习云原生相关能力,参与业务应用容器化迁移。5、了解大数据平台的基本运维,学习 Hadoop / Hive / Spark 等组件的部署与监控,为未来大数据应用支持打下基础。岗位要求:1、本科及以上,计算机相关专业;2、掌握 Shell/Python 至少一种语言,能编写自动化运维脚本。了解 Linux 操作系统,掌握常用命令及网络基础者优先3、了解常见中间件(Nginx/MySQL/Redis)的基本原理,有相关实验或项目经验者优先。4、对容器技术有基本认识,了解 Docker 常用操作,有 Kubernetes 实践经历者优先。5、了解大数据组件基本概念(如 HDFS、YARN、Spark)或有过搭建经验者优先。6、对技术有好奇心,善于从日志和监控中发现隐患,具备良好的文档阅读能力。 |
| 工作地点:成都(4~6K)公司名称:中通服创立信息科技有限责任公司岗位职责:1.负责日常数据接入及、清洗、治理等相关工作2.使用机器学习方法进行数据聚类3.探索大模型在数据查询、数据治理等领域的应用任职要求:1.计算机相关专业2.了解至少1种数据库3.至少熟悉1门编程语言开发能力:Python, Scala, Java4.了解常用大数据平台工具,如Spark, Flink, Hive, GaussDB等5.2026届,毕业可转正 |