更偏向电商、知识服务平台、社交、搜索等方向,话题点可以涵盖容器、弹性数据库、系统... 展开 >
目前是腾讯专家工程师,微信架构部后台总监,负责微信后台基础业务架构,包括分布式存储平台和后台服务框架等。
近两年专注于后台服务质量提升和高性能架构,构建了分布式数据库PaxosStore系统,支持过亿TPS的跨数据中心事务,应用于微信多个产品包括基础消息与朋友圈,公众平台与微信支付等等。
更偏向电商、知识服务平台、社交、搜索等方向,话题点可以涵盖容器、弹性数据库、系统架构升级、链路压测。各自分享架构如何随着时间演变进行演化、用到了哪些新技术、目前面临的问题、未来的架构规划等经验和收获。
微信作为一款国民App,每天承载着数百亿条的消息收发,而支撑着微信功能的后台服务也多达数万个,如何确保这些在线服务的稳定可用和可控,是资源管理系统面临的一大挑战。
与此同时,随着AI技术的方兴未艾,围绕着微信所开展的机器学习与数据挖掘的离线作业也日渐增多,对内部计算、存储、网络等资源提出了大量的需求,如何充分利用好服务器资源,高效调度各类计算作业,合理编排不同维度的资源组合也是资源调度系统的一个重要目标。
本主题阐述了微信的资源调度系统Yard如何利用容器技术解决在线服务与离线作业混合运行的各种问题挑战,分享微信后台在资源隔离、作业调度、容灾设计等方面的成功实践和思考。
电商系统存在大量适用于“检索”的场景,比如商品搜索、订单搜索、分表分库检索、慢查询替代,ElasticSearch作为优秀的开源检索引擎,但是接入、管理、运维成本高昂。
如何有效地管理大规模ElasticSearch集群,降低接入门槛;如何将不同数据源同步到检索引擎,并保证数据一致性;如何实现跨IDC高可用,无人值守升级,在线性能调优,并做到统一监控告警、平滑扩容、检索服务治理(超时,重试,路由,鉴权,限流,隔离)等等,这些问题的探索和解决,最终形成了唯品会统一检索平台Pallas。
本次分享将带来唯品会在统一检索平台建设过程中对这些问题的思考、解决思路,以及踩过的坑。
演讲提纲
一、问题的提出
二、统一检索平台全面剖析
1. 总体架构介绍
2. Search代理层核心问题及解决思路:
3. 索引数据同步若干关键技术和架构:
4. 平台管理核心问题分析及黑科技:
三、检索性能调优的方法和干货分享
四、ES插件动态方案实现原理及黑科技:
五、Pallas成果及2018规划
听众受益
2017年底,今日头条推出了大型全民互动直播问答游戏《百万英雄》。从项目启动以来,就面临一个又一个挑战:在高并发、大流量情况下,既要保证用户的实时答题体验,还要支持项目极其快速迭代,确保安全性,避免用户反作弊等。面对如此多的挑战,从项目上线以来,未出现过技术故障,充分满足用户需求。
本次演讲,将结合《百万英雄》的实际情况,给大家分享项目过程中的思考以及实践。
演讲提纲:
听众收益:
Go has been embraced by developers all over the world. Our community of lovable gophers is over one million strong and growing exponentially. Many of today’s most popular open source projects are built in Go including Kubernetes, Hugo and Docker. Go is critical to modern cloud companies including Microsoft, Google, Alibaba, Cloudflare, and Dropbox. Beyond the cloud, Go is enabling innovations across many industries. In this talk I’ll talk about the history of Go, what is driving Go’s rapid growth, and what’s next for the Go language.
在全球范围内,拥抱Go语言的开发者越来越多,Go语言的爱好者人数已经超过一百万,并正在呈指数级增长。而且,当今多数流行的开源项目都是用Go语言构建的,例如Kubernetes、Hugo 和Docker,对于目前很受关注的云计算公司如Microsoft、Google、Alibaba、Cloudflare 和 Dropbox来说,Go语言同样至关重要。
此外,Go还在很多跨领域方面提供创新机会。本次演讲,Steve会简单介绍Go语言的历史,快速发展的推动力,以及未来Go语言会有哪些新动作和方向的内容。
在电商及相关行业,售后环节和逆向流程一向是业务中最为复杂的领域,其产品规则和逻辑分支多、状态流转周期长、逆向资金和货物流动风险高的特点让产品和开发人员都深受其苦,但同时售后服务的质量和效率也直接决定了顾客对产品的满意程度和品牌认知,因此构建一个扩展性好、逻辑层次清晰、运转效率高的售后服务架构显得尤为关键。
过去两年严选提出并设计了统一售后模型、最大可退金额、和多级退款引擎等概念,抽象出了销退支持、上门取件、极速退款、售后风控等通用能力,经过几次架构演变,有效的降低了业务逻辑耦合和复杂度,可以做到上层业务的快速搭建和服务接入。本次演讲将会带来严选售后服务的架构演变和实践。
演讲提纲:
1. 售后服务的概述
2. 严选售后服务的技术架构演变
3. 严选售后服务线上实践的总结与思考
听众收益:
演讲摘要:在菜鸟业务全球化背景下,菜鸟自己在全球建立站点,站点间的应用存在依赖关系,另外与海外合作伙伴间的数据和服务调用变成常态;但全球化的服务调用受网络因素过大,RT高但成功率低一直是一个非常大的问题。
基于这样的背景,菜鸟网络研发了自己的解决方案:建设一套全球化的数据&服务集平台,来支撑菜鸟内部,菜鸟与外部合作伙伴间的数据&服务调用。具体措施是构建站云端一体化基础设施,在全球布点建设基础站点,在站点之上建设云端服务中间件,再深入到端的自动化及智能化,形成端-云-站的服务模型。实施后效果明显,全球变成了一张网,有了统一的基础环境,中间件,SLA;菜鸟全球化之路大大加速。
演讲提纲:
1、全球化背景&基础混合云架构介绍
2、跨域RPC基础架构:
3、方案总结及未来可以做的事,展开探讨
听众受益点:
腾讯在2016年就开始研发和应用QUIC协议,从终端SDK到内核协议栈以及用户态协议栈都做了大量设计开发,实现了0RTT,连接迁移,自定义协议传输,计算性能提升等功能。目前已经在内部业务和腾讯云大规模部署和推广。