未来架构演化和核心技术引发的变革

会议室:203会议室

除了具体的工程架构实践,对于未来架构的演化和核心技术可能带来的变革,以及这些技术... 展开 >

地点:203会议室

专题:未来架构演化和核心技术引发的变革

除了具体的工程架构实践,对于未来架构的演化和核心技术可能带来的变革,以及这些技术在应用中可能出现的阻力和解决方法,是我们重点介绍的内容。通过大胆猜想,阐明未来技术和业务的发展趋势,为从业者对未来的规划带来启迪,为创业者对当下的路线给予指导,为投资者带来技术发展趋势的把控。

by 陈海春

Netflix
Manager, Content Knowledge, Data Science and Engineering

Fairness, bias, and social/economical impact of AI/ML algorithms

“With great power comes great responsibility”, as AI/ML especially deep learning continues to advance in research and expand to commercial applications, AI/ML algorithms are making big social economical impact to people’s lives, from deciding what health insurance policy a person can get, to whether a bank decides to issue a loan to a borrower, or what content a person can see on a web site. With even a slight bias, the algorithms can amplify unfairness or even injustice. So how do we unleash the power of AI/ML to improve people’s lives with fairness and justice, while not tying the hands of the algorithm developers?  In this talk, I will talk about how bias creeps into your ML models, both consciously and unconsciously, both from data and from the code, how to address them with novel debias techniques and blackbox model interpretation components, and how to design fairness principles into the architecture of your ML platform, all by using real world examples, cutting edge research results, and practical techniques in algorithm and architecture design. At the end of the talk, you should have a higher level of awareness of bias in AI/ML algorithms, recognize the value of fairness instead of viewing it as an inconvenience, have a mindset of how to address them in your design of ML platform and solutions.

演讲提纲

  1. Overview of fairness and bias in AI/ML
    • Unconscious bias in data 
    • Unconscious bias in algorithms
    • Well-known trust busters
    • Current state of the art: research and industry
  2. Case study: B2B AI/ML solutions for digital experience optimization
    • Identification of protected groups
    • Generic measurement of fairness
    • Innovation to correct bias while minimizing accuracy loss
    • Innovation to interpret black-box model results
  3. Opportunities and challenges in generalizing fairness practices in AI/ML platforms

 

参考译文:

俗话说“权力越大责任越大”。随着 AI / ML(尤其是深度学习)在研究中不断发展并扩展到商业应用,AI / ML 算法对人们的生活日渐产生巨大的社会经济影响,例如保险公司卖给消费者什么样的健康保险,银行是否决定向借款人发放贷款,甚至在网站决定访问者看到什么内容都是由算法决定。即使有轻微的偏差,这些算法都会加剧社会的不公平甚至不公正。那么,如何在不束缚算法开发人员创新的前提下,发挥 AI / ML 的力量,以公平和正义的方式来改善人们的生活呢?

在本次演讲中,我将讨论数据和算法如何有意识或无意识地将偏差渗入到ML模型中,如何使用新颖的 Debias 技术和黑盒式模型解释组件来解决这个问题,以及如何将公平原则融入到ML平台的架构设计中。所有这些都通过真实案例,前沿研究结果以及算法和架构设计中的实用技术来讲述,以帮助大家对 AI / ML 算法中的偏差有更高的认识,认识到公平的价值,而不是将其视为负担,同时也了解如何在 ML 平台设计中处理这些问题。

演讲提纲

  1. AI / ML 中的公平性和偏差概述
    • 数据中的无意识偏差
    • 算法中的无意识偏差
    • 著名的信任破坏案例
    • 最新的研究和工业技术案例
  2. 案例研究:用于数字体验优化的 B2B AI / ML 解决方案
    • 确认受保护群体
    • 公平性的衡量方法
    • 最小精度损失的去偏差创新方法
    • 黑箱式模型解释创新方法
  3. 在 AI / ML 平台中推广公平实践的机会和挑战

by 蔡超

Mobvista
技术VP兼首席架构师

回顾软件架构的发展历程,IT基础设施(Infrastructure)的变迁总是会推动架构演进,使得架构能够充分发挥基础设施的特点。例如,在 Mainframe(大型机)时代,架构就是与之匹配的单体架构,随着 PC 及局域网时代的到来,客户服务器架构成为主流。现今云计算的基础设施同样推动着相应的软件架构的演变。同时,云计算技术甚至还影响了软件的开发过程和团队的组织结构,由此催生的“云原生”的相关理念正被越来越多的团队所认可并成功应用。

此次演讲结合作者在汇量科技成功构建基于多云平台的国内最大规模的移动广告系统以及在 Amazon 的 7年云端架构经验的总结,通过分析云计算的特点与大规模软件开发的挑战,来解析如何设计适合于“云原生”的架构及开发模式。

演讲大纲:

  1. 云原生的要素
  2. 大规模软件开发的挑战
  3. 云计算的特点与挑战
  4. 适合云计算的架构及架构模式
  5. 云原生与容器化
  6. 架构演进的趋势与架构师的新思考

听众收益:

  1. 深入理解云计算的特点与挑战对软件架构演化的影响
  2. 构建适合的服务架构以充分发挥云计算的优势
  3. 了解”云原生“的理念
  4. 利用”云原生“理念解决大规模软件开发中的挑战

by 吕定顺 博士

华为2012实验室中央研究院
高级研究员

当前,摩尔定律逐渐失效,各种新型计算架构层出不穷。量子计算很可能是一种未来革命性的技术。量子计算是基于量子叠加、量子纠缠等量子力学特性的新计算,其潜在超级算力可把现在经典计算机需要耗时成千上万年的计算任务,压缩在几小时到几分钟完成。量子计算将成为未来人工智能的算力基石,并为AI算法带来全新的视角,启发出更好的经典AI算法。量子计算是一门交叉学科,需要来自物理学、计算机、数学、电子学、机械工程等领域的量子工程师、科学家。量子计算潜力巨大,但挑战也大,需要业界持续投入。

本次将分享量子计算的基本原理、量子计算的潜在应用以及量子计算的研究挑战和华为关于量子计算的思考。

演讲提纲:

  1. 简述量子计算基本原理
  2. 阐述量子计算的潜在应用(包括量子模拟,组合优化,量子机器学习等)
  3. 量子计算的现阶段的研究进展和挑战
  4. 华为关于量子计算的观点

交通指南

© 2020 Baidu - GS(2019)5218号 - 甲测资字1100930 - 京ICP证030173号 - Data © 长地万方
想要批量报名或更多优惠?
立即联系票务报名小助手豆包
或致电:010-84780850