李开复:AI和教育,中国更勇敢超前,美国太理想主义-深度-知识分子

李开复:AI和教育,中国更勇敢超前,美国太理想主义

2018/02/26
导读
未来,人类也许一周工作30个小时就可以了。

达沃斯论坛之 the next billion分论坛


编者按:

        1月23-26日,第48届世界经济论坛年会在瑞士达沃斯召开,主题为"在分化的世界中打造共同命运"。创新工场董事长李开复博士受邀飞赴达沃斯参会,分享了他在达沃斯的见闻。

第一篇:李开复:听AI大佬吐槽真实的人工智能

第二篇:李开复:复制中国的梦想已幻灭,欧美应向中国学习什么

第三篇:李开复对话2015诺奖得主:用交易来治理隐私数据问题?


撰文 | 李开复

责编 | 程   莉


  


参加达沃斯经济论坛的WEF Generation AI panel环节,我和Kay Firth-Butterfield(AI-Austin公司执行董事)、Ronald Dahl (加州大学伯克利分校人类发展研究所所长)、Erica Kochi (联合国儿童基金会联合创始人)、Matt Hancock(英国数字文化媒体和体育部长)等嘉宾讨论,关于AI教育和AI道德公平偏见有几个有意思的观点跟大家分享。

 

我的观点是:中国在AI和教育的结合方面,更勇敢超前,美国的EdTech太理想主义。

 


中国教育和AI技术结合更超前


这个月我和一些创业公司拜访哥伦比亚大学,接待我们的每一个老师,无论是Jeanette Wing, Mary Boyce还是Merit Janow,都是从心里热爱他们做的每一个技术,即使已经60多岁,依然对技术痴迷。这种教育精神,是非常棒的学习榜样。

 

但针对AI+教育的未来,我的观点是美国的EdTech(教育科技)太多理想,太多修辞,不够务实。同时对学生数据隐私过于纠结,没有看到应有的进度。中国在AI技术和教育的结合方面,走得更超前。

 

我跟大家描述中国AI教育的迅速发展:每个学生都有完整的教育画像,画像数据来自远程教育视频和学习记录(如 VIPKID),双师教师视频和学习记录(如高思),考试自动修正和错误记录(如七天),自动软件练习(如盒子鱼)。这几个公司覆盖了接近百万付费家长、数千万学生。

 

在这几个领域,创新工场投资的几家教育公司,已经验证这些逻辑,正在改写未来教育。比如VIPKID可以通过一对一视频学习连接北美老师和中国孩子,强大的后台系统可以将整个教学过程数字化,反馈给老师,不断优化教学效果。创业公司"联邦在线"推动双师课堂,把优质师资通过网络带进偏远学校,当地老师做个性化课后辅导。创业公司"七天教育"提供AI智能阅卷,减轻老师的重复性工作。

 


老师不会被AI取代


在未来的10-30年里,这些工作将会慢慢消失,这种局面我们很难去改变。很多人都在担心自己的工作会被AI取代,具备以下四种特质的工作很难被AI取代:精致、复杂、创意、爱心。

 

所以,学校老师的角色未来不可能被AI取代,AI反而能减轻教师工作中重复机械化的任务(比如阅卷、点名),让老师们真正释放出来去关注学生、教学互动。

 

但我们需要改变教育,为孩子们开设发掘天赋和才能的课程,让更多的孩子接受更好的教育,还需要增强职业道德培训。

 

未来,人类也许一周工作30个小时(4天)就可以了,将来会有更多的机器人替我们工作,我们也有更多的财富,这也会削弱我们的工作动机,但我们需要匹配教育方式培养对应的人才。

 


AI的道德偏差,AI公司应负责


AI的智能水平依赖数据,一旦数据样本不全面,就会造成结果和判断的偏差。一些研究已经显示,随着机器越来越接近于掌握人类的语言能力,它们也在吸收隐藏于语言中根深蒂固的偏见。通俗地说,因为人类的语言带有偏见,计算机通过对人类语言的大量学习,也学会了偏见。

 

对于AI 道德公平偏见问题,UNICEF 创新负责人Erica Kochi 发表了比较有意思的观点。

 

1)如果AI数据不完整,可能导致各种问题。比如说在非洲用手机通话数据训练的小额贷款就无法贷款给比较贫穷的没有手机或很少使用手机的人,还有在墨西哥有些保险公司会预测人类未来生病的概率,如果很高就会大幅涨保险月费。


2)AI公司在解决道德上有四个责任:数据的完整性和代表性,算法的公平性,用户对于算法和决策的知情权,用户投诉渠道。


3)如何执行这样对于大AI公司的监督呢?Erica建议采取财务审计的模式,来检视算法、数据、透明度、政策等方面,可以从最危险的领域(比如说无人驾驶)开始,逐渐完善审计制度,审计可以来自内部或外部。公司因为自律审计,对公司声誉会有所提升。如果是外部审计,则可以给公司机会回应整改。这些观点在国内从来不会听到,虽然不一定是最好的方案。


这些观点虽然不一定是最好的方案,我也不见得同意她的观点,但是他们的研究更深,且基于不同文化背景,可彼此参考切磋。



避免过多法律限制AI发展


在峰会期间,科技媒体Techonomy主办了一场科技趋势对谈活动。我和Wipro公司董事会主席Milan Rao先生一起接受了Techonomy创始人、彭博社特约编辑、《Facebook 效应》作者David Kirkpatrick的访谈。


我在发言中提到,现在的主流人工智能是弱人工智能,即选择一个较窄的领域,收集大量数据、基于这块领域的数据来展开判断、预测和分类工作。

 

这一技术让人们摆脱了繁琐冗余的日常工作任务,但也可能会剥夺人们努力工作、获得成功的机会,所以人工智能既是人类最大的机遇,也是最大的威胁。

 

对此,Milan先生认为有两点,第一,人工智能更多来说是一个补充,起到增强而不是替代的作用;第二,基础的工作被替代,人类可以更好地专注于完成真正有价值、更需要情感投入的工作。

 

因此他认为,我们面临的不是工作危机,而是技能危机,企业必须承担起责任,让员工接受再培训。这种再培训应该是一种持续的进程, 它不是人事部门的任务,而应当被内化成企业的一部分。

 

我的观点是,我们必须创造可持续的工作,需要灵活处理和大量创意、人文关怀类的工作。我们要改变社工等职业的社会、经济地位,用人工智能公司的利润来支援这些工作。在投资时,我们不仅仅要去投资独角兽公司,赌谁能成为独角兽,也要投资那些赚得不多、但能创造就业机会的创业公司。


对人工智能如何管理?我的建议是要回归到行业内部角度来管理人工智能,比如银行业的诈骗、犯罪产业相关的数据安全、医疗行业的玩忽职守,不希望在我们真正了解人工智能之前就用法律过多地限制它的发展。


制版编辑: 核桃林


参与讨论
0 条评论
评论
暂无评论内容
知识分子是由饶毅、鲁白、谢宇三位学者创办的移动新媒体平台,致力于关注科学、人文、思想。
订阅Newsletter

我们会定期将电子期刊发送到您的邮箱

GO