【卷首语】建立AI规则非常重要 但充分对话更重要
2016年,谷歌CEO Sundar Pichai宣布谷歌战略从Mobile First(移动优先)转向AI First(人工智能优先),在此之后,谷歌不仅在AI领域持续投入,更把谷歌云的主要竞争优势押注在AI领域。
但在2018年,谷歌的AI First战略受到了极大的打击:9月,谷歌首席AI科学家同时也是谷歌云AI负责人李飞飞宣布离开谷歌;11月,李飞飞的得意门生,谷歌AI中国中心总裁李佳宣布去职谷歌;与此同时,谷歌云Diane Greene宣布将于2019年1月离开,接替她的是拥有丰富商业化经验的甲骨文前高管Thomas Kurian。
更令人感到意外的是,谷歌CEO Sundar Pichai在12月中旬接受媒体采访时公开表示:对人工智能技术被滥用的担忧是“非常合理的”,还特别强调:“我认为科技公司必须意识到不能先创造人工智能工具,然后再去完善它,我认为这样是行不通的。”虽然Sundar Pichai在采访时还补充说:“应该相信科技行业能够负责任地规范好该技术的使用。”但他的这一番发言,还是在美国科技界引起了不小的波澜。
承认AI构成的潜在威胁,这是非常关键的一个举动。这位出生于印度的工程师极为推崇自动化系统的世界形态,他甚至表示这些系统可以在没有人为控制的情况下学习和做出决策。
人们不禁要问:谷歌要改变AI First战略了?谷歌云的AI战略在今年一系列的有关AI伦理道德讨论后,终于要向强监管和商业利益(特别是美国国防部的商业合作)妥协了?
现在来看,下这样的结论还为时尚早:首先,从微软、谷歌与美国国防部的合作,到诸多“反人格AI”的社会测试,这一轮AI浪潮有关AI伦理道德的讨论在2018年进入了最高峰,也促使谷歌等科技巨头更加深入地反思AI法律监管、伦理道德等方面的问题;
其次,随着AI技术的普及,越来越多的居心叵测者开始利用AI满足私欲,对社会安全、网络安全、数据安全、个人隐私都造成了一定的挑战,强化对AI技术在伦理道德方面的监管未必是一件坏事。