谷歌进入战备状态,ChatGPT或成人工智能领域绝唱

财经早餐 2023-05-09 07:59

OpenAI一拳把谷歌干哑火,AI的开源时代要结束了吗?

AI在过去十多年的飞速发展,得益于高校、企业与个人开发者的通力合作,让人工智能领域内遍布开源的代码、数据及教程。

谷歌也一直是AI行业的领军者,发表的论文横跨自然语言处理、计算机视觉、强化学习等多个领域,为行业内贡献了诸如Transformer, Bert, PaLM等诸多基础模型与架构。

但OpenAI打破了游戏规则,不仅拿着Transformer开发出了ChatGPT,还凭着初创公司的优势,如受法律、舆论的影响更少,无需透露训练数据、模型规模、架构等信息,甚至还挖走了不少谷歌等大厂的员工,打得谷歌是节节败退。

面对不讲武德的OpenAI,谷歌也只能被动挨打。

据匿名人士提供的消息称,今年2月,Google AI的掌门人Jeff Dean在会议中表示:

谷歌将利用自己在人工智能方面的成果,只有在实验室成果转化为产品后,才会共享论文。

转向“防御状态”的谷歌或许寄希望于把同类AI公司全都熬走,更好地保护自己的核心搜索业务及股价。

但AI如果少了这些大公司的开源精神,转而走向垄断,人工智能领域还能出现之前的发展奇迹吗?

谷歌被偷家,只因“太负责”

对于谷歌这种数十亿用户体量的公司,即使是小规模的实验也可能会影响到数百万人,并遭受舆论的反噬,这也是谷歌迟迟不愿推出聊天机器人并坚守“负责任AI”底线的原因。

2015年,Google Photos上线图像分类功能,将一名黑人错误分类为Gorillas(大猩猩),谷歌立刻陷入公关危机,迅速道歉并整改。

谷歌整改的措施就是把Gorillas标签直接删了,甚至还删掉了贵宾犬(poodle),黑猩猩(chimpanzee),猴子(monkey)等类别。

结果就是图像分类器不会再把黑人识别为猩猩,但也识别不了真正的猩猩了。

尽管多年来谷歌一直在投入大量资金开发人工智能技术,但受限于神经网络的黑盒不可解释性,谷歌也无法完全保证投产后的可控性,需要更长时间的安全性测试,也就失去了先发优势。

今年4月,谷歌CEO噼柴哥(Sundar Pichai)在参加《60分钟》节目中仍然明确表示,人们需要对人工智能保持谨慎,它可能对社会造成很大的危害,比如伪造图像和视频等。

如果谷歌选择“不那么负责”,势必会引起更多监管机构、人工智能研究者和商界领袖的关注。

但DeepMind 联合创始人Mustafa Suleyman表示,其实并不是因为他们过于谨慎,而是因为他们不愿意破坏现有的收入流和商业模式,只有当存在真正的外部威胁时,他们才会开始觉醒。

而这个威胁,已经来了。

留给谷歌的时间不多了

自2010年起,谷歌就开始收购人工智能初创企业,并将相关技术逐步融入自家产品中。

2013年,谷歌邀请深度学习先驱、图灵奖得主Hinton加盟(刚离职);一年后,谷歌还以6.25亿美元收购了初创公司DeepMind

在被任命为谷歌首席执行官后不久,噼柴哥更是宣布谷歌将以「AI优先」为基本策略,将人工智能技术整合到其所有产品中。

多年的深耕也让谷歌的人工智能研究团队取得了诸多突破性进展,但与此同时,一些规模较小的创业公司也在人工智能领域取得了一些成就。

OpenAI 成立的初衷是为了制衡大型科技公司对人工智能领域公司的收购垄断,并且凭借小公司的优势,OpenAI受到的审查和监管更少,而且更有意愿快速将人工智能模型交付到普通用户手中。

所以人工智能的军备竞赛就在这种没有监管的情况下愈演愈烈,面对竞争,大型企业的“责任心”可能会逐渐减弱。

谷歌高层也不得不选择DeepMind所拥护的“人工智能技术匹配”、“超越人类智能”等通用人工智能概念的前景。

今年4月21日,噼柴哥宣布把原由Jeff Dean运营的谷歌大脑和此前收购的DeepMind合并,交由DeepMind联合创始人兼首席执行官Demis Hass负责,以加速谷歌在人工智能领域的进步。

Hass表示,只需要几年时间,AI水平可能就会比大多数人工智能专家预测的更接近人类智能的水平。

谷歌进入“战备状态”

最近几个月,谷歌已对旗下人工智能业务进行了全面改革,主要目标是迅速推出产品,降低向小用户群推出实验性人工智能工具的门槛,在公平性等领域开发一套新的评估指标和优先级。

噼柴哥强调,谷歌尝试加快研发速度并不意味着偷工减料。

为了确保通用人工智能以负责任的方式发展,正在筹办一个新部门以建立更有能力的系统、更安全且更负责任。

前谷歌大脑人工智能研究员Brian Kihoon Lee在今年1月大规模裁员潮中被解雇了,他将这种转变描述为谷歌从“和平时期”向“战争时期”的转变,一旦竞争变激烈,一切都会变。在战时状态,竞争对手的市场份额增长也很关键。

谷歌发言人Brian Gabriel表示:在2018年,谷歌建立了内部管理结构和全面的审查流程,到目前为止已经在各个产品领域进行了数百次审查。谷歌将继续将该流程应用于面向外界的基于人工智能的技术,负责任的人工智能仍是公司的首要任务。

但决定人工智能产品何时准备上市的标准不断变化,也引发了员工的不安情绪,比如谷歌在决定发布Bard后,调低了实验性人工智能产品的测试分数标准,引起了内部员工的反对。

2023年初,谷歌公布了由两个人工智能团队(Responsible Innovation和Responsible AI)围绕Bard设定的约20项政策,员工普遍认为这些规定相当明确且完善。

也有员工认为这些标准制定的更像是给外界表演看的,不如公开训练数据或是开源模型,用户能够更明确了解模型的能力。

发论文需审批

谷歌加速研发的决定对员工来说,喜忧参半。

喜的是,非科研岗位的员工们普遍持乐观态度,认为该决策可以帮助谷歌重回上风。

但对研究人员来说,在发表相关人工智能研究成果之前需要获得额外的批准,可能意味着研究人员将在快速发展的生成式人工智能领域错失首发机会。

也有一些人担心,谷歌可能会悄悄压下有争议的论文,比如2020年由谷歌的道德人工智能团队领导,Timnit Gebru和Margaret Mitchell共同撰写的一项关于大型语言模型危害的研究。

过去一年间,许多顶尖的人工智能研究人员都被初创公司挖走了,部分原因在于谷歌对科研人员成果的不重视和过度审查。

一位前谷歌研究人员表示,获得论文批准可能需要高级研究员反复进行严格审查。谷歌承诺了很多科研人员让他们能够继续参与本领域更广泛的研究话题,出版限制可能会让迫使又一批研究人员出走。

AI研发该降速?

谷歌加速发展之际,也有一些听起来不是那么和谐的声音,他们呼吁各大人工智能厂商放慢开发速度,并且认为这项技术的发展速度已经超出了发明者的预期。

深度学习先驱Geoffrey Hinton称超级智能人工智能存在逃脱人类控制的危险,于是离开了谷歌。

消费者也逐渐开始了解大型语言模型的风险和局限性,比如人工智能倾向于捏造事实等,而ChatGPT上的小字免责声明上并没有说清楚它的局限性。

基于ChatGPT的下游应用暴露出了更多问题,例如斯坦福大学教授Percy Liang曾经展开过一项研究,新必应提供的引用大概只有70%是正确的。

5月4日,白宫邀请了谷歌、OpenAI、微软的首席执行官会面,商讨公众对AI技术的担忧,以及如何对AI进行监管。

美国总统拜登在邀请函中明确表示,AI公司必须确保产品的安全性,然后才能向公众开放。

来源:新智元


追加内容

本文作者可以追加内容哦 !

上一篇 & 下一篇