文|Juny??编辑|VickyXiao
进入2023年以来,科技界里彷佛没有了大事,只剩下了人工智能。人人都在谈论ChatGPT、科技圈开卷大模型、OpenAI估值节节攀升、大公司你追我赶硝烟四起……
而这一切繁荣的背后,其实都离不开三位人工智能研究者的工作———曾因提出和发展深度学习神经网络,在2019年获得计算机界最高荣誉“图灵奖”的GeoffreyHinton、YoshuaBengio、YannLeCun。
可以说,没有这三位学者的研究,我们今天根本看不到ChatGPT、Bard的出现,也不会这么快的就能在日常生活中使用语音识别、人脸识别、图片检索、机器翻译、自动驾驶等技术。
其中,GeoffreyHinton是“三巨头”中最核心的人物,被业界誉为“人工智能教父”。他在2013年加入谷歌,把深度学习技术带进了谷歌的多项业务,直接推动谷歌成为了AI技术最出色的公司之一。同时,他还亲自培养了一大批机器学习相关的人才,包括了如今OpenAI的联合创始人和首席科学家IlyaSutskever。
“深度学习三大先驱”,图片来自于推特
而就在加入谷歌的第十年、深度学习迎来爆发式发展的当下,几周前,现年75岁的GeoffreyHinton辞去了他在谷歌的工作。而离职的原因,用他的原话来讲,是想要没有任何负担的给所有人讲一些他关于人工智能发展的“真心话”。
来自“人工智能教父”的担忧和警告
如果说谁最热爱深度学习相关的人工智能研究,GeoffreyHinton一定是最有发言权的那一位。从上个世纪70年代至今,GeoffreyHinton作为计算机神经网络的开拓者,已经在这个领域默默耕耘了近50年。
对于GeoffreyHinton来说,从无到有的创造一个全新概念和技术的过程曾经无比艰难。
从上个世纪80年代他提出神经网络理论开始,一直到本世纪初,长达20多年的时间里,学术界对神经网络理论都充满质疑,同时,受制于当时数据集规模限制以及计算机算力的不足,相关研究的进展也一度非常缓慢。在这个漫长的过程中,一些人放弃了、一些人转了研究方向,但GeoffreyHinton从未放弃过关于深度学习神经网络的研究。
但如今,深度学习终于守得云开见月明,所有人都开始向深度学习里疯狂砸人力、砸资金,坚守了多年的GeoffreyHinton这时却想要大家都暂停脚步,甚至对自己付出了一生心血的研究感到有些后悔,为什么?
MakerDAO联创:DeFi需要监管透明度,才能与“现实世界”的金融接轨:MakerDAO联合创始人兼首席执行官Rune Christensen表示,DeFi空间将从目前孤立的泡沫阶段转向与更广泛的金融景观的整合。Christensen在周二举行的全球技术治理峰会上发表了这一观点,该会议由世界经济论坛组织,目前正在进行中。其还表示,DeFi协议与现实世界的资产交互,如商业地产和贸易融资,将需要大量的监管投入。(Cointelegraph)[2021/4/7 19:55:33]
在最近接受纽约时报的专访中,GeoffreyHinton表示,自己此次从谷歌离职并不是因为要批判谷歌,而是他能够在不影响谷歌的情况下,去真实地谈论AI的潜在风险。
在他看来,作为AI技术的领军者,过去这些年谷歌一直扮演着一位“负责任的管家”的角色,小心翼翼地保留和控制着那些可能造成伤害的技术。但由于微软极快的将Bing和ChatGPT结合并向公众发布,挑战了谷歌核心的搜索引擎的业务,所以谷歌也无法像过去那样继续保持着发展节奏,科技巨头陷入了一场可能无法停止的竞争之中。
物联网公链IoTeX宣布推出现实世界数据挖矿:3月19日消息,物联网公链IoTeX宣布,将推出现实世界数据挖矿。通过Pebble Tracker,用户可以收集现实世界数据,将其贡献给链上数据收集器,并获得XRC20代币,这些代币将授予未来价值的部分所有权。[2021/3/19 19:00:18]
在这样的情况下,他需要以一名研究者而不是谷歌员工的身份站出来,给大家发出警告。结合整个采访来看,Hinton主要有以下几个方面的担忧。
一是在人工智能技术的支持下,他认为互联网将很快被各种虚假信息淹没。这些信息包括文字、照片、视频等,而普通人将越来越难分辨这些信息的真假,引发社会的失序。
二是就业市场可能在就业市场还没有准备好的情况下被颠覆,造成失业潮的爆发。虽然目前像ChatGPT这样的聊天机器人还只是对人类工作的补充,但按照人工智能的发展速度,它们将很快可以取代律师助理、翻译、行政助理等其他任何基础的、重复性的工作。“它消除了苦差事,但带走的可能远不止于此。”Hinton表示。
此外,他还担心人工智能技术的接下来的发展会对人类社会构成威胁。他承认,在他们过去的研究之中,人工智能常常能从大量数据中学习进而产生出很多让人意想不到的行为。而当前,包括个人和公司在内的很多使用者们不仅让人工智能自主生成代码,也让人工智能运行和管理着代码。在这种不断的训练之中,很有可能让“自主杀手机器人”真的成为现实。
声音 | 王永利:区块链的价值是解决现实世界的实际问题:海峡区块链研究院院长、共享金融100人论坛理事长王永利近日表示,区块链的价值则是必须解决现实世界的实际问题,而不能主要用于挖矿造币和资本炒作,主要用于“割韭菜”。目前区块链还处在初创期、探索期,还存在“去中心、高效能、安全性”不可兼得的“不可能三角困境”,需要积极探索,不断改进,要符合金融监管基本要求,包括反、反恐怖融资等。[2018/10/18]
“很多人都觉着这很遥远,我曾经也是这么认为的,觉得至少还要有30-50年我们才会走到那一天。但就我目前所了解到的信息而言,我已经不这么想了。”Hinton认为,谷歌和微软以及其他大型公司之间的竞争,将很快升级为一场全球性竞争,如果没有某种监管,这场竞争将不会停止,人工智能发展的速度会远超我们的想象,并最终走向失控。
呼吁AI监管的声音越来越强
如果以上这些话从别人口中说出来,大家可能仍然会觉得这些观点带着危言耸听的意味。但当如今世界上人工智能领域最权威的专家、深度学习的奠基人GeoffreyHinton也这么说时,也引发了更多人开始认真思考和关注这个问题。
实际上,在此次GeoffreyHinton发声之前,最近几个月来人工智能领域就已经发起过两波大型的联名,呼吁谨慎地发展人工智能技术。
中国人民大学国际货币研究所学术委员王永利:互联网区块链的运行,最关键是要确保能将现实世界的资产或价值:2018国际区块链发展创新大会28日在北京举行,业内权威专家、知名投资人、企业技术精英、产业研究者共聚一堂,从行业应用、产业政策、投资方向等多个领域,共同探讨区块链的现在与未来。中国人民大学国际货币研究所学术委员王永利认为,互联网区块链的运行,最关键是要确保能将现实世界的资产或价值、各种物理的单证凭据影像等,高效准确的信息化推送到线上运行,并从源头上确保其合法性、真实性、准确性、完整性。[2018/4/29]
一次是由马斯克、YoshuaBengio等数千名来自学术界和企业界的大佬呼吁至少暂停6个月比GPT-4更强模型的研究的公开信。另一次则是由拥有40多年历史、人工智能领域最权威学术机构之一的人工智能促进协会的19名现任及前任领导人所发布的联名信,其中也包括了微软现任首席科学家、人工智能研究专家EricHorvitz。
虽然此前马斯克他们暂停模型研发的呼吁在业界受到了争议,包括YannLeCun、吴恩达在内的研究者都对停止研发“一刀切”的做法表示了反对,甚至也有人质疑马斯克等人提出暂停研发是为了私利。但目前看来,关于共同加强AI监管、预防潜在性危险发生的观点,大家的看法几乎都是一致的。
在今天GeoffreyHinton的报道发出后,吴恩达第一时间转发了GeoffreyHinton的推特表示支持,感谢Hinton对于人工智能技术所做出的不可估量的贡献,以及对人工智能在虚假信息、自动机器和劳动力影响方面的发声。
一些AI的投资人、研究者今天也纷纷转发了GeoffreyHinton的访谈,呼吁学界、工业界、政府监管机构应该快速行动起来,趁当前技术还在可控范围内,尽快制定好监管框架和应用方案等。
当然,也有研究者并不认同AI威胁论,其中就包括了GeoffreyHinton曾经的学生、研究的伙伴YannLeCun。他此前多次表示,大语言模型根本不算什么,要想真正通往AGI之路,还需要构建“世界模型”。
对此,很多人也很希望这些对于人工智能发展持有不同观点的研究泰斗们能够很快来一场深度对谈,让人们更多的了解当前人工智能发展前方的机遇和风险。
AI会成为新时代的“原子弹”吗?
在此次的访谈中,一个尤其引人关注的地方在于GeoffreyHinton在谈到AI风险时,多次提及了核武器。从一定程度上来看,GeoffreyHinton或许认为AI对人类社会的潜在危险并不亚于核武器。
他表示,跟核武器研究不同,现在AI研究更危险的地方在于,我们目前几乎没有办法知道有哪些组织或者国家正在秘密研究这项技术。理想的情况下,全球各国组织和科学家们应该共同进行合作和对技术进行控制,但显然现在很难做到这一点。
作为深度学习技术的发起人,GeoffreyHinton坦言自己目前甚至有些后悔进行了这项技术的研究。当潘多拉魔盒被打开,作为研究人员很难去防止不好的人利用这些技术去做不好的事。
而Hinton的这种说法也让人不由地想起了当年“原子弹之父”罗伯特·奥本海默相似的心路历程。当年,美国在广岛长崎投放原子弹两个月之后,奥本海默辞去了职务,之后他在担任美国原子能委员会顾问期间一直致力于游说国际机构对军备进行管制,并运用影响力宣扬控制核武器和核不扩散运动。
GeoffreyHinton说,以前人们问他如何从事具有潜在危险的技术时,他总会会引用奥本海默的话:“当你看到一个东西拥有美妙的技术前景时,就尽管去做吧。”但现在,他已经不会再那样说了。
“人们不应该快速扩大AI研究的规模,直到足够了解自己是否能够控制它,”GeoffreyHinton说道。
*参考资料:
https://www.nytimes.com/2023/05/01/technology/ai-google-chatbot-engineer-quits-hinton.html
郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。