短短6个月的时间,GPT3.5迭代到GPT4,当大家畅想一个更强大的GPT5的时候,马斯克等科技圈大佬带头泼下冷水——3月29日,未来生命研究所(Future of Life Institute)公布一封公开信,呼
短短6个月的时间,GPT3.5迭代到GPT4,当大家畅想一个更强大的GPT5的时候,马斯克等科技圈大佬带头泼下冷水——3月29日,未来生命研究所(Future of Life Institute)公布一封公开信,呼吁所有AI实验室立即暂停训练比GPT-4更强大的AI系统至少6个月。
截至发稿,超过1000人签署了这封公开信,除了马斯克之外,还包括图灵奖得主约书亚本希奥(Yoshua Bengio)、美国作家兼纽约大学教授加里马库斯(Gary Marcus)、《人工智能:现代方法》作者斯图尔特罗素(Stuart Russell)、 苹果公司联合创始人史蒂夫沃兹尼亚克(Steve Wozniak)等。
AI威胁论是这封公开信的出发点。
公开信表示,大量研究表明,具有与人类竞争智能的AI系统可能对社会和人类构成深远的风险,这一观点得到了顶级AI实验室的承认……最近这几个月,全球的AI实验室已经完全失控了,它们疯狂地开展AI竞赛,来开发和部署更强大的AI,而没有任何人可以理解、预测、控制这些AI,连它们的创造者都不能。
显而易见,这封信的矛头直指OpenAI,且在信中援引了OpenAI的观点——“OpenAI最近关于通用人工智能的声明指出,‘在某些时候,在开始训练未来的系统之前进行独立审查可能很重要,并且对于最先进的工作来说,应该同意限制用于创建新模型的计算量增长。’我们同意。那个某些时候就是现在。”
信中还写道,这种暂停应该是公开的和可验证的,并且包括所有关键参与者。如果不能迅速实施这种暂停,政府应介入并实行暂停。“这并不意味着总体上暂停AI开发,只是紧急从奔向不可预测的大型黑盒模型的危险竞赛中收回脚步。”
基于此,这封信提出建议,开发者必须与政策制定者合作,大幅加快开发强大的AI管理系统,该系统至少应该包括:
专门负责监管AI的机构;出处和水印系统,从而帮助区分真实与生成的内容,并且能够跟踪模型的泄漏;强大的审计和认证系统;在AI造成伤害后,明确谁该承担责任。
▌生命未来研究所什么来头?
这一幕似曾相识,当初谷歌在AI领域一骑绝尘,山姆阿尔特曼(Sam Altman)为此举办了一个私人宴会,邀请了马斯克等一众科技圈大佬,最终在数月后成立了非营利组织OpenAI以遏制谷歌。如今,同样的情景加诸己身。
资料显示,生命未来研究所同样是一个非营利组织,它创立于2014年3月,其创始团队主要是高校学者、学生,包括麻省理工学院宇宙学家马克斯泰格马克,Skype联合创始人让塔林等。其研究所顾问委员会成员来源较广,部分名字耳熟能详,包括宇宙学家史蒂芬霍金、特斯拉CEO埃隆马斯克,亚伦艾达、摩根弗里曼等演艺界人士也在其中。
生命未来研究所关注包括AI、生物技术、核武器、气候变化在内的多个重大议题。从其官网简介来看,其主旨在于引导变革性技术造福生命,远离极端大规模风险。
▌马斯克带头 还有谁也来抵制GPT5?
从支持者阵容来看,马斯克的号召力自不用说, 约书亚本吉奥因对深度学习的贡献,在2018年与杰弗里辛顿、Facebook首席科学家杨力昆(Yann LeCun)一起获得了图灵奖,三人被称为“AI教父”。
另外,这份名单中还包括两名微软的软件工程师,以及来自OpenAI“竞争对手”的研究员,包括谷歌旗下DeepMind的三位研究科学家、AI绘画产品Stable Diffusion开发公司Stability AI的CEO Emad Mostaque。
有趣的是,翻阅完生命未来研究所公布的全部名单后,我们会发现,参与者的职业可谓五花八门,不少人身处AI行业之外。包括导演、演员、作者、已退休的政客、电工、参赞、医生、护士、出版商、记者、艺术家、销售、自由职业者、飞行员、军人、电影放映员、船长等(这其中就有《阿凡达:水之道》的美术指导Ben Procter);有的语焉不详,如维基百科资深编辑、管理员、退休人员;甚至有人的身份认证为“关心所有孩子未来的祖母、母亲”“忧心忡忡的公民”“居家的父母”。
正如上述公开信中的四个发问——当AI系统在一般任务上已经变得和人类一样有竞争力,我们必须扪心自问:
是否应该让机器用宣传和谎言充斥我们的信息渠道? 是否应该让所有工作都变得自动化,即使是令人满意的工作者?是否应该发展可能会超越我们并取代我们的非人类智能?是否应该冒险失去对人类文明的控制?