(资料图片仅供参考)
自从ChatGPT、GPT-4问世并引发了一场席卷整个科技界的AI军备竞赛之后,人们在被人工智能的卓越能力所惊艳的同时,对于人工智能接下来会向何处进化、是否会威胁人类的担忧也越来越多。
马斯克等千名科技人士发公开信:暂停训练GPT-4及AI系统
当地时间3月28日,未来生命研究所(Future of Life Institute)网站披露了一封公开信,呼吁所有AI实验室立即暂停比GPT-4更强大的AI系统训练至少6个月。这封信由1000多人联名,其中包括知名企业家伊隆·马斯克、图灵奖得主约书亚·本希奥、《人工智能:现代方法》作者斯图尔特·罗素、苹果公司联合创始人史蒂夫·沃兹尼亚克等科技界领袖人物。他们对AI系统的担忧主要集中在两方面:其一,AI可能失控,给人类文明带来风险。其次,AI可能被恶意使用,造成错误信息传播或被用来犯罪。他们呼吁所有人工智能实验室应该至少暂停半年,接着,在暂停期间人工智能开发者应该与政策制定者合作,共同制定和实施一套先进的人工智能设计和开发的共享安全协议。信中还强调,暂停并不意味着需要停止人工智能技术的发展,只是我们需要从危险的竞赛中退后一步,从而限制不可预测的研究和开发。
千名科技人士呼吁叫停,不确定性正在挑战技术进步与投资者的信心
一方面,可能会在一定程度上影响模型的下一阶段开发训练。目前人工智能尚处于火热发展之际,这一呼吁可能会引起公众对于人工智能技术的更广泛的关注和讨论,众多优秀企业家以及科技界的领袖人物的态度会压制这个新兴行业的发展,人工智能程序化模型的商业化落地可能会因此受到影响。另一方面,可能会给市场带来负面情绪。马斯克等人作为目前科技界最有影响力的企业家之一,其他科技企业的企业家及投资者可能会受此事件的影响而产生顾虑,从而会对人工智能公司的股价产生一定的压力。
超级智能的崛起可能会引发未知的风险和威胁
不可否认的说,ChatGPT等大型语言模型可以为人类带来便利和效率,通过对话的形式与用户进行交互,更加方便和高效地满足用户的需求。但是,它们的出现也会给我们带来威胁。第一,可能引发一系列的社会问题。人工智能程序依托巨量数据资源和强大的学习能力,可以比人类更高效地完成机械的重复类工作,无疑会对软件技术类、新闻媒体类、法律工作类、市场研究分析师、教师等职业产生淘汰作用,从而引发产业结构变革,倒逼现有人才结构的前瞻性调整。此外,在就业上的不平等,会导致社会财富收益权的不平等,更多掌握人工智能技术的企业或个人能够获得社会财富更大的分配权,从而增大社会贫富差距。第二,可能伴随隐私和伦理问题。人工智能的高速发展可以收集用户的个人信息和历史记录,这可能会导致用户的隐私泄露和安全问题。此外,人工智能也可能被黑客攻击或滥用,导致用户的信息和财产受到损失。这种安全隐患可能会影响用户的信任和使用意愿,也需要平台和监管机构的注意和监督。第三,可能会对人类生存带来的毁灭性威胁。在《黑客帝国》等好莱坞巨作中不乏“机器人统治人类”的题材设定:人工智能程序突然觉醒了自我意识,与人类展开了一场你死我活的生存较量。尽管这样的担心尚且为时过早,但是随着预训练大模型技术的不断丰富,隐藏于人工智能系统背后的模型也会越来越复杂和庞大。在取得惊人进步的同时,是否意味着人工智能真的有可能产生像人类一样的意识并威胁人类社会的安全?
立足当前,积极应对人工智能的飞速发展
首先,在法律和技术层面加强监管和规范。未来人工智能发展到一定阶段,不断地向人类生产生活逼近,会更多涉及伦理道德问题,这势必需要政府、学术界和企业付出不断的努力,通过制定更加严格、合适的法律制定来引导人工智能健康发展。只要人工智能的发展是在规范合理的约束下进行的,风险就是可控的。其次,提高安全标准,推行人工智能产品安全认证。可靠的人工智能系统应具有强健的安全性能,避免因异常操作和恶意攻击而导致安全事故。这一方面需要提高人工智能产品研发的安全标准,考虑到其可能出现的安全漏洞和攻击方式,并采取相应的措施来保护其安全性;另一方面要推行智能系统安全认证,对人工智能技术和产品进行严格测试,增强社会公众信任,保障人工智能产业健康发展。第三,加强理论攻关,密切关注大数据和人工智能技术的发展。一方面,要倡导学术自由,支持人工智能的研究与开发,并在研究前期保证资金与人力的投入,尽可能抢占发展先机;另一方面,人工智能的变革十分迅速,需要不断地深入学习和了解大数据和人工智能技术的应用情况,清醒认识到它们的重要性。和其他任何科技的发展一样,人工智能也具有两面性,既能给人类带来巨大的财富,也可能带来不可预知的灾难。人工智能由人类创造,无论人工智能引发什么样的问题,解决这些社会问题的办法仍然在人类手中。
(王鹏为北京社科院研究员,南昌理工学院数字经济研究院院长)