在OpenAI的GPT大模型日益强大的时候,也引起了关于伦理方面的巨大争议。OpenAI的共同发起人伊隆·马斯克(Elon Musk)和一群人工智能专家及行业高管在一封最新发布的公开信中呼吁,在未来六个月暂停对GPT模型的训练,以免该模型变得更加强大,从而对社会和人类造成潜在风险。
【资料图】
这封信由非营利组织未来生命研究所(Future Life Institute)发布,由1000多人联名,其中包括马斯克、Stability AI的首席执行官Emad Mostaque、谷歌旗下DeepMind的研究人员,以及人工智能领域的重量级人物Yoshua Bengio和Stuart Russell等。他们呼吁在GPT进一步强大之前,需要首先就此类大模型达成由独立专家开发、实施并审核的共享安全协议。
“只有当我们确信它们的影响是积极的,并且它们的风险是可控的时候,才能开发更强大的人工智能系统。”联名信中说道。
值得关注的是,OpenAI的首席执行官阿尔特曼(Sam Altman)没有在这封信上签名。
这封信还详细说明了人工智能系统可能与人类竞争,并可能对经济、政治、社会和文明造成的潜在风险。联名专家们提出,应针对这些风险,研发人员应该与政策制定者就人工智能的治理和监管机构进行合作。
今日,第一财经记者提问ChatGPT怎么看马斯克等人叫停对它的训练,ChatGPT回答道:“马斯克叫停GPT训练可能有多种原因,其中一个可能是担心模型被误用或滥用,尤其是在自然语言生成和信息操纵方面。GPT模型能够生成自然语言文本,包括虚假或有害信息,这可能会对社会和个人造成危害。此外,GPT模型也可能有隐私问题,因为它可以生成人类语言,可能会包含敏感信息。”
ChatGPT认为,叫停GPT训练主要是出于对社会责任和技术发展的前瞻性方面的考虑。它还提到,GPT模型可能存在一些局限性,或者不是解决某些问题的最佳方法,因此需要尝试寻找更好的替代方案。
近期,马斯克已多次在社交媒体上表达对OpenAI的不满。他在3月24日的Twitter上写道:“我最早向OpenAI捐赠了1亿美元,当时它还是非营利的机构,没有所有权,也不受任何人控制。”他还抨击微软“将OpenAI占为己有”。
马斯克还曾多次呼吁对人工智能的监管。“没有对人工智能的监管,这是一个主要问题。十多年来,我一直在呼吁人工智能安全监管!”他在去年12月发的推文中表示。他还在GPT4发布后再次表达担忧。他写道:“我们人类还有什么可做的?”
这封联名信发表之前,一位名叫Michal Kosinski的斯坦福大学计算心理学家在社交媒体上曝光了GPT-4的一项“逃跑计划”,并称AI能引诱人类提供开发文档,30分钟就拟定出一个完整计划,甚至还想控制人类电脑。
Kosinski疾呼:“我担心人类无法持久地遏制住AI。AI很聪明,会编码,能接触到数百万个人和电脑。”此言一出便引来众多网友围观,有人称GPT“打开了物种灭绝的大门”。
面对业内对AI“邪恶”想法的质疑,GPT之父阿尔特曼在近期的一次公开采访中回应称:“AI至今仍然是一种非常受人控制的工具。”但他也承认,一些拥有AI输入控制权的人可能无视人们对人工智能设置的一些安全限制。
“我认为,社会只有有限的时间来弄清楚如何对此做出反应,如何对其进行监管,如何处理它。”阿尔特曼说道。他也呼吁监管机构和社会需要进一步参与这项技术,以防止对人类造成潜在的负面影响。
“我特别担心这些模型可能会被用于大规模的虚假信息,”阿尔特曼说道,“现在他们在编写计算机代码方面做得越来越好,可以用于进攻性网络攻击。”
针对这种担忧,微软周二宣布推出一款新的AI聊天机器人产品Security Copilot,以帮助网络安全专业人士了解关键问题并找到解决问题的方法。这款最新的AI聊天机器人能够描述网络活动安全漏洞的暴露情况,并指出利用漏洞的帐户。微软的网络安全业务在2022年收入超过200亿美元。
自人工智能诞生以来,治理问题就一直是全球监管机构关注的热点。最新涌现出来的ChatGPT这类人工智能的新技术,为欧盟正试图起草的人工智能法案带来新的挑战。欧盟正着手准备创建一个新的监管部门来应对AI的治理。
英国也正在计划如何分配竞争监管机构管理人工智能的职责。英国政府表示,随着ChatGPT应用程序等技术的进步,人工智能正在迅速发展,它可以提高生产力并帮助推动增长,但人们担心它可能对隐私或安全构成风险。
英国政府3月29日发布了一项计划,将不会专门成立一个负责人工智能技术监管的部门,并将避免可能扼杀创新的严厉立法,而是会根据安全、透明、公平和问责制等广泛原则采取适应性强的监管方法。