IT采购网4月16日消息,OpenAI 的联合创始人兼 CEO 萨姆・奥尔特曼(SamAltman)在麻省理工学院“想象力行动”活动上接受了采访,谈到了大语言模型(LLM)的发展趋势和安全问题。
奥尔特曼认为,我们正在接近 LLM 规模的极限,规模越大并不一定意味着模型越好,而可能只是为了追求一个数字而已。
据IT采购网了解,奥尔特曼还回应了一封要求 OpenAI 暂停开发更强大 AI六个月的公开信,他表示他同意在能力越来越强大的情况下,安全标准也要提高,但他认为信件缺乏技术细节和准确性。他说,OpenAI 在发布 GPT-4之前已经花了六个月以上的时间来研究安全问题,并邀请外部审计和“红队”来测试模型。"我也同意,随着能力变得越来越强,安全标准必须提高。但我认为这封信缺少了关于我们需要暂停的大部分技术上的细微差别—— 这封信的早期版本声称我们正在训练 GPT-5。我们没有,而且在一段时间内也不会,所以从这个意义上说,这有点愚蠢。但我们在 GPT-4的基础上还在做其他事情,我认为这些事情有各种安全问题需要解决,但信中完全没有提到。因此,我认为谨慎行事,并对安全问题越来越严格,这一点非常重要。我不认为(信中的)建议是解决这个问题的最终方法,"他说。
奥尔特说,OpenAI已经在这个领域工作了七年,付出了很多努力,而大多数人都不愿意这样做。他说,他愿意公开讨论安全问题和模型的局限性,因为这是正确的事情。他承认有时候他和其他公司代表会说一些“蠢话”,结果发现是错误的,但他愿意冒这个风险,因为他们希望能够与社区建立更好的合作关系,共同推动人工智能的安全发展。
奥尔特曼还指出,OpenAI在模型训练中遵循了一些原则,包括限制模型的能力,避免将其应用于恶意用途,以及促使社区参与模型的决策过程。他认为,公众对于AI的应用和影响有权参与讨论和决策,而不应该由单一实体来决定。
在谈到未来的发展方向时,奥尔特曼表示,OpenAI将继续致力于提升模型的效用和能力,同时保持对安全性的高度警惕,并与社区、学术界和政府等多方合作,共同解决人工智能领域面临的安全和伦理问题。
总的来说,奥尔特曼强调了OpenAI对于人工智能安全的重视,并表示他们将继续努力推动技术的发展,同时积极参与社会讨论和合作,确保人工智能的应用能够更好地造福人类。