IT采购网07月06日消息,OpenAI公司最近发出警告,称未来的人工智能可能对人类构成威胁,甚至导致人类灭绝。OpenAI联合创始人伊利亚·苏斯克维尔和对齐团队负责人简·莱克在一篇博客文章中指出,超级智能的强大力量可能会使人类失去控制权,他们还没有找到解决方案来操纵或控制这种潜在的超智能人工智能,以防止其失控。
据IT采购网了解,OpenAI公司认为,超智能人工智能可能在接下来的十年内问世。然而,目前人类还没有足够先进的技术来控制超级智能,因此他们迫切需要在对齐研究方面取得突破。所谓的对齐研究旨在确保人工智能对人类是有益的。
为了解决这个问题,OpenAI计划投入大量资源成立一个名为超级对齐团队的研究团队,以确保他们的人工智能系统对人类是安全的,并且最终实现人工智能对自身的监督。OpenAI计划通过利用人类的反馈来训练AI系统,辅助人类评估,最终实现实际的对齐研究。
然而,对于这一计划,也有人提出了反对意见。人工智能安全倡导者康纳·莱希指出,在构建具有人类水平智能之前,必须先解决对齐问题,否则无法控制超级智能。他认为OpenAI的计划并不是一个特别好的或安全的方案。
尽管人工智能技术的发展带来了许多创新和便利,但OpenAI的警告提醒我们,应该谨慎对待超级智能的发展,并重视对齐研究的重要性,以确保人工智能对人类的未来发展是有益的,同时也能保障人类的安全和权益。这需要全球范围内的共同努力和合作,以确保人工智能技术的良性发展。