IT采购网10月18日消息,微软公司为维护社交媒体和数字平台上的健康和和谐社区环境,减少包括偏见、仇恨和暴力内容在内的不良素材,于今年5月开始测试其AI内容审核工具AzureAI Content Safety。今天,这一工具经过多月的测试正式发布。
据IT采购网了解,Azure AI ContentSafety集成了多个经过训练的AI模型,能够识别图片和文本中包含的偏见、仇恨、暴力等不当内容,还可以理解并审查八种不同语言的素材,为标记的内容提供严重性评分,从而协助人工审核员确定需要采取行动的内容。
起初,这一内容审核工具是作为Azure OpenAI服务的一部分发布的,但如今微软将其作为一个独立的系统正式推向市场。
微软在官方博文中强调:“这意味着客户可以将其应用于来自开源模型以及其他公司模型的人工智能生成内容,也可以用于检查部分由用户生成的内容,从而进一步扩展其实用性。”
尽管相对于同类产品,Azure AI ContentSafety在公正性和上下文理解方面取得了显著进步,微软也坦言,该工具仍然需要依赖人工审核员的数据标记和内容审查。这也就意味着,最终的公正性仍然取决于人的主观判断。鉴于人工审核员在处理数据和内容时可能会带有自身的偏见,因此无法达到完全中立和客观的审查标准。