今天,微软发表了目标要确保 AI 受到保护并具备安全性及隐私性,遵循「安全设计、安全预设与安全营运三大核心原则」的解决方案。而对於一般人如我们所看到的重点中的重点,就是 Microsoft 也搬出了具体对应 AI 应用的最大痛点「幻觉(hallucinations)」的相应技术。继续阅读解决 AI 幻觉问题!微软拿出「Correction」AI 工具,适用 ChatGPT 等热门 LLM 服务报导内文。
▲本篇图片来源:Microsoft
解决 AI 幻觉问题!微软拿出「Correction」AI 工具,适用 ChatGPT 等热门 LLM 服务
说到生成式 AI 的发展,微软可以说是科技大厂之中很早就看准这项技术爆红的时机,并且很早就与当时仍没有太大规模的 OpenAI 积极合作投资的公司。自然,微软对於生成式 AI 的动向,某种程度上也会达到与 OpenAI 同级的关切度。
今天,微软发表了目标要确保 AI 受到保护并具备安全性及隐私性,遵循「安全设计、安全预设与安全营运三大核心原则」的解决方案。
而对於一般人如我们所看到的重点中的重点,就是 Microsoft 也搬出了具体对应 AI 应用的最大痛点「幻觉(hallucinations)」的相应技术。
直接切入重点!在微软可信任 AI 计画(Trustworthy AI)里,他们的 Azure AI Studio 不仅针对生成式 AI 大型语言模型导入了主动风险评估的能力。更带来了可以侦测到幻觉问题时,即时「预防」修复大型语言模型可能输出问题资讯的解决方案。
就微软的说法,在他们的 Microsoft Azure AI Content Safety API 中,将会在 Groundedness 检测阶段新增一道「Correction」的矫正机制。将能侦测并修正包括防止即时注入和侵犯版权、有害内容、偏见、滥用和其他意外风险问题。
重点中的重点是,就外媒的说法这套机制不仅支援自己的 Copilot,甚至还能提供给三方服务包括 Meta Llama 与 OpenAI GPT-4o 等生成式 AI 服务做利用 – 就,可能有点像是针对 AI 服务所提供的「Defender」防范应用的概念?
所以,即便目前针对 AI 幻觉问题的防治方面,都可以算是各家发展大型语言模型的基本标配项目。但为了对应这方面的机制除了很显然会需要耗费大量的算力以及研发资源外。实际上花了这麽多心思与资源到底能不能真正抑制幻觉问题,也是目前许多专家感到怀疑之处。
看起来微软所打的算盘,很可能就是提供这种极为热门的科技发展项目一套预防出错问题的全盘解决方案。
是说,这次微软所宣布的可信任 AI 计画有很多部分(特别是 Correction)仍在预览状态。所以实际的表现仍有待验证 – 而且也要看其他 AI 服务愿不愿意信任他们(还真的是很需要 Trustworthy 的 AI 服务呢)。不过这项计画其实单就新闻稿来看还算是想的非常周全。
除了针对自家 Copilot 服务希望能提高透明度,有点以身作则概念的方向外。微软还针对对於隐私方面有所担忧的企业,提供了可以内嵌 Azure AI Content Safety 到装置上本地执行提升效率与保密的 Embedded Content Safety。还有针对高度隐私资讯的行业如医疗、金融等提供的「机密推理 (Confidential inferencing)」以及限制在特定场域适用於欧盟和美国的 Azure OpenAI Data Zones 解决方案等。
还特别提到针对 AI 硬体方面的当红炸子机 NVIDIA 的 GPU 硬体部分,也对应 H100 Tensor Core GPU 提供了确保资料保护的 Azure Confidential VMs 支援。
总之,今天的宣布给一般人如我的感觉就是超全面,但实际表现仍待预览测试後的结果的 AI 解决方案,微软已经都准备好了。就不知道宣告要将 20% 算力用於控管 AI 的 Superalignment 的 OpenAI,能不能从这些解决方案中获得一些帮助了。
引用来源:Microsoft|经由:COMPUTER WORLD|