2025-03-28 160

Mira Network如何用去中心化网络根治大模型"幻觉"顽疾?

大家都清楚,AI大模型落地到金融、医疗、法律等垂直应用场景中最大的阻碍就一个:AI输出结果存在的“幻觉”问题无法匹配需要精准度的实际应用场景。如何解决呢?最近,@Mira_Network推出了公共测试网,给出了一套解决方案,我来说说咋回事:

首先,AI大模型工具存在“幻觉”的情况,大家都能有所感知,原因主要有两点:

1、AILLMs训练数据不够完整,尽管已有数据规模很庞大,但仍无法覆盖一些小众或专业领域的信息,这时候AI倾向于做“创造性补全”继而导致一些实时性错误;

2、AILLMs工作本质上都依赖“概率采样”,它是识别训练数据中的统计模式和相关性,而并非真正“理解”,因此概率采样的随机性、训练和推理结果的不一致性等都会导致AI在处理高精度事实性问题存在偏差;

如何解决此问题呢?康奈尔大学ArXiv平台上发布了一篇通过多个模型共同验证提高LLMs结果可靠性的方法。

简单理解,就是先让主模型生成结果,再集成多个验证模型对该问题进行“多数表决分析”,从而可降低模型产生的“幻觉”。

在一系列的测试中发现,此方法可以把AI输出的准确率提高至95.6%。

既然如此,那肯定需要一个分布式的验证平台来管理并验证主模型和验证模型的协作交互过程,MiraNetwork就是这么一个专门构建AILLMs验证的中间件网络,在用户和基础AI模型之间构建了一个可靠的验证层。

有了这套验证层网络的存在,就可以实现包括隐私保护、准确率保障、可扩展设计、标准化API接口等集成服务,可以凭借减少AILLMs输出幻觉来扩大AI在各个细分应用场景的落地可能性,也是Crypto分布式验证网络能够作用到AILLMs工程实现过程中的一次实践。

比如,MiraNetwork分享了几个在金融、教育、区块链生态的案例可以佐证:

1)Gigabrain一个交易平台集成了Mira后,系统可以加一环验证市场分析和预测的准确性,过滤掉不靠谱的建议,可提高AI交易信号的准确性,让AILLMs作用在DeFai场景更可靠一些;

2)Learnrite则利用mira验证AI生成的标准化考试题目,让教育机构能够大规模利用AI生成内容,同时不影响教育测试的内容准确性,以维持严格的教育标准;

3)区块链Kernel项目利用了Mira的LLM共识机制将其整合到了BNB生态系统当中,创建了去中心化验证网络DVN,使得区块链上执行AI计算的准确性和安全性得到一定程度的保障。

以上。

其实,MiraNetwork提供的是中间件共识网络服务,肯定不是让AI应用能力增强的唯一途径,事实上,通过数据端的训练增强,通过多模态大模型的交互增强,以及通过ZKP、FHE、TEE等潜在密码学技术的隐私计算增强等等都是可选路径。但相较之下,Mira的解决方案贵在落地实践快,且直接见效。

Join now ?

立即创建 账号,开始交易