乾元BigBangTransformer

14小时前发布 407 0 0

中国首个金融垂直大模型开源家族

所在地:
中国
语言:
简体中文
收录时间:
2026-01-14
乾元BigBangTransformer乾元BigBangTransformer

乾元BigBangTransformer:国产大模型的金融级竞争力

在金融领域,你是否曾为海量研报解析复杂财报数据处理而头疼?乾元BigBangTransformer(BBT)国产大模型家族,正是为此类专业场景而生。自2022年起,超对称技术公司陆续开源了从BBT-1-0.2B到BBT-2.5-13B等多个版本,凭借独特的中文金融语料库训练,构建出比通用模型更懂中国市场的AI大脑。

金融大模型的核心优势

  • 跨模态金融大脑:BBT-1系列创新性地融合文本与时序数据进行训练,使模型能理解股价分时图等信息,在情绪分析等任务中准确率显著提升。
  • 全场景版本覆盖:提供从10亿到130亿参数的不同规格模型,无论是研报解析还是中英文金融文档处理,都能找到匹配的解决方案。
  • 开源与灵活性:支持模型下载、自有数据续训和下游任务微调,为打造智能投顾、金融客服等应用提供了坚实基础。

关键版本与实战表现

  • BBT-1-1B:专注于研报精炼,财报关键数据抽取效率提升显著。
  • BBT-2-12B:纯中文底座模型,在中文金融类任务评测中名列前茅。
  • BBT-2.5-13B:支持中英文混合处理,在跨境金融文档处理上展现出高准确率。

企业部署与成本考量

乾元系列大模型的核心商用需授权申请。部署百亿参数模型涉及千万级训练成本与高昂的数据处理支出。对于企业而言,可优先考虑其开源版本进行低成本试用,并需审慎评估自身算力基础设施是否满足大规模部署要求。

开发者实践指南

实际使用中,BBT模型在中文长文生成政策文件解析快速微调方面表现突出。开发者需注意其语料编码等细节,但其在金融实体识别等任务上的高性能,证明了其垂直领域的巨大价值。

数据统计

相关导航

暂无评论

none
暂无评论...