乾元BigBangTransformer
BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。

用这个免费工具检测任何人工智能生成的文本
本站ccoze.cn提供的InterestedinAI都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由ccoze.cn实际控制,在13 12 月, 2024 5:25 下午收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,ccoze.cn不承担任何责任。