乾元BigBangTransformer BBT-2-12B-Text基于中文700亿tokens进行预训练,经过指令微调的BBT-2基础模型可以回答百科类和日常生活的问题。BBT-2.5-13B-Text基于中文+英文 2000亿tokens进行预训练。
Alpaca Alpaca 是一个强大的 AI 工具,它为艺术家和创意人士提供了一个创新的数字画布。通过其快速迭代、风格生成和非破坏性工作流的特点,Alpaca 能够帮助用户提升创作效率,实现个性化...