9月6日,AI社区Hugging Face于官网宣布,由技术创新研究所TII训练的开源大模型Falcon 180B正式登陆该社区。作为当前最大的开源大模型,它具有1800亿参数,在3.5万亿Tokens上完成训练。
从表现能力上来看,Falcon 180B在MMLU上的表现超过了Llama 2 70B和OpenAI的GPT-3.5,在HellaSwag、LAMBADA、WebQuestions等数据集上的表现与谷歌的PaLM 2-Large不相上下,在Hugging Face开源大模型榜单上以68.74分超过了Meta的Llama 2位列第一。