A framework for few-shot evaluation of autoregressive language models.
最近更新: 2年多前一个强大且轻量的联邦学习框架,其底层支持同态加密、秘密共享、差分隐私等多种加密技术, 并且同时支持Tensorflow、Mxnet、Pytorch等主流框架。
最近更新: 3年多前谷歌与斯坦福大学共同研发的最新预训练模型ELECTRA因其小巧的模型体积以及良好的模型性能受到了广泛关注。 为了进一步促进中文预训练模型技术的研究与发展,哈工大讯飞联合实验室基于官方ELECTRA训练代码以及大规模的中文数据训练出中文ELECTRA预训练模型供大家下载使用。
最近更新: 3年多前本项目提供了面向中文的XLNet预训练模型,旨在丰富中文自然语言处理资源,提供多元化的中文预训练模型选择。 我们欢迎各位专家学者下载使用,并共同促进和发展中文资源建设。
最近更新: 3年多前TextPruner是一个为预训练语言模型设计的模型裁剪工具包,通过轻量、快速的裁剪方法对模型进行结构化剪枝,从而实现压缩模型体积、提升模型速度。
最近更新: 3年多前Pre-Training with Whole Word Masking for Chinese BERT(中文BERT-wwm系列模型)
最近更新: 4年多前A Span-Extraction Dataset for Chinese Machine Reading Comprehension (CMRC 2018)
最近更新: 4年多前A PyTorch-based knowledge distillation toolkit for natural language processing
最近更新: 4年多前