本项目是 chineseglue 的第二版,是一个中文语言理解测评基准,包括代表性的数据集、基准(预训练)模型、语料库、排行榜。目的是为更好的服务中文语言理解、任务和产业界,做为通用语言模型测评的补充,通过完善中文语言理解基础设施的方式来促进中文语言模型的发展。
原始仓库地址:https://github.com/cluebenchmark/clue.git
本项目是一个中文语言理解测评基准,包括代表性的数据集、基准(预训练)模型、语料库、排行榜。该项目选择了一系列有一定代表性的任务对应的数据集,做为测试基准的数据集。这些数据集会覆盖不同的任务、数据量、任务难度。本项目为更好的服务中文语言理解、任务和产业界,做为通用语言模型测评的补充,通过完善中文语言理解基础设施的方式来促进中文语言模型的发展。
原始仓库地址:https://github.com/chineseglue/chineseglue.git
本项目是 Google BERT 的 Pytorch 实现。BERT 可以用于问答系统,情感分析,垃圾邮件过滤,命名实体识别,文档聚类等任务中,作为这些任务的基础设施即语言模型,然后对其进行微调,将它应用于我们的目标任务中,其微调训练也是快速而且简的。
原始仓库地址:https://github.com/codertimo/bert-pytorch.git
Quick NLP是受fast.ai库启发的深度学习nlp库
它遵循与fastai相同的api,并对其进行了扩展,从而可以快速,轻松地运行nlp模型
原始仓库地址:https://github.com/outcastofmusic/quick-nlp.git
**transformers:**最先进的自然语言处理技术。
**transformers**(原名pytorch-transformers和pytorch-pretrained-bert)提供先进的通用体系结构(BERT GPT-2,RoBERTa,XLM, DistilBert, XLNet, CTRL…)对自然语言理解(NLU)和自然语言生成(NLG)在100 + 32 + pretrained模型语言和深TensorFlow 2.0和PyTorch之间的互操作性。
原始仓库地址:https://github.com/huggingface/transformers.git
浏览量:1572
下载量:8
项目类别:
阅读理解
over 2 years前更新
本仓库是TensorFlow代码和BERT的预训练模型。
**BERT**是一种预先训练语言表示的方法,这意味着我们在大型文本语料库(如Wikipedia)上训练一个通用的“语言理解”模型,然后将该模型用于我们关心的下游NLP任务(如问题回答)。**BERT**优于之前的方法,因为它是第一个无监督的、深度双向的NLP训练前系统。
原始仓库地址:https://github.com/google-research/bert.git
**nqg**这一项目讲述了神经问题生成系统在阅读理解任务中的实现。此外,章节级模型和句子级模型将很快推出。
如果您使用我们的数据或代码,请引用我们的论文如下:
title={Learning to Ask: Neural Question Generation for Reading Comprehension},
author={Du, Xinya and Shao, Junru and Cardie, Claire},
booktitle={Association for Computational Linguistics (ACL)},
year={2017}
论文地址为:https://arxiv.org/abs/1705.00106
原始仓库地址:https://github.com/xinyadu/nqg.git
浏览量:2104
下载量:698
项目类别:
阅读理解
over 2 years前更新
本仓库收录了一些关于机器阅读理解必读的论文。
原始仓库地址:https://github.com/thunlp/RCPapers.git
浏览量:1986
下载量:39
项目类别:
阅读理解
over 2 years前更新
**QANet**是一个用于机器阅读理解的QANet的Tensorflow实现。
从ICLR2018开始,谷歌的**QANet**(以前是快速阅读理解(FRC))的Tensorflow实现。(注意:这不是本文作者的官方实现)
原始仓库地址:https://github.com/NLPLearn/QANet.git
浏览量:2343
下载量:483
项目类别:
阅读理解
over 2 years前更新
这是ACL 2017论文中,描述的DrQA系统的PyTorch实现。
DrQA是一个应用于开放式问题回答的阅读理解系统。特别地,DrQA的目标是“大规模机器阅读”(MRS)。在这个设置中,我们正在一个潜在的非常大的非结构化文档语料库中寻找问题的答案(这可能不是多余的)。因此,系统必须将文档检索(查找相关文档)和文本机器理解(从这些文档中识别答案)的挑战结合起来。
我们使用DrQA的实验集中在回答事实性问题,同时使用Wikipedia作为文档的唯一知识来源。维基百科是一个非常适合大规模、丰富、详细信息的来源。要回答任何问题,首先必须从500多万篇文章中检索出少数可能相关的文章,然后仔细地扫描它们以确定答案。
原始仓库地址:https://github.com/facebookresearch/DrQA.git
浏览量:1523
下载量:726
项目类别:
阅读理解
almost 3 years前更新