中文高质量大模型预训练文本数据集

数据规模: 1亿篇
数据大小: 500GB
应用场景: 大模型
数据类型: 文本
最后更新: 2023-09-02 13:22
 
数据简介

文本内容涵盖80多个学科领域,进行了准确的标签分类和严格的内容清洗。

数据规模:

1亿篇

数据类型:

txt


0相关评论
数据提供方信息查看主页

数据堂(北京)科技股份有限公司

国内首家上市的人工智能数据服务企业,致力于为AI及大数据领域公司提供训练数据集、数据采集与标注定制服务、标注平台部署等一体化数据解决方案。
  • 14
更多>本企业其它数据
多语言多模态视频文本对齐数据集 中文高质量大模型预训练文本数据集

北京人工智能高质量数据集服务平台

创新数据服务,积极推进数据拓展应用

关于我们

联系我们