DataLearner 标志DataLearnerAI
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
原创博客

原创AI技术博客

探索人工智能与大模型最新资讯与技术博客,涵盖机器学习、深度学习、自然语言处理等领域的原创技术文章与实践案例。

排序方式
按日期排序按浏览量排序
网络爬虫之基础java集合操作篇

网络爬虫之基础java集合操作篇

网络爬虫之基础java集合操作篇

2016-09-08 22:07:542,582
#java#网络爬虫
Unifying Language Learning Paradigms——谷歌的一个模型打天下

Unifying Language Learning Paradigms——谷歌的一个模型打天下

如今,自然语言处理的预训练模型被广泛运用在各个领域。各大企业和组织都在追求各种大型的预训练模型。但是当你问我们应该使用哪一个预训练模型来解决问题的时候,通常没有统一的答案,一般来说它取决于下游的任务,也就是说需要根据任务类型来选择模型。 而谷歌认为这不是一个正确的方向,因此,本周,谷歌提出了一个新的NLP预训练模型框架——Unifying Language Learning Paradigms(简称UL2)来尝试使用一个模型解决多种任务。

2022/05/12 22:50:302,577
#论文快讯#通用预训练模型
半导体市场概览

半导体市场概览

美国对华为的制裁让我们看到半导体领域核心技术国产化的重要性,尽管国内互联网发展迅速,也产生了阿里、腾讯、美团等巨头,但是底层的硬件技术依然依赖于西方国家。其实我个人觉得也不是我们多么希望自己自力更生,实在是被逼无奈,时不时断供一下,这谁能受得了。最近个人也在补充这些知识,把一些学习的这些东西记录下来,如有问题也希望大家指出。

2020/06/07 18:10:062,575
#半导体
让大模型支持更长的上下文的方法哪个更好?训练支持更长上下文的模型还是基于检索增强?

让大模型支持更长的上下文的方法哪个更好?训练支持更长上下文的模型还是基于检索增强?

在大语言模型中,上下文长度是指模型可以考虑的输入数据的数量。更长的上下文在大语言模型的实际应用中有非常重要的价值。当前,让大语言模型支持更长的上下文有两种常用的方法,一种是训练支持更长上下文长度的模型,扩展模型的输入,另外一种是检索增强生成的方法(Retrieval Augmentation Generation,RAG)。但二者应该如何选择,这是一个很少能直接比较的问题。为此,英伟达(Nvidia)的研究人员做了一个详细的比较。

2023/10/10 15:28:482,575
#long-context#大语言模型
学术工具

学术工具

为学术新人提供的学术工具列表

2021/04/29 10:19:042,572
#学术#论文检索
如何训练你自己的大语言模型?——来自Replit一线工程师的亲身经验

如何训练你自己的大语言模型?——来自Replit一线工程师的亲身经验

本文是Replit工程师发表的训练自己的大语言模型的过程的经验和步骤总结。Replit是一家IDE提供商,它们训练LLM的主要目的是解决编程过程的问题。Replit在训练自己的大语言模型时候使用了Databricks、Hugging Face和MosaicML等提供的技术栈。这篇文章提供的都是一线的实际经验,适合ML/AI架构师以及算法工程师学习。

2023/04/24 22:35:152,564
#LLM#模型训练
OpenAI CEO详解今明两年GPT发展计划:10万美元部署私有ChatGPT、最高支持100万tokens、建立微调模型应用市场

OpenAI CEO详解今明两年GPT发展计划:10万美元部署私有ChatGPT、最高支持100万tokens、建立微调模型应用市场

前段时间,OpenAI的CEO Sam Altman与二十多位开发者一起聊了很多关于OpenAI的API和产品的规划问题。Sam Altman透露了一些非常重要的OpenAI的发展方向,包括GPT产品功能的未来规划等。目前这份原始博客内容已经应OpenAI的要求被删除,这里我们简单总结一下这些内容。

2023/06/04 16:19:042,541
#GPT-4#OpenAI
使用kaggle房价预测的实例说明预测算法中OneHotEncoder、LabelEncoder与OrdinalEncoder的使用及其差异

使用kaggle房价预测的实例说明预测算法中OneHotEncoder、LabelEncoder与OrdinalEncoder的使用及其差异

对于分类特征的处理,sklearn中常见的方法有两种,一种是OneHotEncoder,另一种很多人说是LabelEncoder,其实不对。sklearn中,还有一个OrdinalEncoder,二者似乎一样,但其实并不相同,差别很大。本文将用Kaggle的房价预测的实例来描述如何这些差异以及不同处理对预测算法的影响。

2021/11/19 00:37:562,539
#kaggle#sklearn
GPT-5 模式与配额全解析:自动与手动 Thinking 的区别、不同用户的使用配额问题等

GPT-5 模式与配额全解析:自动与手动 Thinking 的区别、不同用户的使用配额问题等

GPT-5 在 ChatGPT 中引入了“自动在普通/推理间切换”的机制,但模式命名、配额规则和速率限制让许多用户困惑。本文梳理不同模式的作用、是否计入推理配额、各订阅层的可用性与限制、旧模型的替换规则,并提供三步配额优化策略。特别提示:编码与大上下文任务应优先使用 GPT-5 Thinking(≈196k 上下文),而普通 Chat 模式上下文为 32k。

2025/08/12 22:51:122,532
#ChatGPT#GPT-5
网站开启支持https访问

网站开启支持https访问

2018/09/28 15:46:042,529
#web#编程
Python for Data Analysis第三版免费在线学习网站来临!

Python for Data Analysis第三版免费在线学习网站来临!

《Python for Data Analysis: Data Wrangling with pandas, NumPy, and Jupyter》是由Wes McKinney撰写的Python数据分析专业工具书籍。很容易理解,这本书就是教大家如何使用Pandas、NumPy以及Jupyter分析数据的。

2022/07/09 09:56:592,529
#python#编程书籍
突破英特尔CPU+英伟达GPU的大模型训练硬件组合:苹果与AMD都有新进展!

突破英特尔CPU+英伟达GPU的大模型训练硬件组合:苹果与AMD都有新进展!

大语言模型的训练和微调的硬件资源要求很高。现行主流的大模型训练硬件一般采用英特尔的CPU+英伟达的GPU进行。主要原因在于二者提供了符合大模型训练所需的计算架构和底层的加速库。但是,最近苹果M2 Ultra和AMD的显卡进展让我们看到了一些新的希望。

2023/07/02 23:08:462,527
#大模型训练#生态
下拉列表和按钮

下拉列表和按钮

2018/10/01 21:48:082,505
#下拉列表#按钮
有序列表,无序列表和定义列表

有序列表,无序列表和定义列表

2018/09/30 21:05:192,503
#列表
为什么GitHub要求文件的末尾必须有换行符?

为什么GitHub要求文件的末尾必须有换行符?

这几天逛reddit的时候发现了一个很有意思的讨论,有个童鞋说他在GitHub上提交代码的时候发现了提交文件被提示有一个红色警告的提示,鼠标移动上去会告诉你“No newline at end of file”(也就是文件末尾没有换行)。因此,他很奇怪,他不懂为什么GitHub要求文件的末尾必须有换行符。这个问题引起了很多的讨论。这里我也顺便记录共享一下。

2022/03/06 17:52:212,502
#Linux#Unix
目前正在举办的机器学习相关的比赛

目前正在举办的机器学习相关的比赛

机器学习相关的竞赛为大家学习使用算法提供了一个非常好的平台和机会。既能检验大家学习的算法的实际应用情况,也可以帮助我们学习到很多有用的技巧。很多竞赛也都产生了优秀的算法思想与经验。所以积极参加比赛是一种非常重要的学习方式。本文总结目前正在举办的比赛,各位可以根据自己的情况参与。

2021/11/04 19:05:192,494
#机器学习#竞赛
Java入门基础笔记-2

Java入门基础笔记-2

2018/09/22 10:00:392,491
#Java#入门
Hugging Face发布最新的深度学习模型评估库Evaluate!

Hugging Face发布最新的深度学习模型评估库Evaluate!

就在儿童节前一天,Hugging Face发布了一个最新的深度学习模型评估库Evaluate。对于机器学习模型而言,评估是最重要的一个方面。但是Hugging Face认为当前模型评估方面非常分散且没有很好的文档。导致评估十分困难。因此,Hugging Face发布了这样一个Python的库,用以简化大家评估的步骤与时间。

2022/06/01 11:14:402,478
#huggingface#模型评价
Dask分布式任务中包含写文件的方法时候,程序挂起不结束的解决方案

Dask分布式任务中包含写文件的方法时候,程序挂起不结束的解决方案

使用Dask进行分布式处理的时候一个最常见的场景是有很多个文件,每个文件由一个进程处理。这种操作经常会遇到一个程序挂起的问题,使得程序永远运行,无法结束。本文描述如何解决。

2020/05/08 20:25:142,471
#dask#python
一个简单的网页布局

一个简单的网页布局

2018/10/09 21:35:272,467
#网页布局
重磅!阿里巴巴开源自家首个MoE技术大模型:Qwen1.5-MoE-A2.7B,性能约等于70亿参数规模的大模型Mistral-7B

重磅!阿里巴巴开源自家首个MoE技术大模型:Qwen1.5-MoE-A2.7B,性能约等于70亿参数规模的大模型Mistral-7B

阿里巴巴的通义千问一直是开源领域最强大的大模型之一。就在今天,阿里巴巴首次开源了他们家的MoE技术大模型Qwen1.5-MoE-A2.7B,这个模型是使用现有的Qwen-1.8B模型作为起点,通过类似merge技术进行合并得到的。

2024/03/29 00:40:062,465
#MoE#Qwen1.5-MoE
发现新大陆!(申请领地)

发现新大陆!(申请领地)

这是一个新大陆,有博客园,算法区,技术堡,论文馆,数据林,工具库。尽情畅游吧!

2019/07/23 14:57:492,462
#myself#newmainland
Java入门基础笔记-7

Java入门基础笔记-7

2018/09/22 19:56:552,447
#Java#入门
吴恩达的LandingAI究竟是一家什么样的创业公司

吴恩达的LandingAI究竟是一家什么样的创业公司

吴恩达是人工智能领域非常著名的人物。2011年在谷歌创建的谷歌大脑项目,震惊了全世界。2014年他加入百度负责百度大脑计划,并于2017年离职。离职之后他创建了人工智能公司LandingAI,并担任首席执行官。昨天吴恩达宣布他新成立的这家公司已经募集到5,700万美金。本文主要简单介绍这家公司的业务。

2021/11/10 21:22:462,447
#人工智能#企业简介
上一页
1...181920...40
下一页

专题合集

RAG(检索增强生成)Long Context 长上下文AI Agent 实践

最热博客

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署

今日推荐

  • 吴恩达再开新课程!如何基于大语言模型实现更强大的语义搜索课程!
  • 线性数据结构之跳跃列表(Skip List)详解及其Java实现
  • 常见的正则表达式写法总结
  • 重磅!ChatGPT加入多模态能力,可以听语音、生成语音并理解图片了!
  • 如何基于Gradio构建生成式AI的应用:吴恩达联合HuggingFace推出最新1小时短课
  • 重磅!Meta将PyTorch移交给Linux基金会!
  • 如何抽取样本方差的分布
  • 网络爬虫模拟登陆获取数据并解析实战(二)