DataLearner 标志DataLearnerAI
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
原创博客

原创AI技术博客

探索人工智能与大模型最新资讯与技术博客,涵盖机器学习、深度学习、自然语言处理等领域的原创技术文章与实践案例。

排序方式
按日期排序按浏览量排序
123

123

123123

2020/08/03 10:34:513,797
#123
text-davinci-003后继者!OpenAI发布了一个新的补全大模型:GPT-3.5-Turbo-Instruct,完全的指令模型,没有聊天优化

text-davinci-003后继者!OpenAI发布了一个新的补全大模型:GPT-3.5-Turbo-Instruct,完全的指令模型,没有聊天优化

OpenAI最新发布了GPT-3.5-Turbo-Instruct,这是一款强大的指令遵循大模型。尽管官方没有发布官方博客介绍,但我们将在本文中详细探讨这一模型的特点以及其在人工智能领域的价值。

2023/09/19 10:09:303,786
#GPT-3.5-Turbo-Instruct#指令大模型
基于Emebdding的检索增强生成效果不同模型对比:重排序十分有利于检索增强生成的效果

基于Emebdding的检索增强生成效果不同模型对比:重排序十分有利于检索增强生成的效果

基于Embedding模型的大语言模型检索增强生成(Retrieval Augmented Generation,RAG)可以让大语言模型获取最新的或者私有的数据来回答用户的问题,具有很好的前景。但是,检索的覆盖范围、准确性和排序结果对大模型的生成结果有很大的影响。Llamaindex最近对比了主流的`embedding`模型和`reranker`在检索增强生成领域的效果,十分值得关注参考。

2023/11/08 20:10:293,764
#RAG#reranker
吴恩达联合OpenAI推出免费的面向开发者的ChatGPT Prompt工程课程——ChatGPT Prompt Engineering for Developers

吴恩达联合OpenAI推出免费的面向开发者的ChatGPT Prompt工程课程——ChatGPT Prompt Engineering for Developers

昨天,吴恩达宣布与OpenAI联合推出了一个新的面向开发者的ChatGPT的Prompt课程。课程主要教授大家如何使用Prompt做ChatGPT的应用开发、使用ChatGPT的新方法、建立自己的个性化的Chatbot,以及最重要的,基于OpenAI的API来练习Prompt工程技巧!

2023/04/28 09:59:543,740
#AI教程#PromptEngineering
通过命令行的方式建立Dask集群

通过命令行的方式建立Dask集群

Dask的集群启动创建也很简单,有好几种方式,最简单的是采用官方提供dask-scheduler和dask-worker命令行方式。本文描述如何使用命令行方法建立Dask集群。

2020/05/06 11:41:093,714
#dask#python
tokens危机到来该怎么办?新加坡国立大学最新研究:为什么当前的大语言模型的训练都只有1次epoch?多次epochs的大模型训练是否有必要?

tokens危机到来该怎么办?新加坡国立大学最新研究:为什么当前的大语言模型的训练都只有1次epoch?多次epochs的大模型训练是否有必要?

epoch是一个重要的深度学习概念,它指的是模型训练过程中完成的一次全体训练样本的全部训练迭代。然而,在LLM时代,很多模型的epoch只有1次或者几次。这似乎与我们之前理解的模型训练充分有不一致。那么,为什么这些大语言模型的epoch次数都很少。如果我们自己训练大语言模型,那么epoch次数设置为1是否足够,我们是否需要更多的训练?

2023/05/31 00:33:363,698
#tokens#大语言模型
什么是推理大模型?DeepSeek R1推理大模型与DeepSeek V3模型的区别是什么?什么时候该使用推理大模型?

什么是推理大模型?DeepSeek R1推理大模型与DeepSeek V3模型的区别是什么?什么时候该使用推理大模型?

最近,随着DeepSeek R1的火爆,推理大模型也进入大众的视野。但是,相比较此前的GPT-4o,推理大模型的区别是什么?它适合什么样的任务?推理大模型是如何训练出来的?很多人并不了解。本文将详细解释推理大模型的核心内容。

2025/02/08 18:05:033,698
#DeepSeekR1#OpenAIo1
使用卷积神经网络进行手写识别

使用卷积神经网络进行手写识别

本文是发在Medium上的一篇博客:《Handwritten Equation Solver using Convolutional Neural Network》。本文是原文的翻译。这篇文章主要教大家如何使用keras训练手写字符的识别,并保存训练好的模型到本地,以及未来如何调用保存到模型来预测。

2019/06/23 22:35:533,672
#卷积神经网络#深度学习
DataLearnerAI发布中国国产开源大模型生态概览统计:国产开源大模型都有哪些?现状如何?

DataLearnerAI发布中国国产开源大模型生态概览统计:国产开源大模型都有哪些?现状如何?

随着GPT的一路爆火,国内大模型的开源生态也开始火热。各大商业机构和科研组织都在不断发布自己的大模型产品和成果。但是,众多的大模型产品眼花缭乱。为了方便大家追踪国产开源大模型的发展情况,DataLearnerAI发布了中国国产大模型生态系统全景统计(地址:https://www.datalearner.com/china-opensource-llm ),本文也将根据这个统计结果简单分析当前国产开源大模型的生态发展情况。

2023/11/10 17:26:563,669
#中文大模型#国产大模型
网络爬虫中Json数据的解析

网络爬虫中Json数据的解析

网络爬虫中Json数据的解析

2016-09-09 08:29:173,654
#java#json
《Effective Java 第三版》笔记之六 避免创建不必要的对象

《Effective Java 第三版》笔记之六 避免创建不必要的对象

2018/09/27 21:21:413,647
#effectivejava#java
神经网络发展简介

神经网络发展简介

看过很多书,都说了神经网络的进展,但总有一些小问题没有明白。这次基本上都明白了,记录一下。

2018/09/20 07:13:163,638
#深度学习#神经网络
抛弃Spark?Flink会是下一代大数据计算引擎吗?

抛弃Spark?Flink会是下一代大数据计算引擎吗?

2018/09/21 17:10:373,636
#flink#spark
参数估计之极大似然估计、极大后验估计和贝叶斯参数估计

参数估计之极大似然估计、极大后验估计和贝叶斯参数估计

这篇博客主要翻译自Gregor Heinrich的技术博客Parameter estimation for text analysis,介绍极大似然估计、极大后验估计和贝叶斯参数估计的原理和案例

2016-05-17 16:27:133,630
#参数估计#极大似然估计
网络爬虫存储数据的三种常见方式及其python实现

网络爬虫存储数据的三种常见方式及其python实现

网络爬虫

2019/03/27 21:14:293,602
#excel#Python
Eclipse打包Java工程并导出jar包

Eclipse打包Java工程并导出jar包

使用eclipse打包java工程并导出java包

2016-12-12 20:48:123,599
#程序
 Java多线程网络爬虫(时光网为例)

Java多线程网络爬虫(时光网为例)

Java多线程网络爬虫(时光网为例)

2016-09-26 08:27:063,578
#Java#网络爬虫
Sequence-to-Sequence model

Sequence-to-Sequence model

Sequence-to-Sequence model

2019/03/27 21:18:523,577
#Sequence-to-Sequencemodel
MySQL启用中文全文检索功能

MySQL启用中文全文检索功能

MySQL支持对文本进行全文检索,全文检索可以类似搜索引擎的功能,相比较模糊匹配更加灵活高效且更快。MySQL5.7之后也支持对中文的全文检索,这里描述如何启用MySQL的中文全文检索。

2018/05/09 08:53:543,564
#MySQL#全文检索
轮盘赌java算例

轮盘赌java算例

2018/03/21 10:42:453,549
#轮盘赌
在消费级显卡上微调OpenAI开源的自动语言识别模型Whisper:8GB显存即可针对你自己的数据建立ASR模型

在消费级显卡上微调OpenAI开源的自动语言识别模型Whisper:8GB显存即可针对你自己的数据建立ASR模型

德国的一位博士生开源了一个使用LoRA(Low Rank Adaptation)技术和PEFT(Parameter Efficient Fine Tuning)方法对Whisper模型进行高效微调的项目。可以让大家在消费级显卡(显存8GB)上对OpenAI开源的WhisperV2模型进行微调!

2023/05/17 23:08:023,527
#ASR#LoRA
财大气粗!英伟达官方AI Playground提供可以免费使用的Stable Diffusion XL、LLaMA2、CLIP等模型

财大气粗!英伟达官方AI Playground提供可以免费使用的Stable Diffusion XL、LLaMA2、CLIP等模型

AI Playground最近的LLaMA2、Stable Diffusion XL等模型的进展也让大家看到了最新最强大的模型的能力。但是,对于大多数人来说,这些模型的使用依然具有较高的门槛,除了硬件资源消耗大,本身的部署也不容易。而支撑这些模型的一个重要的硬件因素就是英伟达的显卡。显卡已经超越一般理财,变得越来越贵。因此,基于大模型的免费服务成本也很高,而今天,英伟达官方的NGC网站推出了新的几款可以免费使用的大模型,包括聊天大模型LLaMA2、文本生成图片大模型Stable Diffusion等,基于

2023/08/10 13:43:213,525
#StableDiffusionXL#免费资源
122

122

221

2020/03/23 17:20:353,520
#122112
codeFest2018比赛的冠军解决方案——自然语言处理/计算机视觉/机器学习

codeFest2018比赛的冠军解决方案——自然语言处理/计算机视觉/机器学习

2018/09/28 15:44:163,518
#机器学习#比赛
上一页
1...111213...40
下一页

专题合集

RAG(检索增强生成)Long Context 长上下文AI Agent 实践

最热博客

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署

今日推荐

  • 并行计算中如何提高处理效率——来自Dask的提示
  • AI盛世如你所愿!昨天2个最新的开源“GPT”模型发布!
  • 有序列表,无序列表和定义列表
  • IFBench:大模型指令跟随能力评测基准详解
  • 大模型多模态评测基准MMMU介绍
  • 重磅!阿里巴巴开源自家首个MoE技术大模型:Qwen1.5-MoE-A2.7B,性能约等于70亿参数规模的大模型Mistral-7B
  • 神器!AI硬件基准测试库发布
  • 截止目前为止最大的国产开源大模型发布:元象科技开源XVERSE-65B大模型,16K上下文,免费商用