DataLearner 标志DataLearnerAI
最新AI资讯
大模型排行榜
大模型评测基准
大模型列表
大模型对比
资源中心
工具
语言中文
DataLearner 标志DataLearner AI

专注大模型评测、数据资源与实践教学的知识平台,持续更新可落地的 AI 能力图谱。

产品

  • 评测榜单
  • 模型对比
  • 数据资源

资源

  • 部署教程
  • 原创内容
  • 工具导航

关于

  • 关于我们
  • 隐私政策
  • 数据收集方法
  • 联系我们

© 2026 DataLearner AI. DataLearner 持续整合行业数据与案例,为科研、企业与开发者提供可靠的大模型情报与实践指南。

隐私政策服务条款
原创博客

原创AI技术博客

探索人工智能与大模型最新资讯与技术博客,涵盖机器学习、深度学习、自然语言处理等领域的原创技术文章与实践案例。

排序方式
按日期排序按浏览量排序
 Keras框架下输出模型中间层学习到的表示的两种常用方式

Keras框架下输出模型中间层学习到的表示的两种常用方式

深度学习本质上是表示学习,它通过多层非线性神经网络模型从底层特征中学习出对具体任务而言更有效的高级抽象特征。针对一个具体的任务,我们往往会遇到这种情况:需要用一个模型学习出特征表示,然后将学习出的特征表示作为另一个模型的输入。这就要求我们会获取模型中间层的输出,下面以具体代码形式介绍两种具体方法。

2019/04/10 20:26:103,327
#Keras#中间层表示
中文停用词表和英文停用词表

中文停用词表和英文停用词表

中文停用词表和英文停用词表

2019/03/27 21:21:036,386
#中文停用词表和英文停用词表
端到端(end-to-end)学习

端到端(end-to-end)学习

端到端(end-to-end)学习

2019/03/27 21:20:373,420
#端到端(end-to-end)学习
模型中的参数和超参数

模型中的参数和超参数

模型中的参数和超参数

2019/03/27 21:20:133,326
#模型中的参数和超参数
Keras框架下的保存模型和加载模型

Keras框架下的保存模型和加载模型

Keras框架下的保存模型和加载模型

2019/03/27 21:19:463,240
#Keras框架下的保存模型和加载模型
Keras中predict()方法和predict_classes()方法的区别

Keras中predict()方法和predict_classes()方法的区别

Keras中predict()方法和predict_classes()方法的区别

2019/03/27 21:19:217,508
#Keras中predict()方法和predict_classes()方法的区别
Sequence-to-Sequence model

Sequence-to-Sequence model

Sequence-to-Sequence model

2019/03/27 21:18:523,577
#Sequence-to-Sequencemodel
TensorFlow学习——基本概念(1)

TensorFlow学习——基本概念(1)

TensorFlow基本概念

2019/03/27 21:18:223,222
#TensorFlow基本概念
tf.nn.softmax_cross_entropy_with_logits函数

tf.nn.softmax_cross_entropy_with_logits函数

tf.nn.softmax_cross_entropy_with_logits函数

2019/03/27 21:17:484,582
#tensorflow#tf.nn.softmax_cross_entropy_with_logits函数
pandas的一些使用技巧

pandas的一些使用技巧

pandas的使用

2019/03/27 21:16:543,065
#pandas#Python
Microsoft Visual C++ 14.0 is required 的解决方案

Microsoft Visual C++ 14.0 is required 的解决方案

Microsoft Visual C++ 14.0 is required

2019/03/27 21:15:193,195
#MicrosoftVisualC++14.0isrequired#python
网络爬虫存储数据的三种常见方式及其python实现

网络爬虫存储数据的三种常见方式及其python实现

网络爬虫

2019/03/27 21:14:293,602
#excel#Python
用python生成随机数的几种方法

用python生成随机数的几种方法

本篇博客主要讲解如何从给定参数的的正态分布/均匀分布中生成随机数以及如何以给定概率从数字列表抽取某数字或从区间列表的某一区间内生成随机数,按照内容将博客分为3部分,并附上代码。

2019/03/27 21:13:175,294
#Python#随机数生成
用python绘制散点图

用python绘制散点图

如何使用python绘制简单的散点图

2019/03/27 21:13:006,251
#Python#散点图
深度学习之GRU神经网络

深度学习之GRU神经网络

之前面的博客中,我们已经描述了基本的RNN模型。但是基本的RNN模型有一些缺点难以克服。其中梯度消失问题(Vanishing Gradients)最难以解决。为了解决这个问题,GRU(Gated Recurrent Unit)神经网络应运而生。本篇博客将描述GRU神经网络的工作原理。GRU主要思想来自下面两篇论文:

2019/03/23 15:34:2811,210
#GRU#RNN
深度学习之LSTM模型

深度学习之LSTM模型

在前面的博客中,我们已经介绍了基本的RNN模型和GRU深度学习网络,在这篇博客中,我们将介绍LSTM模型,LSTM全称是Long Short-Time Memory,也是RNN模型的一种。

2019/03/23 15:34:009,846
#LSTM#RNN
8个非常好的NLP领域的预训练模型(包含代码和论文资源)

8个非常好的NLP领域的预训练模型(包含代码和论文资源)

使用预训练模型处理NLP任务是目前深度学习中一个非常火热的领域。本文总结了8个顶级的预训练模型,并提供了每个模型相关的资源(包括官方文档、Github代码和别人已经基于这些模型预训练好的模型等)。

2019/03/23 12:27:4911,353
#NLP#PretrainedModel
深度学习之Attention机制

深度学习之Attention机制

Encoder-Decoder的深度学习架构是目前非常流行的神经网络架构,在许多的任务上都取得了很好的成绩。在之前的博客中,我们也详细介绍了该架构(参见深度学习之Encoder-Decoder架构)。本篇博客将详细讲述Attention机制。

2019/03/21 11:32:026,459
#Attention#RNN
深度学习之Encoder-Decoder架构

深度学习之Encoder-Decoder架构

深度学习中Sequence to Sequence (Seq2Seq) 模型的目标是将一个序列转换成另一个序列。包括机器翻译(machine translate)、会话识别(speech recognition)和时间序列预测(time series forcasting)等任务都可以理解成是Seq2Seq任务。RNN(Recurrent Neural Networks)是深度学习中最基本的序列模型。

2019/03/19 11:19:0413,484
#Encoder-Decoder#RNN
深度学习之RNN模型

深度学习之RNN模型

序列数据是生活中很常见的一种数据,如一句话、一段时间某个广告位的流量、一连串运动视频的截图等。在这些数据中也有着很多数据挖掘的需求。RNN就是解决这类问题的一种深度学习方法。其全称是Recurrent Neural Networks,中文是递归神经网络。主要解决序列数据的数据挖掘问题。

2019/03/15 10:57:1215,787
#RNN#深度学习
Python中的Pickle操作(pkl文件解释)

Python中的Pickle操作(pkl文件解释)

您刚刚经历了一个耗时的过程,将一堆数据加载到python对象中。 也许你从数千个网站上爬取了数据。也许你计算了pi的数值。如果您的笔记本电脑电池耗尽或python崩溃,您的信息将丢失。 Pickling允许您将python对象保存为硬盘驱动器上的二进制文件。 在你pickle你的对象后,你可以结束你的python会话,重新启动你的计算机,然后再次将你的对象加载到python中。

2019/03/11 16:43:5524,824
#python#序列化
在线广告的紧凑分配方案(Optimal Online Assignment with Forecasts)

在线广告的紧凑分配方案(Optimal Online Assignment with Forecasts)

广告分配问题属于运筹中的优化问题。一般情况下,我们期望有个最大化收益,但同时需要保证合约的完成。因此,这是一个带不等式约束的最优化问题。由于广告数量和用户数量很多,因此,求解的难度很高。在这篇文章中,作者推导了原问题的拉格朗日函数的系数之间的关系,大大降低了求解的难度。这里将简要介绍原理和推导过程。

2019/02/28 15:59:054,625
#在线广告#展示广告
对偶规划问题

对偶规划问题

对偶问题(Dual Problem)是运筹学中一个很重要的概念,是基于原问题的约束条件和目标函数为基础构造而来。每一个线性规划的问题都存在一个与之对应的对偶问题。对偶问题在求解最优化问题时很有用。

2019/02/28 15:02:596,788
#广告分配#线性规划
最优化问题的KKT条件简要解释

最优化问题的KKT条件简要解释

KKT条件(Karush–Kuhn–Tucker conditions)是求解带不等式约束的最优化问题中非常重要的一个概念和方法。这篇博客将解释相关概念和操作。

2019/02/28 15:02:3614,130
#KKT条件#拉格朗日算子
上一页
1...293031...40
下一页

专题合集

RAG(检索增强生成)Long Context 长上下文AI Agent 实践

最热博客

  • 1Dirichlet Distribution(狄利克雷分布)与Dirichlet Process(狄利克雷过程)
  • 2回归模型中的交互项简介(Interactions in Regression)
  • 3贝塔分布(Beta Distribution)简介及其应用
  • 4矩母函数简介(Moment-generating function)
  • 5普通最小二乘法(Ordinary Least Squares,OLS)的详细推导过程
  • 6使用R语言进行K-means聚类并分析结果
  • 7深度学习技巧之Early Stopping(早停法)
  • 8手把手教你本地部署清华大学的ChatGLM-6B模型——Windows+6GB显卡本地部署

今日推荐

  • OpenAI开源大模型调测工具Transformer Debugger(TDB):可以在训练大模型之前理解模型的运行情况并干预
  • Anthropic发布新一代Claude 3.5模型:全新的Haiku 3.5和升级版Sonnet 3.5
  • Google最新超大模型Pathways:一个会讲笑话的6400亿参数的语言模型
  • Claude Mythos 是什么?Anthropic最强模型评测、安全能力与Project Glasswing详解
  • Ai2发布全新评测基准SciArena:为科学文献任务而生的大模型评测新基准,o3大幅领先所有大模型
  • OpenAI最新动向,Sam不再回归OpenAI,与Greg一起进入微软!OpenAI新任CEO由Emmett Shear接任!
  • R语言操作数据库
  • HuggingFace过去七天最流行的AI模型一览——预训练大模型绝对王者