深度学习框架Keras入门案例

13 篇文章 6 订阅
订阅专栏

公众号:尤而小屋
作者:Peter
编辑:Peter

大家好,我是Peter~

本文介绍3个案例来帮助读者认识和入门深度学习框架Keras。3个案例解决3个问题:回归、二分类、多分类

Keras官网

目录

为什么选择Keras

相信很多小伙伴在入门深度学习时候首选框架应该是TensorFlow或者Pytorch。在如今无数深度学习框架中,为什么要使用 Keras 而非其他?整理自Keras中文官网:

  • Keras 优先考虑开发人员的经验
  • Keras 被工业界和学术界广泛采用
  • Keras 可以轻松将模型转化为产品
  • Keras 支持多个后端引擎
  • Keras 拥有强大的多 GPU 和分布式训练支持
  • Keras 的发展得到关键公司的支持,比如:谷歌、微软等

详细信息见中文官网:https://keras.io/zh/why-use-keras/

主要步骤

使用Keras解决机器学习/深度学习问题的主要步骤:

  1. 特征工程+数据划分
  2. 搭建神经网络模型add
  3. 查看网络架构summary
  4. 编译网络模型compile
  5. 训练网络fit
  6. 保存模型save
  7. 评估模型evaluate
  8. 评价指标可视化visualize

导入库

import pandas as pd
import numpy as np

import matplotlib.pyplot as plt
%matplotlib inline

from sklearn import datasets  
from sklearn.preprocessing import MinMaxScaler
from sklearn.preprocessing import StandardScaler
from sklearn.model_selection import train_test_split

import tensorflow as tf
from keras import models
from keras import layers 
from keras.models import load_model

np.random.seed(1234)

回归案例

回归案例中使用的是Keras自带的波士顿房价数据集。

导入数据

In [2]:

from keras.datasets import boston_housing

(train_X, train_y), (test_X, test_y) = boston_housing.load_data()

In [3]:

train_X.shape  # 数据形状

Out[3]:

(404, 13)

In [4]:

train_X[:3]  # 特征向量值

Out[4]:

array([[1.23247e+00, 0.00000e+00, 8.14000e+00, 0.00000e+00, 5.38000e-01,
        6.14200e+00, 9.17000e+01, 3.97690e+00, 4.00000e+00, 3.07000e+02,
        2.10000e+01, 3.96900e+02, 1.87200e+01],
       [2.17700e-02, 8.25000e+01, 2.03000e+00, 0.00000e+00, 4.15000e-01,
        7.61000e+00, 1.57000e+01, 6.27000e+00, 2.00000e+00, 3.48000e+02,
        1.47000e+01, 3.95380e+02, 3.11000e+00],
       [4.89822e+00, 0.00000e+00, 1.81000e+01, 0.00000e+00, 6.31000e-01,
        4.97000e+00, 1.00000e+02, 1.33250e+00, 2.40000e+01, 6.66000e+02,
        2.02000e+01, 3.75520e+02, 3.26000e+00]])

In [5]:

train_y[:3]   # 标签值

Out[5]:

array([15.2, 42.3, 50. ])

数据标准化

神经网络中一般输入的都是较小数值的数据,数据之间的差异不能过大。现将特征变量的数据进行标准化处理

In [6]:

train_X[:3]  # 处理前

Out[6]:

array([[1.23247e+00, 0.00000e+00, 8.14000e+00, 0.00000e+00, 5.38000e-01,
        6.14200e+00, 9.17000e+01, 3.97690e+00, 4.00000e+00, 3.07000e+02,
        2.10000e+01, 3.96900e+02, 1.87200e+01],
       [2.17700e-02, 8.25000e+01, 2.03000e+00, 0.00000e+00, 4.15000e-01,
        7.61000e+00, 1.57000e+01, 6.27000e+00, 2.00000e+00, 3.48000e+02,
        1.47000e+01, 3.95380e+02, 3.11000e+00],
       [4.89822e+00, 0.00000e+00, 1.81000e+01, 0.00000e+00, 6.31000e-01,
        4.97000e+00, 1.00000e+02, 1.33250e+00, 2.40000e+01, 6.66000e+02,
        2.02000e+01, 3.75520e+02, 3.26000e+00]])

针对训练集的数据做标准化处理:减掉均值再除以标准差

In [7]:

mean = train_X.mean(axis=0)  # 均值
train_X = train_X - mean  # 数值 - 均值

std = train_X.std(axis=0)  # 标准差
train_X /= std  # 再除以标准差

train_X  # 处理后

针对测集的数据处理:使用训练集的均值和标准差

In [8]:

test_X -= mean  # 减掉均值
test_X /= std   # 除以标准差

构建网络

In [9]:

train_X.shape

Out[9]:

(404, 13)

In [10]:

model = models.Sequential()
model.add(tf.keras.layers.Dense(64,
                                activation="relu",
                                input_shape=(train_X.shape[1], )))
model.add(tf.keras.layers.Dense(64,
                                activation="relu"))

model.add(tf.keras.layers.Dense(1))  # 最后的密集连接层,不用激活函数
model.compile(optimizer="rmsprop",  # 优化器
              loss="mse",  # 损失函数
              metrics=["mae"]  # 评估指标:平均绝对误差
             )

网络架构

In [11]:

model.summary()  

训练网络

In [12]:

history = model.fit(train_X,  # 特征
          train_y,  # 输出
          epochs = 100,  # 模型训练100轮
          validation_split=0.2,
          batch_size=1,
          verbose=0  # 静默模式;如果=1表示日志模式,输出每轮训练的结果
         )

保存模型

In [13]:

model.save("my_model.h5")  # 保存模型

del model  # 删除现有的模型

In [14]:

model = load_model('my_model.h5')  # 加载模型

评估模型

返回的是loss和mae的取值

In [15]:

model.evaluate(test_X, test_y)
4/4 [==============================] - 0s 6ms/step - loss: 16.1072 - mae: 2.5912

Out[15]:

[16.107179641723633, 2.5912036895751953]

history对象

In [16]:

type(history)  # 回调的History对象

Out[16]:

keras.callbacks.History

In [17]:

type(history.history)  # 字典

Out[17]:

dict

In [18]:

查看history.history字典对象中的信息:keys就是每个评价指标,values其实就是每次输出的指标对应的值

for keys,_ in history.history.items():
    print(keys)
loss
mae
val_loss
val_mae

In [19]:

len(history.history["loss"])

Out[19]:

100

In [20]:

history.history["loss"][:10]

Out[20]:

[197.65003967285156,
 32.76368713378906,
 22.73907470703125,
 18.689529418945312,
 16.765336990356445,
 15.523008346557617,
 14.131484985351562,
 13.04631519317627,
 12.62230396270752,
 12.256169319152832]

loss-mae

In [21]:

# 损失绘图
import matplotlib.pyplot as plt

history_dict = history.history 
loss_values = history_dict["loss"]
mae_values = history_dict["mae"]

epochs = range(1,len(loss_values) + 1)

# 训练
plt.plot(epochs,  # 循环轮数
         loss_values,  # loss取值
         "r",  # 红色
         label="loss"  
        )

plt.plot(epochs,  
         mae_values,  
         "b",  
         label="mae"  
        )

plt.title("Loss and Mae of Training")
plt.xlabel("Epochs")
plt.legend()

plt.show()

二分类

使用的是sklearn中自带的cancer数据集

导入数据

In [22]:

cancer=datasets.load_breast_cancer()
cancer

部分数据信息截图

# 生成特征数据和标签数据

X = cancer.data
y = cancer.target

数据标准化

In [24]:

X[:2]  # 转换前

Out[24]:

array([[1.799e+01, 1.038e+01, 1.228e+02, 1.001e+03, 1.184e-01, 2.776e-01,
        3.001e-01, 1.471e-01, 2.419e-01, 7.871e-02, 1.095e+00, 9.053e-01,
        8.589e+00, 1.534e+02, 6.399e-03, 4.904e-02, 5.373e-02, 1.587e-02,
        3.003e-02, 6.193e-03, 2.538e+01, 1.733e+01, 1.846e+02, 2.019e+03,
        1.622e-01, 6.656e-01, 7.119e-01, 2.654e-01, 4.601e-01, 1.189e-01],
       [2.057e+01, 1.777e+01, 1.329e+02, 1.326e+03, 8.474e-02, 7.864e-02,
        8.690e-02, 7.017e-02, 1.812e-01, 5.667e-02, 5.435e-01, 7.339e-01,
        3.398e+00, 7.408e+01, 5.225e-03, 1.308e-02, 1.860e-02, 1.340e-02,
        1.389e-02, 3.532e-03, 2.499e+01, 2.341e+01, 1.588e+02, 1.956e+03,
        1.238e-01, 1.866e-01, 2.416e-01, 1.860e-01, 2.750e-01, 8.902e-02]])

In [25]:

ss = StandardScaler()

X = ss.fit_transform(X)
X[:2]   # 转换后

Out[25]:

array([[ 1.09706398e+00, -2.07333501e+00,  1.26993369e+00,
         9.84374905e-01,  1.56846633e+00,  3.28351467e+00,
         2.65287398e+00,  2.53247522e+00,  2.21751501e+00,
         2.25574689e+00,  2.48973393e+00, -5.65265059e-01,
         2.83303087e+00,  2.48757756e+00, -2.14001647e-01,
         1.31686157e+00,  7.24026158e-01,  6.60819941e-01,
         1.14875667e+00,  9.07083081e-01,  1.88668963e+00,
        -1.35929347e+00,  2.30360062e+00,  2.00123749e+00,
         1.30768627e+00,  2.61666502e+00,  2.10952635e+00,
         2.29607613e+00,  2.75062224e+00,  1.93701461e+00],
       [ 1.82982061e+00, -3.53632408e-01,  1.68595471e+00,
         1.90870825e+00, -8.26962447e-01, -4.87071673e-01,
        -2.38458552e-02,  5.48144156e-01,  1.39236330e-03,
        -8.68652457e-01,  4.99254601e-01, -8.76243603e-01,
         2.63326966e-01,  7.42401948e-01, -6.05350847e-01,
        -6.92926270e-01, -4.40780058e-01,  2.60162067e-01,
        -8.05450380e-01, -9.94437403e-02,  1.80592744e+00,
        -3.69203222e-01,  1.53512599e+00,  1.89048899e+00,
        -3.75611957e-01, -4.30444219e-01, -1.46748968e-01,
         1.08708430e+00, -2.43889668e-01,  2.81189987e-01]])

数据集划分

In [26]:

X_train, X_test, y_train, y_test = train_test_split(X,y,test_size=0.2,random_state=123)

X_train.shape

Out[26]:

(455, 30)

In [27]:

y_train.shape

Out[27]:

(455,)

In [28]:

X_test.shape   # 测试集长度是114

Out[28]:

(114, 30)

构建网络

这是一个二分类的问题,最后一层使用sigmoid作为激活函数

In [29]:

model = models.Sequential()

# 输入层
model.add(tf.keras.layers.Dense(16,
                                activation="relu",
                                input_shape=(X_train.shape[1],)))
# 隐藏层
model.add(tf.keras.layers.Dense(16,
                                activation="relu"))
# 输出层
model.add(tf.keras.layers.Dense(1, 
                                activation="sigmoid"))

网络架构

In [30]:

model.summary()

编译模型

在keras搭建的神经网络中,如果输出是概率值的模型,损失函数最好使用:交叉熵crossentropy

常用目标损失函数的选择:

  • binary_crossentropy:针对二分类问题的交叉熵
  • categorical_crossentropy:针对多分类问题的交叉熵

两种不同的指定方法:

# 方法1
model.compile(loss='mean_squared_error', optimizer='rmsprop')

# 方法2
from keras import losses
model.compile(loss=losses.mean_squared_error, optimizer='rmsprop')

常用的性能评估函数:

  • binary_accuracy: 针对二分类问题,计算在所有预测值上的平均正确率
  • categorical_accuracy:针对多分类问题,计算再所有预测值上的平均正确率
  • sparse_categorical_accuracy:与categorical_accuracy相同,在对稀疏的目标值预测时有用

In [31]:

# 配置优化器
from keras import optimizers

model.compile(optimizer="rmsprop", # 优化器
              loss="binary_crossentropy",  # 目标损失函数
              metrics=["acc"]  # 评价指标函数 acc--->accuracy
             )

训练网络

In [32]:

len(X_train)

Out[32]:

455

In [33]:

history = model.fit(X_train,  # 特征向量
                    y_train,  # 标签向量
                    epochs=20,  # 训练轮数
                    batch_size=25  # 每次训练的样本数
                   )
history

评估模型

In [34]:

model.evaluate(X_test, y_test)
4/4 [==============================] - 0s 3ms/step - loss: 0.0879 - acc: 0.9825

Out[34]:

[0.08793728798627853, 0.9824561476707458]

可以看到模型的精度达到了惊人的98.2%!

loss-acc

In [35]:

for keys, _ in history.history.items():
    print(keys)
loss
acc

In [36]:

# 损失绘图
import matplotlib.pyplot as plt

history_dict = history.history 
loss_values = history_dict["loss"]
acc_values = history_dict["acc"]

epochs = range(1,len(loss_values) + 1)

# 训练
plt.plot(epochs,  # 循环轮数
         loss_values,  # loss取值
         "r",  # 红色
         label="loss"  
        )

plt.plot(epochs,  
         acc_values,  
         "b",  
         label="acc"  
        )

plt.title("Loss and Acc of Training")
plt.xlabel("Epochs")
plt.legend()

plt.show()

可以看到:随着轮数的增加loss在逐渐降低,而精度acc在逐渐增加,趋近于1

多分类案例

多分类的案例使用sklearn中自带的iris数据集,数据集不多介绍。最终结果是存在3个类的。

导入数据

In [37]:

iris = datasets.load_iris()

In [38]:

# 特征数据和标签数据

X = iris.data
y = iris.target

X[:2]

Out[38]:

array([[5.1, 3.5, 1.4, 0.2],
       [4.9, 3. , 1.4, 0.2]])

In [39]:

y[:3]

Out[39]:

array([0, 0, 0])

数据标准化

In [40]:

ss = StandardScaler()
X = ss.fit_transform(X)

数据集划分

In [41]:

X_train, X_test, y_train, y_test = train_test_split(X,y,test_size=0.2,random_state=123)

X_train.shape

Out[41]:

(120, 4)

标签向量化

In [42]:

y_test[:5]  # 转换前

Out[42]:

array([1, 2, 2, 1, 0])

In [43]:

# 内置方法实现标签向量化
from keras.utils.np_utils import to_categorical

y_train = to_categorical(y_train)
y_test = to_categorical(y_test)

In [44]:

y_test[:5]  # 转换后

Out[44]:

array([[0., 1., 0.],
       [0., 0., 1.],
       [0., 0., 1.],
       [0., 1., 0.],
       [1., 0., 0.]], dtype=float32)

In [45]:

X_train[:3]

Out[45]:

array([[ 1.88617985, -0.59237301,  1.33113254,  0.92230284],
       [ 0.18982966, -1.97355361,  0.70592084,  0.3957741 ],
       [-1.38535265,  0.32841405, -1.22655167, -1.3154443 ]])

构建模型

In [46]:

model = models.Sequential()
model.add(tf.keras.layers.Dense(64,
                                activation="relu",
                                input_shape=(X_train.shape[1],)))

model.add(tf.keras.layers.Dense(64,
                                activation="relu"))

model.add(tf.keras.layers.Dense(3,
                                activation="softmax"))

模型编译

多分类问题一般是使用categorical_crossentropy作为损失函数。它是用来衡量网络输出的概率分布和标签的真实概率分布的距离。

In [47]:

model.compile(optimizer="rmsprop",
              loss="categorical_crossentropy",
              metrics=["accuracy"]
             )

训练网络

In [48]:

len(X_train)

Out[48]:

120

In [49]:

history = model.fit(X_train,
                    y_train,
                    epochs=10,
                    batch_size=15
                   )
history

评估模型

In [50]:

model.evaluate(X_test, y_test)
1/1 [==============================] - 0s 414ms/step - loss: 0.1799 - accuracy: 1.0000

Out[50]:

[0.17986173927783966, 1.0]

loss-acc曲线

In [51]:

for keys, _ in history.history.items():
    print(keys)
loss
accuracy

In [52]:

# 损失绘图
import matplotlib.pyplot as plt

history_dict = history.history 
loss_values = history_dict["loss"]
acc_values = history_dict["accuracy"]

epochs = range(1,len(loss_values) + 1)

# 训练
plt.plot(epochs,  # 循环轮数
         loss_values,  # loss取值
         "r",  # 红色
         label="loss"  
        )

plt.plot(epochs,  
         acc_values,  
         "b",  
         label="accuracy"  
        )

plt.title("Loss and Accuracy of Training")
plt.xlabel("Epochs")
plt.legend()

plt.show()

待补充学习

上面的方案只是从最基本的方式来通过Keras进行神经网络的建模,还有很多可以深入学习和挖掘的点:

  1. 验证集数据的引入
  2. 加入正则化技术,防止模型过拟合
  3. 如何评估训练的轮次,使得模型在合适时机停止
  4. 激活函数的选择等
keras示例程序
10-23
addition_rnn.py 执行序列学习以执行两个数字(作为字符串)的添加。 antirectifier.py 演示如何为Keras编写自定义图层。 babi_memnn.py 在bAbI数据集上训练一个内存网络以进行阅读理解。 babi_rnn.py 在bAbI数据集上训练一个双支循环网络,以便阅读理解。 cifar10_cnn.py 在CIFAR10小图像数据集上训练一个简单的深CNN。 conv_filter_visualization.py 通过输入空间中的渐变上升可视化VGG16的过滤器。 conv_lstm.py 演示使用卷积LSTM网络。 deep_dream.py 深深的梦想在克拉斯。 image_ocr.py 训练一个卷积堆叠,后跟一个循环堆栈和一个CTC logloss函数来执行光学字符识别(OCR)。 imdb_bidirectional_lstm.py 在IMDB情绪分类任务上训练双向LSTM。 imdb_cnn.py 演示使用Convolution1D进行文本分类。 imdb_cnn_lstm.py 在IMDB情绪分类任务上训练一个卷积堆栈,后跟一个循环堆栈网络。 imdb_fasttext.py 在IMDB情绪分类任务上训练一个FastText模型。 imdb_lstm.py 在IMDB情绪分类任务上训练一个LSTM。 lstm_benchmark.py 比较IMDB情绪分类任务上不同的LSTM实现。 lstm_text_generation.py 生成尼采文字的文字。 mnist_acgan.py 在MNIST数据集上实现AC-GAN(辅助分类器GAN) mnist_cnn.py 在MNIST数据集上训练一个简单的convnet。 mnist_hierarchical_rnn.py 训练一个分级RNN(HRNN)来分类MNIST数字。 mnist_irnn.py Le等人在“以简单的方式初始化整流线性单元的反复网络”中再现具有逐像素连续MNIST的IRNN实验。 mnist_mlp.py 在MNIST数据集上训练一个简单的深层多层感知器。 mnist_net2net.py 在“Net2Net:通过知识转移加速学习”中再现带有MNIST的Net2Net实验。 mnist_siamese_graph.py 从MNIST数据集中的一对数字上训练暹罗多层感知器。 mnist_sklearn_wrapper.py 演示如何使用sklearn包装器。 mnist_swwae.py 列出了一个堆栈,其中AutoEncoder在MNIST数据集上的剩余块上构建。 mnist_transfer_cnn.py 转移学习玩具的例子。 neural_doodle.py 神经涂鸦。 neural_style_transfer.py 神经样式转移。 pretrained_word_embeddings.py 将预训练的词嵌入(GloVe embeddings)加载到冻结的Keras嵌入层中,并使用它在20个新闻组数据集上训练文本分类模型。 reuters_mlp.py 在路透社newswire主题分类任务上训练并评估一个简单的MLP。 stateful_lstm.py 演示如何使用有状态的RNN有效地建模长序列。 variational_autoencoder.py 演示如何构建变体自动编码器。 variational_autoencoder_deconv.py 演示如何使用反褶积层使用Keras构建变体自动编码器。
Keras 入门基础知识+完整实例
fu6543210的博客
06-04 4530
按以下2部分写: 1 Keras常用的接口函数介绍 2 Keras代码实例 [keras] 模型保存、加载、model类方法、打印各层权重 1.模型保存 model.save_model()可以保存网络结构权重以及优化器的参数 model.save_weights() 仅仅保存权重 2.模型加载 from keras.models import load_model load_model...
用示例学习 Keras
weixin_42141390的博客
03-11 452
网格寻优调参(包括网络层数、节点个数、编译方式等) 以神经网络+鸢尾花数据集为例: from sklearn.datasets import load_iris import numpy as np from sklearn.metrics import make_scorer,f1_score,accuracy_score from sklearn.linear_model import LogisticRegression from keras.models import Sequential,mode
Keras 快速上手深度学习(带实际案例
Robin_Pi的博客
03-07 1223
目录1. Keras 简介1.1 Keras的重要APIlayersactivationslossesmetricsoptimizersmodelsbackendcallbacks1.2 网络建立过程2. 代码实例 1. Keras 简介 Keras是一个高层神经网络API,Keras由纯Python编写而成并基Tensorflow、Theano以及CNTK后端。Keras 为支持快速实验而生,能...
keras自带例子 reuters数据集
11-10
keras自带的多个例子中常用的reuters数据集,文件名为reuters.npz
机器学习-15. Keras深度学习框架
07-16
人工智能基础视频教程零基础入门课程 第十四章 人工智能基础视频教程零基础入门课程,不需要编程基础即可学习,共15章,由于整体课程内容太大,无法一次传输,分章节上传。...十五章 Keras深度学习框架
机器学习-09. 深度学习、TensorFlow安装和实现
07-16
人工智能基础视频教程零基础入门课程 人工智能基础视频教程零基础入门课程,不需要编程基础即可学习,共15章,由于整体课程内容太大,无法一次传输,分章节上传。 第一章 人工智能开发及...十五章 Keras深度学习框架
机器学习-05. 分类器项目案例和神经网络算法
07-16
人工智能基础视频教程零基础入门课程 第五章 人工智能基础视频教程零基础入门课程,不需要编程基础即可学习,共15章,由于整体课程内容太大,无法一次传输,分章节上传。...十五章 Keras深度学习框架
机器学习-11. DNN深度神经网络手写图片识别
07-16
人工智能基础视频教程零基础入门课程 第十一章 人工智能基础视频教程零基础入门课程,不需要编程基础即可学习,共15章,由于整体课程内容太大,无法一次传输,分章节上传。...十五章 Keras深度学习框架
机器学习-12. TensorBoard可视化
07-16
人工智能基础视频教程零基础入门课程 第十二章 人工智能基础视频教程零基础入门课程,不需要编程基础即可学习,共15章,由于整体课程内容太大,无法一次传输,分章节上传。...十五章 Keras深度学习框架
Keras的一些简单的Demo
02-12
- [01.多层感知机实现及模型的保存](01.mnist_mpl.py) - [02.模型的加载](02.load_model.py) - [03.绘制精度和损失曲线](03.plot_acc_loss.py) - [04.卷积神经网络实现](04.mnist_cnn.py) - [05.CIFAR10_cnn](05.cifar10_cnn.py) - [06.mnist_lstm](06.mnist_lstm.py) - [07.基于Vgg16模型(含全连接层)的图片识别)](07.vgg-16.py) - [08.卷积滤波器可视化](08.conv_filter_visualization.py) - [09.变分自动编码器](09.variational_autoencoder.py) - [10.迁移学习fine-tuning](10.mnist_transfer_cnn.py) - [11.Keras和Tensorflow联合使用](11.Keras_with_tensorflow.py) - [12.使用sklearn wrapper进行的参数搜索](12.mnist_sklearn_wrapper.py) - [13.基于InceptionV3模型(不含全连接层)的迁移学习应用](13.finetune_InceptionV3.py) - [14.单隐藏层自编码器](14.single_autoencoder.py) - [15.多隐藏层自编码器](15.multi_autoencoder.py) - [16.卷积自编码器](16.Convolutional_autoencoder.py) - [17.图片去噪处理](17.Image_denoising.py) - [18.Glove词向量进行新闻分类](18.GloVe_word_embeddings.py)
机器学习-10. TensorFlow深入、TensorBoard
07-16
人工智能基础视频教程零基础入门课程 第十章 人工智能基础视频教程零基础入门课程,不需要编程基础即可学习,共15章,由于整体课程内容太大,无法一次传输,分章节上传。...十五章 Keras深度学习框架
机器学习-08. 密度聚类、谱聚类
07-16
人工智能基础视频教程零基础入门课程 第八章 人工智能基础视频教程零基础入门课程,不需要编程基础即可学习,共15章,由于整体课程内容太大,无法一次传输,分章节上传。...十五章 Keras深度学习框架
Google开发专家带你学 AI:入门到实战(Keras/Tensorflow)(附源码)
06-15
曾从0到1深入参与了华为 2012 实验室深度学习平台和华为深度学习云服务的设计与研发工作。 【课程设计】 课程内容基于最新的Keras版本(你也可以使用 TensorFlow 2 的 tf.keras 模块),其中有大量独家解读、案例...
机器学习-06. 多分类、决策树分类、随机森林分类(上)
07-16
人工智能基础视频教程零基础入门课程 第六章(上) 人工智能基础视频教程零基础入门课程,不需要编程基础即可学习,共15章,由于整体课程内容太大,无法一次传输,分章节上传。...十五章 Keras深度学习框架
Keras学习及运行官方实例(2022.2.24)
I have a dream, here my dreams come true!
02-24 2530
Keras学习及官方示例运行 2022.2.24
keras 入门!一个例子立地成佛
陈泊舟的博客
04-05 3882
一个例子 小编在GitHub上找到了一个基于卷积神经网络(CNN)的验证码识别项目,将关键的代码进行整理,去掉了无助于理解过程的代码。keras编程的过程可划分为六个阶段:数据预处理→\rightarrow→定义神经网络结构→\rightarrow→编译模型→\rightarrow→训练网络→\rightarrow→使用模型进行预测→\rightarrow→进行数据后处理。 '''为了凸显kera...
keras 的使用例子
Nicole_Li1095的博客
08-07 258
keras 搭建简单模型 扁平化model.add(Flatten()) 可以用 全局平均池化代替model.add(GlobalAveragePooling2D()) 方法1 # 序列模型 # 序列模型属于通用模型的一种,因为很常见,所以这里单独列出来进行介绍,这种模型各层之间 # 是依次顺序的线性关系,在第k层和第k+1层之间可以加上各种元素来构造神经网络 # 这...
keras学习案例(1)
乐多的博客
04-08 366
keras安装完成以后,学习一个完整的小案例:电影评论分类问题 二分类问题,将电影评论划分为正面或负面 IMDB数据集内置于Keras库中,一共包含50000条严重两极分化的评论,其中25000条用于训练,25000条用于测试。且训练集和测试集都包含50%的正面评论和50%的负面评论。 import numpy as np import matplotlib.pyplot as plt f...
零基础入门深度学习 csdn
最新发布
06-20
### 回答1: 深度学习是一种通过算法模拟人类神经系统中神经元之间的连接,进行复杂的数据处理和分析的技术。深度学习广泛应用于图像识别,自然语言处理,语音识别,推荐系统等领域,已经成为人工智能技术的重要分支。 对于零基础入门深度学习,我们需要首先学习编程基础,包括Python语言,numpy数学库,以及机器学习中常用的一些算法和常用框架,如TensorFlow,PyTorch等。学习以上基础知识将会对深度学习入门有很大帮助。 其次,需要学习深度学习的核心算法,如神经网络,卷积神经网络,循环神经网络等。这些算法不仅需要掌握其数学原理,还要了解其实现方式和具体用法。 最后,实践是学习深度学习的最佳方式。需要通过一些具体的项目来锻炼自己的技能。可以从一些公开数据集入手,如MNIST手写数字识别集,IMDB电影评论情感分析等,逐步进行深度学习实践。 零基础入门深度学习是一个较为困难的过程,需要付出较为大的努力。但是深度学习的应用前景广阔,学习深度学习能够提升个人的核心竞争力,提高职业发展空间。 ### 回答2: 深度学习人工智能领域中非常热门的一个研究方向。作为一名零基础的入门者,想要学习深度学习,首先需要获得一定的数学知识基础,比如线性代数、微积分等,同时还需要了解一些相关的编程技能,例如Python编程语言、机器学习算法等。 在网上可以找到很多深度学习的学习资料,其中比较优秀的就是csdn网站上的相关视频教程。这些教程针对零基础的学习者贴合入门需求,用简明易懂的语言介绍了深度学习的基础概念、原理和常见应用等。通过学习这些教程,入门者可以了解神经网络、卷积神经网络、递归神经网络等深度学习的基础框架和模型,并学习如何应用这些模型进行图像识别、语音识别、自然语言处理等任务。此外,这些教程还可帮助入门者掌握TensorFlow、PyTorch、Keras深度学习框架的使用方法,从而搭建自己的深度学习模型项目。 总之,零基础入门深度学习,可以通过csdn等相关教程网站进行学习。在学习过程中,需要耐心学习,同时结合实际应用场景,进行实践练习,才能更好地理解深度学习并掌握它。 ### 回答3: 深度学习是机器学习领域中活跃的分支,其基于神经网络模型实现的算法已经应用于许多领域中,如计算机视觉、语音识别、自然语言处理等等。但是,对于零基础的入门者来说,深度学习是一个相对较难的门槛。在这种情况下,可以从 CSND 的深度学习入门教程开始学习。 该教程以TensorFlow为基础,依次介绍深度学习的基础知识、TensorFlow的基础操作、神经网络的实现等方面。同时,它的学习过程采用了一定的例子,即用一些经典的案例来介绍深度学习的方法和技巧,这些案例包括手写数字识别、图像分类、语音识别和自然语言处理等领域;这种方式可以让初学者更加容易理解和上手深度学习。 当学习者完成该教程后,不仅可以获得深度学习的基础知识,还可以了解国内 当前来的深度学习的最新发展,并且能够进行简单的深度学习应用实践。因此,对于那些对深度学习感兴趣的零基础入门者来说,该教程是一个非常不错的选择。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
写文章

热门文章

  • 超级全的停用词整理 41736
  • 深度学习实战:基于CNN的猫狗图像识别 25858
  • pandas索引的设置与修改 21409
  • 可视化库D3.js(1)-入门篇 18066
  • 统计学知识:相关系数 13334

分类专栏

  • TensorFlow&keras 5篇
  • 可视化工具 9篇
  • 机器学习 46篇
  • Deep Learning 13篇
  • seaborn 1篇
  • 工业AI 1篇
  • kaggle 4篇
  • CV 1篇
  • 爬虫 5篇
  • pandas 51篇
  • sklearn 1篇
  • plotly 17篇
  • 工具 1篇
  • MySQL 1篇
  • pyecharts 1篇
  • LeetCode-SQL 7篇
  • 数据库 13篇
  • 阅读 1篇
  • 电影
  • D3.js教程
  • 生活 3篇
  • Python 43篇

最新评论

  • 可视化神器Plotly玩转桑基图

    尤而小屋: 谢谢支持

  • 可视化神器Plotly玩转桑基图

    尤而小屋: 右上角有保存按钮,也可以通过代码保存图片

  • 可视化神器Plotly玩转桑基图

    yooo2341: 大佬,想问一下图片怎么保存

  • 可视化神器Plotly美化表格

    ReddingtonLin: 想高亮标记关注的某些行, 要如何设置?

  • 可视化神器Plotly绘制树状图

    咿喃小记: from plotly import express as px

最新文章

  • Keras3.0重磅来袭
  • 可视化神器Plotly绘制金融图表
  • 基于LightGBM的金融信贷数据建模
2024年3篇
2023年18篇
2022年40篇
2021年122篇
2020年14篇
2019年15篇

目录

目录

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43元 前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值

深圳SEO优化公司阳泉高端网站设计报价潍坊网站建设设计价格荆州关键词按天扣费多少钱吉安网络广告推广多少钱鹤壁模板制作价格温州如何制作网站公司十堰SEO按天收费推荐沈阳百度网站优化排名多少钱观澜至尊标王哪家好广州百姓网标王报价大庆企业网站设计报价唐山网站优化按天收费价格吉安网络营销公司盘锦百度seo晋中网页设计公司阳泉网站设计模板吉安seo网站优化多少钱沧州网站设计模板价格南澳关键词排名包年推广推荐舟山如何制作网站哪家好苏州seo网站优化报价泉州网站制作设计报价信阳企业网站制作推荐兰州SEO按天扣费价格厦门百度网站优化安康营销网站哪家好三亚阿里店铺托管多少钱安康网站设计哪家好布吉企业网站改版多少钱安庆网站seo优化公司歼20紧急升空逼退外机英媒称团队夜以继日筹划王妃复出草木蔓发 春山在望成都发生巨响 当地回应60岁老人炒菠菜未焯水致肾病恶化男子涉嫌走私被判11年却一天牢没坐劳斯莱斯右转逼停直行车网传落水者说“没让你救”系谣言广东通报13岁男孩性侵女童不予立案贵州小伙回应在美国卖三蹦子火了淀粉肠小王子日销售额涨超10倍有个姐真把千机伞做出来了近3万元金手镯仅含足金十克呼北高速交通事故已致14人死亡杨洋拄拐现身医院国产伟哥去年销售近13亿男子给前妻转账 现任妻子起诉要回新基金只募集到26元还是员工自购男孩疑遭霸凌 家长讨说法被踢出群充个话费竟沦为间接洗钱工具新的一天从800个哈欠开始单亲妈妈陷入热恋 14岁儿子报警#春分立蛋大挑战#中国投资客涌入日本东京买房两大学生合买彩票中奖一人不认账新加坡主帅:唯一目标击败中国队月嫂回应掌掴婴儿是在赶虫子19岁小伙救下5人后溺亡 多方发声清明节放假3天调休1天张家界的山上“长”满了韩国人?开封王婆为何火了主播靠辱骂母亲走红被批捕封号代拍被何赛飞拿着魔杖追着打阿根廷将发行1万与2万面值的纸币库克现身上海为江西彩礼“减负”的“试婚人”因自嘲式简历走红的教授更新简介殡仪馆花卉高于市场价3倍还重复用网友称在豆瓣酱里吃出老鼠头315晚会后胖东来又人满为患了网友建议重庆地铁不准乘客携带菜筐特朗普谈“凯特王妃P图照”罗斯否认插足凯特王妃婚姻青海通报栏杆断裂小学生跌落住进ICU恒大被罚41.75亿到底怎么缴湖南一县政协主席疑涉刑案被控制茶百道就改标签日期致歉王树国3次鞠躬告别西交大师生张立群任西安交通大学校长杨倩无缘巴黎奥运

深圳SEO优化公司 XML地图 TXT地图 虚拟主机 SEO 网站制作 网站优化