硕士结业以前早就对基于LSTM循环神经互联网的股票价格预测方法进行过小小的研商,趁着近来做事不忙,把里面包车型大巴一片段剧情写下去做以记录。

引自:

田地有效灌水面积指有固定水源、灌注工程设施配套、土地平整、在日常年景下能够举办正规浇水的水浇地面积,包蕴机灌面积、电力排水灌水面积、自流灌溉面积和喷灌面积[1]。它是显示农水建设和水利化的重视指标,也是国内各地点拟定水利发展安排的根本目的之大器晚成。对农地有效灌水面积举办展望能够为精晓今后农水根底设备的建设现象提供有价值的参阅音讯,同一时候也可为相关单位创造拟定行当前行设计提供理论支撑。

 

 

1 预测方案的规定与猜想方法的选项

  本次股票价格预测模型仅依据股票的历史数据来树立,不考虑音信直面个人股的震慑。曾有东瀛行家使用深度学习的不二等秘书技来对当天的音信内容开展剖析,以咬定其对股票价格正面性/消极面性影响,并将其与证券的野史数据相结合,各自赋予一定的权重来对这两日的股票价格实行瞻望[1]。该预测方法获得了一定的效用。

中文文书档案: 
合保加奥马哈语档: 
文书档案首假若以keras2.0。

1.1 预测方案的明确

  而这边笔者还没引进音信面包车型客车震慑,首假诺因为以下几点考虑:


公州有效灌注面积的变型受多地点因素的震慑,举例政策、中心财政资金投入、地方财政资金投入、山民收入情况等。这么些因素并非孤立地对土地有效浇灌面积发生潜濡默化,而是耦合在一同以非线性的法门影响土地有效浇水面积的改变。

  1.音信的及时性难以管教:超多时候,在贰头股票(stock卡塔尔的利好/利空音信出来此前,其股票价格一度有了很大幅度面包车型地铁增高/下降。音信的不对称性招致普通大伙儿缺少直接音讯源。

.

农田有效灌溉面积的前瞻有两大类方案:风流倜傥种为结构式的预测方法,正是通过一定的点子确立起各注重影响因素与土地有效浇灌面积之间的涉嫌,然后依据未来各影响因素的成形去预测相呼应的农田有效浇灌面积;另意气风发种为数据连串预测法,正是将各年度的田地有效灌水面积数值作为三翻五次的岁月连串对待,能够感到土地有效灌溉面积的变化规律已经包罗在数量体系之中,再使用合适的方法对该体系在现在的取值实行张望。

  2.音信的精确性难以管教:互连网络音信传播速度相当慢,媒体中间日常汇合世相互抄袭信息的图景,而这种抄来的音信(非原创信息)往往未有通过严刻的甄别,存在着内容虚假,夸大宣传的可能。后生可畏旦深入分析模型错用了某条传言或诚实不高的情报,很有希望得出错误的展望结果。

Keras系列:

1、keras种类︱Sequential与Model模型、keras基本构造效应(生龙活虎卡塔 尔(英语:State of Qatar) 
2、keras体系︱Application中五款已练习模型、VGG16框架(Sequential式、Model式卡塔 尔(阿拉伯语:قطر‎解读(二卡塔 尔(阿拉伯语:قطر‎ 
3、keras类别︱图像多分类演练与应用bottleneck
features进行微调(三卡塔 尔(英语:State of Qatar) 
4、keras连串︱人脸表情分类与识别:opencv人脸检查实验+Keras心情分类(四卡塔尔 
5、keras种类︱迁移学习:利用InceptionV3实行fine-tuning及远望、完整案例(五卡塔 尔(英语:State of Qatar)


在首先种方案中,首先须要明确具体影响土地有效灌水面积变化的要素类别及其影响规律,此外还亟需对各因素的前景变化实行预测。正确地分明影响土地有效灌水面积变化的各类因素自个儿就很有难度,各因素对有效灌溉面积影响规律的辨识也如出大器晚成辙是一个相比较复杂的标题,而揣度各因素今后的扭转更是贰个大概和张望农田有效浇灌面积难度优质的主题素材。在第两种方案中,首先要求树立起能够充足反映农田有效灌注面积变化规律的预测模型,然后经过求取该预测模型在将来的输出值就能够实现预测。三种方案相比较,鲜明第三种方案更便于实现。因此,在偏下商量中使用数据种类预测方案。

  3.语言的歧义性:一条消息,其正面性/消极面性往往存在着冒尖解读。举例“习总书记公布中国将裁减军备30万”——新华每一天电子通信2016.09.04。那条情报日常意义上得以解读为:中心政党长远带动改革机制,简政放权,大力发展国防军事工业职业。那是生机勃勃种正面性的解读。而在应用机器学习模型时,如古板的诡异值分解算法(SVD),很有希望会咬定其与“二〇一八年中国共产党第五次全国代表大会行裁员近3万”这种音讯具备较高的相仿度,因此将其分割为消极的一面音信。

零、keras介绍与主导的模子保存

写成了沉凝导图,便于阅览与领悟。

1.2 预测方法的挑精拣肥

  4.手艺完成比较混乱:那实在是三个至极首要的缘故啦~,获取科学的新闻并进行NLP操作,往往必要通过以下流程:人工浏览网页鲜明稳固可信赖的音讯源→设计爬虫达成存效音信的拿走→设计音讯裁剪(填充)方案以回应不一致长度的消息→人工标记消息的正/负性(也得以用当日股票价格上涨或下落来标明)→设计互联网模型→锻练及评释模型。个中的每一步都非常麻烦耗费时间,并且对于个人股来讲,并非每天都会有音信出现。

1.keras互联网布局

威尼斯人平台 1

在数额系列的前瞻中,这段时间广大运用的章程有运动平均法、指数平滑法、线性回归法、暗黑预测法、神经网络法和支撑向量机方法等。那些措施中神经网络法和扶助向量机方法从精气神儿上来讲特别符合利用于非线性预测难点。而水浇地有效浇水面积所结合的数量类别是三个超人的非线性连串。显明在该商量中动用神经互连网法和支撑向量机方法相比合适。为了尽量研究那二种方法的适用性,以下对这两种办法开展对照剖析。

 

2.keras网络安排

威尼斯人平台 2
里面回调函数callbacks应该是keras的精华~

2 三种预测方法的批驳底蕴及特色解析

  下面说了如此多,还不曾起初对自家这几个预测模型进行介绍,上边伊始进入正题。在调整免去新闻面包车型客车勘探之后,小编起来思考股票价格大喜大悲的庐山真面目目,作者认为股票价格正是基金博艺结果的反映。这一次创立的预后模型,朴素的主见是通过深度学习模型来侦查破案庄家的操作原理,对拉升、砸盘的情景打开前瞻。为了到达以下指标,作者说了算取舍以下五个特色来创设互连网模型,即:

3.keras预管理功效

威尼斯人平台 3

2.1 BP神经网络预测的论战根基及特色深入分析

上涨或下下跌的幅度  最高升幅  最低降幅  大单净流入 
中单净流入  小单净流入  换另一边手率

4、模型的节点消息提取

# 节点信息提取
config = model.get_config()  # 把model中的信息,solver.prototxt和train.prototxt信息提取出来
model = Model.from_config(config)  # 还回去
# or, for Sequential:
model = Sequential.from_config(config) # 重构一个新的Model模型,用去其他训练,fine-tuning比较好用

在各样神经互连网中,BP神经网络堪当最精华、使用最为广泛的意气风发种神经网络[2,3]。

使用那三本性状来对期货的起伏情形以及财力的流动状态创立切合的模型。其余,别的的指标相仿MACD、均线等也是透过有个别功底数据的运算得出,在构建立模型型时并从未将其放入考虑衡量范围。

5、 模型概况查询(包含权重查询卡塔 尔(英语:State of Qatar)

# 1、模型概括打印
model.summary()

# 2、返回代表模型的JSON字符串,仅包含网络结构,不包含权值。可以从JSON字符串中重构原模型:
from models import model_from_json

json_string = model.to_json()
model = model_from_json(json_string)

# 3、model.to_yaml:与model.to_json类似,同样可以从产生的YAML字符串中重构模型
from models import model_from_yaml

yaml_string = model.to_yaml()
model = model_from_yaml(yaml_string)

# 4、权重获取
model.get_layer()      #依据层名或下标获得层对象
model.get_weights()    #返回模型权重张量的列表,类型为numpy array
model.set_weights()    #从numpy array里将权重载入给模型,要求数组具有与model.get_weights()相同的形状。

# 查看model中Layer的信息
model.layers 查看layer信息

BP神经网络是相对误差反向传播(Back error
propagation,简单的称呼BP卡塔 尔(英语:State of Qatar)神经互连网的简单的称呼。BP神经互连网平常由1个输入层、若干隐含层和1个输出层组成,在每层中能够总结若干个神经元。各相邻层神经元之间多为全连接格局,而同层神经元之间则无连接[4]。各神经元间的连续几天传递相应的权值,隐含层及输出层各神经元都有温馨的阈值。BP神经互连网充任风流罗曼蒂克种前馈网络,具有前馈互联网的共性。切磋证明,三层前馈网络就可以预知以自由精度靠拢任性三翻五次函数及其各阶导数[5]。对队列进行建立模型,从实质上来讲就是获取连串的改动泛函,BP神经网络的函数靠拢成效无独有偶能够兑现此进程。

 

6、模型保存与加载

model.save_weights(filepath)
# 将模型权重保存到指定路径,文件类型是HDF5(后缀是.h5)

model.load_weights(filepath, by_name=False)
# 从HDF5文件中加载权重到当前模型中, 默认情况下模型的结构将保持不变。
# 如果想将权重载入不同的模型(有些层相同)中,则设置by_name=True,只有名字匹配的层才会载入权重.

但BP神经网络也设有多少欠缺,当中比较优异的是网络布局的不利明确、易限于局地收敛和未有速度慢。此中互联网布局的不易明确是指在鲜明网络布局参数的进度中平昔不许确的基于能够遵守。而局地收敛则对BP神经网络的函数靠拢成效影响一点都不小。

生机勃勃.源多少及其预管理

7、怎么样在keras中设定GPU使用的大小

本节发源:纵深学习theano/tensorflow多显卡多个人采纳难点集(参见:Limit
the resource usage for tensorflow backend · Issue #1538 ·
fchollet/keras ·
GitHub) 
在行使keras时候会现出三番两遍占满GPU显存的情状,能够透过重设backend的GPU占用处境来进行调节和测试。

import tensorflow as tf
from keras.backend.tensorflow_backend import set_session
config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.3
set_session(tf.Session(config=config))

 

须求注意的是,纵然代码或布置范围设置了对显存占用百分比阈值,但在其实运行中黄金时代旦达到了那些阈值,程序有要求的话依然会突破这些阈值。换来说之倘若跑在二个大数目集上照旧会用到越来越多的显存。以上的显存节制只是为了在跑小数目集时幸免对显存的抛荒而已。(二〇一七年12月26日补偿卡塔尔国

2.2 扶助向量机预测的申辩根基及特点深入分析

  通过某股票(stock卡塔 尔(阿拉伯语:قطر‎交易软件,笔者获取的源数据约有20来个性状,包蕴:上涨的幅度、现价、上涨或下降、买入、卖价、成交量等等。为了拿到地方所述的三种特色,筛选出上涨或下降幅、大单净流入、中单净流入、小单净流入、换其余一只手率这5个天性,并思索最高幅度、最高降低的幅度多少个特色。通过下列公式总结拿到。

8.更不易地模型练习与模型保存

filepath = 'model-ep{epoch:03d}-loss{loss:.3f}-val_loss{val_loss:.3f}.h5'
checkpoint = ModelCheckpoint(filepath, monitor='val_loss', verbose=1, save_best_only=True, mode='min')
# fit model
model.fit(x, y, epochs=20, verbose=2, callbacks=[checkpoint], validation_data=(x, y))

 

save_best_only展开之后,会如下:

 ETA: 3s - loss: 0.5820Epoch 00017: val_loss did not improve

 

如果val_loss 进步了就能保留,未有增加就不会保留。

3 预测模型的创造

威尼斯人平台 4

9.如何在keras中使用tensorboard

    RUN = RUN + 1 if 'RUN' in locals() else 1   # locals() 函数会以字典类型返回当前位置的全部局部变量。

    LOG_DIR = model_save_path + '/training_logs/run{}'.format(RUN)
    LOG_FILE_PATH = LOG_DIR + '/checkpoint-{epoch:02d}-{val_loss:.4f}.hdf5'   # 模型Log文件以及.h5模型文件存放地址

    tensorboard = TensorBoard(log_dir=LOG_DIR, write_images=True)
    checkpoint = ModelCheckpoint(filepath=LOG_FILE_PATH, monitor='val_loss', verbose=1, save_best_only=True)
    early_stopping = EarlyStopping(monitor='val_loss', patience=5, verbose=1)

    history = model.fit_generator(generator=gen.generate(True), steps_per_epoch=int(gen.train_batches / 4),
                                  validation_data=gen.generate(False), validation_steps=int(gen.val_batches / 4),
                                  epochs=EPOCHS, verbose=1, callbacks=[tensorboard, checkpoint, early_stopping])

 

都以在回调函数中起效果:

  • EarlyStopping patience:当early 
    (1卡塔尔国stop被激活(如察觉loss比较上二个epoch演练未有下滑卡塔 尔(阿拉伯语:قطر‎,则通过patience个epoch后结束演习。 
    (2卡塔尔mode:‘auto’,‘min’,‘max’之大器晚成,在min格局下,若是检查评定值结束下滑则中止练习。在max情势下,当检查评定值不再回涨则甘休锻炼。

  • 模型检查点ModelCheckpoint  
    (1)save_best_only:当设置为True时,将只保留在验证集上品质最佳的模型 
    (2)
    mode:‘auto’,‘min’,‘max’之一,在save_best_only=True时决定质量最棒模型的考核评议法则,例如,当监测值为val_acc时,格局应该为max,当检查实验值为val_loss时,情势应该为min。在auto情势下,评价准绳由被监测值的名字自动测算。 
    (3)save_weights_only:若设置为True,则只保留模型权重,不然将保留整个模型(包罗模型结构,配置消息等卡塔 尔(阿拉伯语:قطر‎ 
    (4卡塔 尔(英语:State of Qatar)period:CheckPoint之间的间隔的epoch数

  • 可视化tensorboard write_images: 是不是将模型权重以图片的样式可视化

别的内容可参看keras中文文书档案

.


3.1 样品数量的预备

经过管理的股票特征数据存款和储蓄在 股票(stock卡塔尔国名.csv文件中,近似下图:

风流倜傥、Sequential 序贯模型

序贯模型是函数式模型的简略版,为最简易的线性、自始自终的构造顺序,不分开。

从江苏计算年鉴中采撷了一九八八-二零一零年辽宁省晋州有效灌水面积的计算数据[10]。为了减少预测模型的复杂程度,采取峰值法对这几个数据实行了归豆蔻梢头化管理。将归生机勃勃化后的一九八九-二〇〇八年数据作为练习样板,二〇〇八年数目作为验证样品。

 威尼斯人平台 5

Sequential模型的主导组件

貌似要求:

  • 1、model.add,添加层;
  • 2、model.compile,模型练习的BP格局设置;
  • 3、model.fit,模型练习参数设置 + 练习;
  • 4、模型评估
  • 5、模型预测

规定预测模型每一遍的输入样品中含有6个数据,即用一而再连续6年的数码预测第三年的数额。据此可创设演练时的输入样品矩阵(6×18卡塔尔国和出口样板向量(1×18卡塔尔国。

图中的特征顺序为:日期,大单净流入,中单净流入,小单净流入,涨降幅,最高上涨的幅度,最高降幅,换另一只手率,股价。股票价格在此地的用场是拼接练习样本输出时,总结多日的总上涨或下降幅。

1. add:添加层——train_val.prototxt

add(self, layer)

# 譬如:
model.add(Dense(32, activation='relu', input_dim=100))
model.add(Dropout(0.25))

 

add里面只有层layer的原委,当然在序贯式里面,也能够model.add(other_model卡塔尔加载其余模型,在函数式里面就不太相像,详见函数式。

3.2 预测模型基本参数的分明与练习

注:在对源数据进行拍卖的时候,日常会碰到空值难题:即,某个特征值为0的时候,系统提交的源数据为”-”或”“。供给张开极度规管理。(日常遇见新挂牌证券第一天的上涨或下跌幅为空,或某交易日大单净流入为空。)

2、compile 练习格局——solver.prototxt文件

compile(self, optimizer, loss, metrics=None, sample_weight_mode=None)

 

其中: 
optimizer: 字符串(预订义优化器名卡塔 尔(阿拉伯语:قطر‎或优化器对象,仿效优化器 
loss: 字符串(预定义损失函数名卡塔 尔(阿拉伯语:قطر‎或指标函数,参照他事他说加以调查损失函数 
metrics:
列表,蕴含评估模型在练习和测量试验时的互连网质量的指标,标准用法是metrics=[‘accuracy’] 
sample_weight_mode:假若你须求准时间步为样板赋权(2D权矩阵卡塔尔国,将该值设为“temporal”。 
默以为“None”,代表按样品赋权(1D权卡塔 尔(英语:State of Qatar)。在上边fit函数的分解中有连带的参照剧情。 
kwargs:
使用TensorFlow作为后端请忽视该参数,若接受Theano作为后端,kwargs的值将会传递给
K.function

注意: 
模型在选取前必须编写翻译,否则在调用fit或evaluate时会抛出非常。

1卡塔 尔(阿拉伯语:قطر‎BP神经网络基本参数的规定与教练。鲜明BP神经互联网的含有层数为1,输入层神经元数为6,输出层神经元数为1,隐含层神经元数为11。隐含层和输出层的激励函数分别接受正切型Sigmoid函数和对数型Sigmoid函数。为了加强收敛速度,练习时使用了Levenberg-Marquardt数值优化算法。

1     if fin_temp.ix[day,12]=='-' or  fin_temp.ix[day,12]=='':  # 新股的涨跌幅一栏会出现'','-',需要特殊处理
2         raise_value = 0.0
3     else:
4         raise_value = float(fin_temp.ix[day,12])

3、fit 模型练习参数+练习——train.sh+soler.prototxt(部分卡塔尔

fit(self, x, y, batch_size=32, epochs=10, verbose=1, callbacks=None, validation_split=0.0, validation_data=None, shuffle=True, class_weight=None, sample_weight=None, initial_epoch=0)

 

本函数将模型操练nb_epoch轮,其参数有:

  • x:输入数据。假诺模型唯有二个输入,那么x的门类是numpy 
    array,假使模型有多少个输入,那么x的花色应当为list,list的成分是对应于各类输入的numpy
    array
  • y:标签,numpy array
  • batch_size:整数,钦命进行梯度下落时每一种batch满含的样品数。练习时三个batch的样品会被计算三回梯度下落,使目的函数优化一步。
  • epochs:整数,练习的轮数,每一种epoch会把训练集轮一回。
  • verbose:日志展现,0为不在标准输出流输出日志音信,1为出口进度条记录,2为各种epoch输出生龙活虎行记录
  • callbacks:list,个中的要素是keras.callbacks.Callback的指标。这几个list中的回调函数将会在训练进度中的适当机缘被调用,参照他事他说加以考察回调函数
  • validation_split:0~1之间的浮点数,用来内定练习集的必然比重数据作为验证集。验证集将不插足操练,并在各样epoch甘休后测试的模型的目标,如损失函数、正确度等。注意,validation_split的分割在shuffle以前,由此假诺您的数量笔者是不改变的,供给先手工业打乱再内定validation_split,不然可能会产出验证集样板不均匀。
  • validation_data:格局为(X,y卡塔 尔(阿拉伯语:قطر‎的tuple,是钦命的验证集。此参数将隐讳validation_spilt。
  • shuffle:布尔值或字符串,日常为布尔值,表示是或不是在训练进程中任性打乱输入样板的大器晚成意气风发。若为字符串“batch”,则是用来拍卖HDF5数据的出格情况,它就要batch内部将数据打乱。
  • class_weight:字典,将不一致的种类映射为分化的权值,该参数用来在教练进度中调解损失函数(只好用于演习卡塔 尔(阿拉伯语:قطر‎
  • sample_weight:权值的numpy 
    array,用于在教练时调度损失函数(仅用于操练卡塔尔。能够传递二个1D的与范本等长的向量用于对样板进行1对1的加权,恐怕在面一时序数据时,传递二个的款式为(samples,sequence_length卡塔 尔(英语:State of Qatar)的矩阵来为每一个时间步上的样板赋分歧的权。这种情景下请鲜明在编写翻译模型时增多了sample_weight_mode=’temporal’。
  • initial_epoch:
    从该参数钦赐的epoch起头练习,在继续早先的教练时有用。

fit函数重临二个History的目的,其History.history属性记录了损失函数和此外指标的数值随epoch变化的景观,尽管有验证集的话,也包含了验证集的这么些目标变动意况 
注意: 
要与后来的fit_generator做差距,两个输入x/y区别。

2卡塔尔帮忙向量机基本参数的明确与教练。选取Epsilon型协理向量机回归算法,经过再三检测,明确拉格朗日乘子上界为5,不敏感函数取值为0.000
01,核函数选用高斯型,高斯核函数的幅度取0.15。

 

4.evaluate 模子评估

evaluate(self, x, y, batch_size=32, verbose=1, sample_weight=None)

 

本函数按batch总结在好几输入数据上模型的相对误差,其参数有:

  • x:输入数据,与fit相似,是numpy array或numpy array的list
  • y:标签,numpy array
  • batch_size:整数,含义同fit的同名参数
  • verbose:含义同fit的同名参数,但不能不取0或1
  • sample_weight:numpy array,含义同fit的同名参数

本函数再次回到三个测量检验相对误差的标量值(如若模型未有任何评价目标卡塔尔国,或一个标量的list(纵然模型还会有其余的评头论足指标卡塔尔。model.metrics_names将交给list中逐一值的意思。

假如未有异样表明,以下函数的参数均保持与fit的同名参数相似的含义 
固然未有新鲜表达,以下函数的verbose参数(如果有卡塔 尔(阿拉伯语:قطر‎均只可以取0或1

4 预测与剖析

 二.锻练样板拼接

5 predict 模型评估

predict(self, x, batch_size=32, verbose=0)
predict_classes(self, x, batch_size=32, verbose=1)
predict_proba(self, x, batch_size=32, verbose=1)

本函数按batch获得输入数据对应的出口,其参数有:

函数的重临值是预测值的numpy array 
predict_classes:本函数按batch发生输入数据的系列预测结果; 
predict_proba:本函数按batch产生输入数据归属各类品类的可能率

4.1 三种模型预测工夫比较

        
首先设置二个滑行窗口,此番实验上校滑动窗口设置为肆十四个交易日。每一个练习样品由四15个三番四遍的交易日组成,每种交易日的数据包涵上述的四个本性,即二个50*7的矩阵,而叁个样品的输出则是多少个交易日之后的收盘价比较今日(即样品的输入中最后一个交易日)收盘价的涨降幅,设置其上限为0.3,下限为-0.3(当然,三番五次多少个涨到结束板的宽度会超越0.3,这里将其统一视作0.3)。之所以接纳五个交易日之后的涨降低的幅度作为练习样品的输出,是因为国内股票市场是T+1操作法规,当日购销不可卖出,预测的某个靠后局部可留有操作空间;再有正是一天的拉升/砸盘不常性太大,不易预测,对某个长时间一点的场合开展前瞻有着更高的平安。

6 on_batch 、batch的结果,检查

train_on_batch(self, x, y, class_weight=None, sample_weight=None)
test_on_batch(self, x, y, sample_weight=None)
predict_on_batch(self, x)
  • train_on_batch:本函数在三个batch的数据上拓展一回参数更新,函数重返训练绝对误差的标量值或标量值的list,与evaluate的情景同样。
  • test_on_batch:本函数在一个batch的样板上对模型实行业评比估,函数的归来与evaluate的景色同样
  • predict_on_batch:本函数在四个batch的样板上对模型进行测量检验,函数重临模型在三个batch上的前瞻结果

动用练习甘休的三种预测模型仿真预测壹玖玖肆-2008年的江苏省水浇地有效灌水面积并举办反归风流罗曼蒂克化管理。反归生龙活虎化后的各预测值、预测抽样误差的相对值和张望模型固有误差的相对化值见表1。从表1能够看来,扶助向量机的各预测值与实际值更为左近,其推测基值误差的相对平均值、预测基值固有误差的相对平均值都远远小于BP神经网络预测结果的附和参数。图1中的各预测数据也漫天透过了归风度翩翩化管理,从图第11中学一九九一-2010部分也得以看出,帮忙向量机的预测值基本和实际值重合在联合,而BP神经互连网的预测值在局部地点则与实际值相差非常的大,表达基于扶持向量机的瞭望模型泛化本领更加强。
利用这三种预测模型分别预测作为核查样品的二〇一〇年山西省大田有效灌注面积,反归后生可畏化后的推断结果如表2和图1所示。从表2和图1可以看出,基于协理向量机的前瞻模型在查实样板处的骨子里预测精度也远超越BP神经互联网,其预计抽样误差仅为BP神经网络预测模型误差的11.8%。

  归后生可畏化相关事业:因为神经互连网激活函数的界定,要求在教练前将数据映射到0~1区间。这次试验中,对近五年的数据,获取其每一项特征的最大值与小小值。设置归生机勃勃化与函数,在样板拼接的同一时候将数据举办归风流倜傥化。

7 fit_generator

#利用Python的生成器,逐个生成数据的batch并进行训练。
#生成器与模型将并行执行以提高效率。
#例如,该函数允许我们在CPU上进行实时的数据提升,同时在GPU上进行模型训练
# 参考链接:http://keras-cn.readthedocs.io/en/latest/models/sequential/

 

有了该函数,图像分类训练职责变得非常粗大略。

fit_generator(self, generator, steps_per_epoch, epochs=1, verbose=1, callbacks=None, validation_data=None, validation_steps=None, class_weight=None, max_q_size=10, workers=1, pickle_safe=False, initial_epoch=0)

# 案例:
def generate_arrays_from_file(path):
    while 1:
            f = open(path)
            for line in f:
                # create Numpy arrays of input data
                # and labels, from each line in the file
                x, y = process_line(line)
                yield (x, y)
        f.close()

model.fit_generator(generate_arrays_from_file('/my_file.txt'),
        samples_per_epoch=10000, epochs=10)

 

此外的八个帮扶的开始和结果:

evaluate_generator(self, generator, steps, max_q_size=10, workers=1, pickle_safe=False)
predict_generator(self, generator, steps, max_q_size=10, workers=1, pickle_safe=False, verbose=0)

 

evaluate_generator:本函数使用叁个生成器作为数据源评估模型,生成器应重返与test_on_batch的输入数据生机勃勃致类其余数目。该函数的参数与fit_generator同名参数含义相似,steps是生成器要重回数据的轮数。 
predcit_generator:本函数使用叁个生成器作为数据源预测模型,生成器应再次来到与test_on_batch的输入数据后生可畏致类其余多寡。该函数的参数与fit_generator同名参数含义雷同,steps是生成器要重回数据的轮数。

4.2 浙江省“十五五”时期农田有效灌水面积的展望与深入分析

样本 输入的归后生可畏化:

案例一:简单的2分类

For a single-input model with 2 classes (binary classification):

from keras.models import Sequential
from keras.layers import Dense, Activation

#模型搭建阶段
model= Sequential()
model.add(Dense(32, activation='relu', input_dim=100))
# Dense(32) is a fully-connected layer with 32 hidden units.
model.add(Dense(1, activation='sigmoid'))
model.compile(optimizer='rmsprop',
              loss='binary_crossentropy',
              metrics=['accuracy'])

其中: 
Sequential()代表类的开始化; 
Dense代表全连接层,此时有叁十二个全连接层,最终接relu,输入的是100维度 
model.add,增多新的全连接层, 
compile,跟prototxt同样,一些教练参数,solver.prototxt

# Generate dummy data
import numpy as np
data = np.random.random((1000, 100))
labels = np.random.randint(2, size=(1000, 1))

# Train the model, iterating on the data in batches of 32 samples
model.fit(data, labels, nb_epoch =10, batch_size=32)

 

事先报过那样的失实,是因为版本的难题。 版本1.第22中学间是nb_epoch
,而keras2.0是epochs = 10

 error:
    TypeError: Received unknown keyword arguments: {'epochs': 10}

 

其中: 
epoch=batch_size * iteration,12遍epoch代表练习十三遍演练集

末段代码是基于keras ==1.2

# -*- coding:utf-8 -*-

from keras.models import Sequential
from keras.layers import Dense, Activation

#模型搭建阶段
model= Sequential()#最简单的线性、从头到尾的结构顺序,不分叉
model.add(Dense(32, activation='relu', input_dim=100))
# Dense(32) is a fully-connected layer with 32 hidden units.
model.add(Dense(1, activation='sigmoid'))
model.compile(optimizer='rmsprop',
              loss='binary_crossentropy',
              metrics=['accuracy'])

# Generate dummy data
import numpy as np
data = np.random.random((1000, 100))
labels = np.random.randint(2, size=(1000, 1))

# Train the model, iterating on the data in batches of 32 samples
model.fit(data, labels, nb_epoch =10, batch_size=32)

 

 

实质上,预测结果是在现存基准的底蕴上从数额种类的角度开展的前瞻,假若在“十七五”期间,政党小幅增添水利行当的资金投入,最终的腾飞情状将会比该预测结果更好。

 1 def normalize_oneday(stockN,fdata,day):
 2     max_min = list(max_min_list[stockN])
 3     in_1 = (fdata.ix[day,1]-max_min[1])/(max_min[0]-max_min[1])
 4     in_2 = (fdata.ix[day,2]-max_min[3])/(max_min[2]-max_min[3])
 5     in_3 = (fdata.ix[day,3]-max_min[5])/(max_min[4]-max_min[5])
 6     in_4 = (fdata.ix[day,4]-max_min[7])/(max_min[6]-max_min[7])
 7     in_5 = (fdata.ix[day,5]-max_min[9])/(max_min[8]-max_min[9])
 8     in_6 = (fdata.ix[day,6]-max_min[11])/(max_min[10]-max_min[11])
 9     in_7 = (fdata.ix[day,7]-max_min[13])/(max_min[12]-max_min[13])
10     return [in_1,in_2,in_3,in_4,in_5,in_6,in_7]

案例二:多分类-VGG的卷积神经互连网

import numpy as np
import keras
from keras.models import Sequential
from keras.layers import Dense, Dropout, Flatten
from keras.layers import Conv2D, MaxPooling2D
from keras.optimizers import SGD
from keras.utils import np_utils

# Generate dummy data
x_train = np.random.random((100, 100, 100, 3))
# 100张图片,每张100*100*3
y_train = keras.utils.to_categorical(np.random.randint(10, size=(100, 1)), num_classes=10)
# 100*10
x_test = np.random.random((20, 100, 100, 3))
y_test = keras.utils.to_categorical(np.random.randint(10, size=(20, 1)), num_classes=10)
# 20*100

model = Sequential()
# input: 100x100 images with 3 channels -> (100, 100, 3) tensors.
# this applies 32 convolution filters of size 3x3 each.
model.add(Conv2D(32, (3, 3), activation='relu', input_shape=(100, 100, 3)))
model.add(Conv2D(32, (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))

model.add(Conv2D(64, (3, 3), activation='relu'))
model.add(Conv2D(64, (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))

model.add(Flatten())
model.add(Dense(256, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(10, activation='softmax'))

sgd = SGD(lr=0.01, decay=1e-6, momentum=0.9, nesterov=True)
model.compile(loss='categorical_crossentropy', optimizer=sgd)

model.fit(x_train, y_train, batch_size=32, epochs=10)
score = model.evaluate(x_test, y_test, batch_size=32)

 

正式序贯互联网,标签的训练形式 
注意: 
此处十三分关键的有个别,对于作者如此的生手,这一步的效益?

keras.utils.to_categorical

 

特意是多分类时候,作者以前感觉输入的正是一列(100,卡塔尔,但是keras在多分类职分中是不认得那些的,所以须求再加上这一步,让其转变为Keras认得的数据格式。

 

最终代码基于Keras==2.0

# -*- coding:utf-8 -*-


import numpy as np
import keras
from keras.models import Sequential
from keras.layers import Dense, Dropout, Flatten
from keras.layers import Conv2D, MaxPooling2D
from keras.optimizers import SGD
from keras.utils import np_utils

# Generate dummy data
x_train = np.random.random((100, 100, 100, 3))
# 100张图片,每张100*100*3
y_train = keras.utils.to_categorical(np.random.randint(10, size=(100, 1)), num_classes=10)
# 100*10
x_test = np.random.random((20, 100, 100, 3))
y_test = keras.utils.to_categorical(np.random.randint(10, size=(20, 1)), num_classes=10)
# 20*100

model = Sequential()#最简单的线性、从头到尾的结构顺序,不分叉
# input: 100x100 images with 3 channels -> (100, 100, 3) tensors.
# this applies 32 convolution filters of size 3x3 each.
model.add(Conv2D(32, (3, 3), activation='relu', input_shape=(100, 100, 3)))
model.add(Conv2D(32, (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))

model.add(Conv2D(64, (3, 3), activation='relu'))
model.add(Conv2D(64, (3, 3), activation='relu'))
model.add(MaxPooling2D(pool_size=(2, 2)))
model.add(Dropout(0.25))

model.add(Flatten())
model.add(Dense(256, activation='relu'))
model.add(Dropout(0.5))
model.add(Dense(10, activation='softmax'))

sgd = SGD(lr=0.01, decay=1e-6, momentum=0.9, nesterov=True)
model.compile(loss='categorical_crossentropy', optimizer=sgd)

model.fit(x_train, y_train, batch_size=32, epochs=10)
score = model.evaluate(x_test, y_test, batch_size=32)

 

在对水浇地有效灌注面积举举办展览望时,数据类别预测法比结构式预测法更为简易易行。在各样数据连串预测方法中,神经互联网预测方法和依据扶助向量机的前瞻方法特别相符农田有效灌水面积的非线性别变化化规律。

样本 输出的归后生可畏化与反归大器晚成化:

案例三:使用LSTM的连串分类

具体的专门有链接来写:

.


商讨针对性BP神经网络和帮助向量机三种预测方法实行了对待深入分析。理论讨论阐明,基于援救向量机的预测方法能够制服BP神经网络的重重久治不愈的病魔,具备特出性。

def normalize_raise(volume):
    norm_value = (volume+0.3)/0.6
    if norm_value>1:
        norm_value = 1   #涨跌幅超过30%的都定义为 1或0
    elif norm_value<0:
        norm_value = 0
    return norm_value
def denormalize_raise(value):
    volume = value*0.6-0.3
    return volume

三、Model式模型

出自keras中文文档: 
比序贯模型要复杂,不过效果很好,能够同一时间/分品级输入变量,分等第输出想要的模型; 
一句话,只要你的模型不是近乎VGG同样一条路走到黑的模子,恐怕您的模型必要多于二个的输出,那么您总应该选拔函数式模型。

差异之处: 
书写结构完全不相通

以安徽省一九八八-2009年的水浇地有效灌注面积计算数据为根基,详细演讲了利用两种预测方法创制预测模型的经过,并开展了接纳评释。验证结果证明,基于扶持向量机的眺望方法具备越来越好的泛化技术,预测精度越来越高。最终拿到了湖南省“十七五”时期农田有效灌溉面积的估计数据并提出了其发展倾向。

         设置滑动窗口sample_window =
[],每一次遍历风流罗曼蒂克行特征数据,归豆蔻梢头化后插入窗口末尾,当窗口大小满50时,总括3天后涨降低的幅度,拼接出二个练习样品,并将sample_window中率先个交易日的值弹出。

函数式模型基本性子与教练流程

诚如须求: 
1、model.layers,增添层新闻;  
2、model.compile,模型训练的BP情势设置; 
3、model.fit,模型操练参数设置 + 练习; 
4、evaluate,模型评估; 
5、predict 模型预测

1 normalized_daily_sample = normalize_oneday(stockN_list_str[i],fin_temp,day)
2 # TODO 给样本插入该日数据
3 sample_window.append(normalized_daily_sample)   #存入一个样本list,特征数为7,全部归一化完毕
4 if len(sample_window)==window_len:  # 窗口大小满50
5     #TODO 需要对涨幅进行归一化 暂定 30% TODO
6     raise_3days = normalize_raise(float(fin_temp.ix[day+3,8])/float(fin_temp.ix[day,8])-1.0)
7     samples.append([sample_window,raise_3days])
8     sample_window = sample_window[1:]

1 常用Model属性

model.layers:组成模型图的各个层
model.inputs:模型的输入张量列表
model.outputs:模型的输出张量列表

 

遍历完全体数据行后,获得数百个操练样板。并将训练样品转存为numpy.array格式以有助于练习。

2 compile 练习形式设置——solver.prototxt

compile(self, optimizer, loss, metrics=None, loss_weights=None, sample_weight_mode=None)

 

本函数编写翻译模型以供练习,参数有

optimizer:优化器,为预订义优化器名或优化器对象,仿效优化器 
loss:损失函数,为预约义损失函数名或二个对象函数,参谋损失函数 
metrics:列表,富含评估模型在教练和测验时的性格的目标,标准用法是metrics=[‘accuracy’]生龙活虎旦要在多输出模型中为不一样的出口钦定差别的指标,可像该参数字传送递叁个字典,譬喻metrics={‘ouput_a’:
‘accuracy’} 
sample_weight_mode:要是你须要准时间步为样板赋权(2D权矩阵卡塔 尔(英语:State of Qatar),将该值设为“temporal”。私下认可为“None”,代表按样板赋权(1D权卡塔尔。 
倘若模型有多少个出口,能够向该参数字传送入钦定sample_weight_mode的字典或列表。在底下fit函数的分解中有相关的参照剧情。

【Tips】假使您只是载入模型并利用其predict,能够不用进行compile。在Keras中,compile重要产生损失函数和优化器的片段安插,是为练习服务的。predict会在里头开展标识函数的编写翻译专门的学业(通过调用_make_predict_function生成函数卡塔尔

 注:跳点难题,具体分为除权(上涨或下跌幅抢先一成)与停盘(相邻交易日间距当先10天)。对于跳点难点,大家判别其是还是不是发生,后生可畏旦发生跳点,就清空sample_window,从下四个交易日重新初步总计样板输入,以杜绝样板输入中有跳点数据。

3 fit 模型训练参数设置 + 演习

fit(self, x=None, y=None, batch_size=32, epochs=1, verbose=1, callbacks=None, validation_split=0.0, validation_data=None, shuffle=True, class_weight=None, sample_weight=None, initial_epoch=0)

 

本函数用以练习模型,参数有:

  • x:输入数据。要是模型独有三个输入,那么x的体系是numpy 
    array,借使模型有八个输入,那么x的项目应当为list,list的成分是对应于各种输入的numpy 
    array。如若模型的每一种输入皆盛名字,则能够流传三个字典,将输入名与其输入数据对应起来。
  • y:标签,numpy array。假设模型有四个出口,可以流传三个numpy 
    array的list。借使模型的出口拥著名字,则足以流传三个字典,将输知名与其标签对应起来。
  • batch_size:整数,内定进行梯度下跌时每个batch包括的样品数。练习时二个batch的样品会被总括二回梯度下落,使指标函数优化一步。
  • nb_epoch:整数,练习的轮数,练习多中校会被遍历nb_epoch次。Keras中nb先导的变量均为”number
    of”的意趣
  • verbose:日志显示,0为不在规范输出流输出日志新闻,1为出口进程条记录,2为各类epoch输出生龙活虎行记录
  • callbacks:list,此中的因素是keras.callbacks.Callback的目的。那一个list中的回调函数将会在演习进度中的适当机缘被调用,参照他事他说加以考察回调函数
  • validation_split:0~1之间的浮点数,用来钦赐练习集的放任自流比重数据作为验证集。验证集将不参预练习,并在各种epoch停止后测量检验的模型的指标,如损失函数、正确度等。注意,validation_split的分割在shuffle之后,因而假使您的数据笔者是平稳的,须要先手工业打乱再钦定validation_split,不然大概会并发验证集样品不均匀。
  • validation_data:形式为(X,y)或(X,y,sample_weights卡塔 尔(阿拉伯语:قطر‎的tuple,是点名的验证集。此参数将覆盖validation_spilt。
  • shuffle:布尔值,表示是否在练习进度中各类epoch前随便打乱输入样板的次第。
  • class_weight:字典,将分裂的品类映射为分裂的权值,该参数用来在教练进程中调治损失函数(只能用于练习卡塔 尔(阿拉伯语:قطر‎。该参数在管理非平衡的教练多少(某个类的训练样本数超级少卡塔 尔(英语:State of Qatar)时,可以使得损失函数对样板数不足的数量更是关切。
  • sample_weight:权值的numpy 
    array,用于在教练时调度损失函数(仅用于锻炼卡塔尔。能够传递二个1D的与范本等长的向量用于对样板举办1对1的加权,或然在直面时序数据时,传递三个的款式为(samples,sequence_length卡塔 尔(英语:State of Qatar)的矩阵来为种种时间步上的样品赋差别的权。这种情况下请鲜明在编译模型时增多了sample_weight_mode=’temporal’。
  • initial_epoch:
    从该参数钦命的epoch开始练习,在持续之前的教练时有用。

输入数据与鲜明数额不相配时会抛出错误

fit函数重返二个History的指标,其History.history属性记录了损失函数和其余指标的数值随epoch变化的景况,如若有验证集的话,也满含了验证集的这一个目标变动景况

1 # 间隔日期大于10天,即day+3大于12天,判断为有停盘,不连续,或者涨跌幅异常(超过10.5%),不能作为训练样本序列, 
2 if int(diff/(24*3600))>12 or abs(raise_value)>10.5:  
3     sample_window = []

4.evaluate,模型评估

evaluate(self, x, y, batch_size=32, verbose=1, sample_weight=None)

 

本函数按batch计算在好几输入数据上模型的零值误差,其参数有:

  • x:输入数据,与fit相仿,是numpy array或numpy array的list
  • y:标签,numpy array
  • batch_size:整数,含义同fit的同名参数
  • verbose:含义同fit的同名参数,但只可以取0或1
  • sample_weight:numpy array,含义同fit的同名参数

本函数重回多个测量检验固有误差的标量值(假使模型未有别的评价指标卡塔 尔(阿拉伯语:قطر‎,或二个标量的list(纵然模型还只怕有其余的评说指标卡塔 尔(英语:State of Qatar)。model.metrics_names将送交list中相继值的含义。

大器晚成经未有例外表明,以下函数的参数均保持与fit的同名参数相仿的含义 
若无特殊表明,以下函数的verbose参数(假诺有卡塔尔国均只好取0或1

 

5.predict 模型预测

predict(self, x, batch_size=32, verbose=0)

 

本函数按batch得到输入数据对应的出口,其参数有:

函数的重回值是预测值的numpy array

三.搭建立模型型

模型检查 on_batch

train_on_batch(self, x, y, class_weight=None, sample_weight=None)
test_on_batch(self, x, y, sample_weight=None)
predict_on_batch(self, x)

train_on_batch:本函数在一个batch的多少上扩充三遍参数更新,函数重返练习标称误差的标量值或标量值的list,与evaluate的状态相似。 

test_on_batch:本函数在二个batch的样板上对模型实行业评比估,函数的回到与evaluate的气象同样; 
predict_on_batch:本函数在二个batch的样板上对模型实行测量检验,函数重返模型在叁个batch上的预测结果

        
这里运用keras深度学习框架对模型进行高效搭建。建构Sequential模型,向里面增多LSTM层,设定Dropout为0.2,参与Dense层将其维度聚合为1,激活函数使用relu,损失函数定为交叉熵函数。在此以前也应用过古板的sigmoid作为激活函数,但经试验感到成效不比relu。

_generator

fit_generator(self, generator, steps_per_epoch, epochs=1, verbose=1, callbacks=None, validation_data=None, validation_steps=None, class_weight=None, max_q_size=10, workers=1, pickle_safe=False, initial_epoch=0)
evaluate_generator(self, generator, steps, max_q_size=10, workers=1, pickle_safe=False)

 

1 model = Sequential()
2 model.add(LSTM(128, input_shape=(window_len,7), return_sequences=False))  # TODO: input_shape=(timesteps ,data_dim)
3 model.add(Dropout(0.2))
4 model.add(Dense(1))
5 model.add(Activation('relu'))
6 model.compile(loss='binary_crossentropy',optimizer='rmsprop',metrics=['accuracy'])

案例生龙活虎:轻便的单层-全连接互连网

from keras.layers import Input, Dense
from keras.models import Model

# This returns a tensor
inputs = Input(shape=(784,))

# a layer instance is callable on a tensor, and returns a tensor
x = Dense(64, activation='relu')(inputs)
# 输入inputs,输出x
# (inputs)代表输入
x = Dense(64, activation='relu')(x)
# 输入x,输出x
predictions = Dense(10, activation='softmax')(x)
# 输入x,输出分类

# This creates a model that includes
# the Input layer and three Dense layers
model = Model(inputs=inputs, outputs=predictions)
model.compile(optimizer='rmsprop',
              loss='categorical_crossentropy',
              metrics=['accuracy'])
model.fit(data, labels)  # starts training

 

其中: 
能够见见结构与序贯模型完全不后生可畏致,此中x = Dense(64,
activation=’relu’)(inputs)中:(input)代表输入;x代表输出 
model = Model(inputs=inputs,
outputs=predictions);该句是函数式模型的出色,能够同不常间输入两个input,然后输出output多个模型

  模型搭建达成,使用以前获得的数百个练习样板展开练习,并保留模型。

案例二:摄像拍卖

x = Input(shape=(784,))
# This works, and returns the 10-way softmax we defined above.
y = model(x)
# model里面存着权重,然后输入x,输出结果,用来作fine-tuning

# 分类->视频、实时处理
from keras.layers import TimeDistributed

# Input tensor for sequences of 20 timesteps,
# each containing a 784-dimensional vector
input_sequences = Input(shape=(20, 784))
# 20个时间间隔,输入784维度的数据

# This applies our previous model to every timestep in the input sequences.
# the output of the previous model was a 10-way softmax,
# so the output of the layer below will be a sequence of 20 vectors of size 10.
processed_sequences = TimeDistributed(model)(input_sequences)
# Model是已经训练好的

 

其中: 
Model是生龙活虎度练习好的,现在用来做动员搬迁学习; 
当中还足以通过TimeDistributed来進展实时预测; 
TimeDistributed(model)(input_sequences),input_sequences代表类别输入;model代表已练习的模子

1 hist = model.fit(trainX,trainY,batch_size=1,epochs=50)
2 score = model.evaluate(trainX, trainY, batch_size=10)
3 if os.path.exists('./model/'+file_name[:-5]):
4     model.save('./model/'+file_name[:-5]+'/model_%s_%s.h5'%(window_len,date))  # HDF5 保存模型
5 else:
6     os.mkdir('./model/'+file_name[:-5])
7     model.save('./model/'+file_name[:-5]+'/model_%s_%s.h5'%(window_len,date)) 

案例三:双输入、双模型输出:LSTM 时序预测

本案例很好,能够驾驭到Model的精华在于他的大肆性,给编写翻译者比比较多的方便人民群众。

输入: 
音信语言材质;信息语言材质对应的时日 
输出: 
快讯语料的推断模型;消息语言材质+对合时间的张望模型 
威尼斯人平台 6

 

模型黄金年代:只针对音信语料的LSTM模型

from keras.layers import Input, Embedding, LSTM, Dense
from keras.models import Model

# Headline input: meant to receive sequences of 100 integers, between 1 and 10000.
# Note that we can name any layer by passing it a "name" argument.
main_input = Input(shape=(100,), dtype='int32', name='main_input')
# 一个100词的BOW序列

# This embedding layer will encode the input sequence
# into a sequence of dense 512-dimensional vectors.
x = Embedding(output_dim=512, input_dim=10000, input_length=100)(main_input)
# Embedding层,把100维度再encode成512的句向量,10000指的是词典单词总数


# A LSTM will transform the vector sequence into a single vector,
# containing information about the entire sequence
lstm_out = LSTM(32)(x)
# ? 32什么意思?????????????????????

#然后,我们插入一个额外的损失,使得即使在主损失很高的情况下,LSTM和Embedding层也可以平滑的训练。

auxiliary_output = Dense(1, activation='sigmoid', name='aux_output')(lstm_out)
#再然后,我们将LSTM与额外的输入数据串联起来组成输入,送入模型中:
# 模型一:只针对以上的序列做的预测模型

 

四.意义显示

结缘模型:新闻语言材质+时序

# 模型二:组合模型
auxiliary_input = Input(shape=(5,), name='aux_input')  # 新加入的一个Input,5维度
x = keras.layers.concatenate([lstm_out, auxiliary_input])   # 组合起来,对应起来


# We stack a deep densely-connected network on top
# 组合模型的形式
x = Dense(64, activation='relu')(x)
x = Dense(64, activation='relu')(x)
x = Dense(64, activation='relu')(x)
# And finally we add the main logistic regression layer
main_output = Dense(1, activation='sigmoid', name='main_output')(x)


#最后,我们定义整个2输入,2输出的模型:
model = Model(inputs=[main_input, auxiliary_input], outputs=[main_output, auxiliary_output])
#模型定义完毕,下一步编译模型。
#我们给额外的损失赋0.2的权重。我们可以通过关键字参数loss_weights或loss来为不同的输出设置不同的损失函数或权值。
#这两个参数均可为Python的列表或字典。这里我们给loss传递单个损失函数,这个损失函数会被应用于所有输出上。

 

其中:Model(inputs=[main_input, auxiliary_input],
outputs=[main_output, auxiliary_output])是核心, 
Input五个内容,outputs多少个模型

# 训练方式一:两个模型一个loss
model.compile(optimizer='rmsprop', loss='binary_crossentropy',
              loss_weights=[1., 0.2])
#编译完成后,我们通过传递训练数据和目标值训练该模型:

model.fit([headline_data, additional_data], [labels, labels],
          epochs=50, batch_size=32)

# 训练方式二:两个模型,两个Loss
#因为我们输入和输出是被命名过的(在定义时传递了“name”参数),我们也可以用下面的方式编译和训练模型:
model.compile(optimizer='rmsprop',
              loss={'main_output': 'binary_crossentropy', 'aux_output': 'binary_crossentropy'},
              loss_weights={'main_output': 1., 'aux_output': 0.2})

# And trained it via:
model.fit({'main_input': headline_data, 'aux_input': additional_data},
          {'main_output': labels, 'aux_output': labels},
          epochs=50, batch_size=32)

 

因为输入多个,输出五个模型,所以能够分成设置分裂的模型锻练参数

  最先的时候,笔者对负有的股票(stock卡塔尔国的练习样品堆放到手拉手,操练出二个大模型(貌似那时有9万八个练习样品,整整编练习练了一天=,=),之后对各样期货(Futures卡塔 尔(英语:State of Qatar)都开展前瞻,思索找寻后日大幅最高的前5支股票(stock卡塔 尔(英语:State of Qatar)。后来意识根本做不到……每支股票的操作原理都差别等,使用单个模型不能够有效的把握个人股的大喜大悲趋向。

案例四:分享层:对应提到、相符性

一个节点,分成七个支行出去

import keras
from keras.layers import Input, LSTM, Dense
from keras.models import Model

tweet_a = Input(shape=(140, 256))
tweet_b = Input(shape=(140, 256))
#若要对不同的输入共享同一层,就初始化该层一次,然后多次调用它
# 140个单词,每个单词256维度,词向量
# 

# This layer can take as input a matrix
# and will return a vector of size 64
shared_lstm = LSTM(64)
# 返回一个64规模的向量

# When we reuse the same layer instance
# multiple times, the weights of the layer
# are also being reused
# (it is effectively *the same* layer)
encoded_a = shared_lstm(tweet_a)
encoded_b = shared_lstm(tweet_b)

# We can then concatenate the two vectors:
    # 连接两个结果
    # axis=-1?????
merged_vector = keras.layers.concatenate([encoded_a, encoded_b], axis=-1)

# And add a logistic regression on top
predictions = Dense(1, activation='sigmoid')(merged_vector)
# 其中的1 代表什么????

# We define a trainable model linking the
# tweet inputs to the predictions
model = Model(inputs=[tweet_a, tweet_b], outputs=predictions)

model.compile(optimizer='rmsprop',
              loss='binary_crossentropy',
              metrics=['accuracy'])
model.fit([data_a, data_b], labels, epochs=10)
# 训练模型,然后预测

 

  之后,小编独自行选购了中夏族民共和国软件这厮股票(stock卡塔尔国(这些票看起来像庄家主导的这种),对它独自开展剖析。使用了一年半的交易数额作为练习集,共有2九十五个练习样板,训练138个epoch。最终操练出模型对测量检验集中的六18个测量检验样品进行验证。预测截断误差如下图。

案例五:收取层节点内容

# 1、单节点
a = Input(shape=(140, 256))
lstm = LSTM(32)
encoded_a = lstm(a)
assert lstm.output == encoded_a
# 抽取获得encoded_a的输出张量

# 2、多节点
a = Input(shape=(140, 256))
b = Input(shape=(140, 256))

lstm = LSTM(32)
encoded_a = lstm(a)
encoded_b = lstm(b)

assert lstm.get_output_at(0) == encoded_a
assert lstm.get_output_at(1) == encoded_b

# 3、图像层节点
# 对于input_shape和output_shape也是一样,如果一个层只有一个节点,
#或所有的节点都有相同的输入或输出shape,
#那么input_shape和output_shape都是没有歧义的,并也只返回一个值。
#但是,例如你把一个相同的Conv2D应用于一个大小为(3,32,32)的数据,
#然后又将其应用于一个(3,64,64)的数据,那么此时该层就具有了多个输入和输出的shape,
#你就需要显式的指定节点的下标,来表明你想取的是哪个了
a = Input(shape=(3, 32, 32))
b = Input(shape=(3, 64, 64))

conv = Conv2D(16, (3, 3), padding='same')
conved_a = conv(a)

# Only one input so far, the following will work:
assert conv.input_shape == (None, 3, 32, 32)

conved_b = conv(b)
# now the `.input_shape` property wouldn't work, but this does:
assert conv.get_input_shape_at(0) == (None, 3, 32, 32)
assert conv.get_input_shape_at(1) == (None, 3, 64, 64)

 

 威尼斯人平台 7

案例六:视觉问答模型

#这个模型将自然语言的问题和图片分别映射为特征向量,
#将二者合并后训练一个logistic回归层,从一系列可能的回答中挑选一个。
from keras.layers import Conv2D, MaxPooling2D, Flatten
from keras.layers import Input, LSTM, Embedding, Dense
from keras.models import Model, Sequential

# First, let's define a vision model using a Sequential model.
# This model will encode an image into a vector.
vision_model = Sequential()
vision_model.add(Conv2D(64, (3, 3) activation='relu', padding='same', input_shape=(3, 224, 224)))
vision_model.add(Conv2D(64, (3, 3), activation='relu'))
vision_model.add(MaxPooling2D((2, 2)))
vision_model.add(Conv2D(128, (3, 3), activation='relu', padding='same'))
vision_model.add(Conv2D(128, (3, 3), activation='relu'))
vision_model.add(MaxPooling2D((2, 2)))
vision_model.add(Conv2D(256, (3, 3), activation='relu', padding='same'))
vision_model.add(Conv2D(256, (3, 3), activation='relu'))
vision_model.add(Conv2D(256, (3, 3), activation='relu'))
vision_model.add(MaxPooling2D((2, 2)))
vision_model.add(Flatten())

# Now let's get a tensor with the output of our vision model:
image_input = Input(shape=(3, 224, 224))
encoded_image = vision_model(image_input)

# Next, let's define a language model to encode the question into a vector.
# Each question will be at most 100 word long,
# and we will index words as integers from 1 to 9999.
question_input = Input(shape=(100,), dtype='int32')
embedded_question = Embedding(input_dim=10000, output_dim=256, input_length=100)(question_input)
encoded_question = LSTM(256)(embedded_question)

# Let's concatenate the question vector and the image vector:
merged = keras.layers.concatenate([encoded_question, encoded_image])

# And let's train a logistic regression over 1000 words on top:
output = Dense(1000, activation='softmax')(merged)

# This is our final model:
vqa_model = Model(inputs=[image_input, question_input], outputs=output)

# The next stage would be training this model on actual data.

 

延长豆蔻梢头:fine-tuning时怎么着加载No_top的权重

倘诺你需求加载权重到不一样的网络布局(某些层同样卡塔尔国中,举个例子fine-tune或transfer-learning,你能够由此层名字来加载模型: 
model.load_weights(‘my_model_weights.h5’, by_name=True) 
例如:

只要原模型为:

    model = Sequential()
    model.add(Dense(2, input_dim=3, name="dense_1"))
    model.add(Dense(3, name="dense_2"))
    ...
    model.save_weights(fname)

# new model
model = Sequential()
model.add(Dense(2, input_dim=3, name="dense_1"))  # will be loaded
model.add(Dense(10, name="new_dense"))  # will not be loaded

# load weights from first model; will only affect the first layer, dense_1.
model.load_weights(fname, by_name=True)

内部前37个是锻练聚集的样书,大家利用其输入部分开展预测,发掘预测结果贴合十二分风流倜傥环扣风姿浪漫环;后五17个是大家测试集的样书,我对其推断效果依旧比较满意的,猛降、飙涨基本都有预测到,除了第67到第75个点那一波暴跌预测的不得了。随后我动用模型进行效仿交易,设定起头开支八万元,在猜测八日后会上升时购买,预测四天后会下落时卖出,均以收盘价为成交价格,买入时扣除特别之2.5的酬劳。受益曲线如下,深草绿线条代表按模型举行交易的纯收入,石青线条代表直接有着期货的入账。

威尼斯人平台 8

  能够看来,模型的张望效果还是不错的。特别是从头的20八个点,能够相比精确的避开一波回调下降。

  但本人也理解,对模型举行表达的样书数量如故太少,又过了二个月,在附加搜聚了21个交易日的数量之后,作者又对该样板实行了测量试验。

张望相对误差:

 威尼斯人平台 9

由上海教室能够见见,倒数21个交易日的这一波大幅度面,模型并未能够预测到。

收入曲线:

 威尼斯人平台 10

  从上海教室能够看见,在深驼色方框圈出来的地点,模型多次瞻望会有一波上涨的幅度,但紧跟着又立刻预测股票价格要跌,对股票(stock卡塔 尔(英语:State of Qatar)进行了抛售,错过了这三遍猛涨的火候;在紫蓝方框圈出的地点,模型四遍在顶峰做出了正确的预测,精准抛售,躲过一遍猛降。

 

经过股票数量的验证,使用LSTM-智跑NN来对股票(stock卡塔尔实行前瞻具备一定的样子,但效果不好(若是效果好的话作者估计也不会享用到网络,本人闷声发大财啦,哈哈~~~)。

 

[1]R. Akita, A. Yoshihara, T. Matsubara and K. Uehara, “Deep learning
for stock prediction using numerical and textual information,” 2016
IEEE/ACIS 15th International Conference on Computer and Information
Science (ICIS)
, Okayama, 2016, pp. 1-6.     
()

相关文章