点数信息
www.dssz.net
注册会员
|
设为首页
|
加入收藏夹
您好,欢迎光临本网站!
[请登录]
!
[注册会员]
!
首页
移动开发
云计算
大数据
数据库
游戏开发
人工智能
网络技术
区块链
操作系统
模糊查询
热门搜索:
源码
Android
整站
插件
识别
p2p
游戏
算法
更多...
在线客服QQ:632832888
当前位置:
资源下载
搜索资源 - finetune
下载资源分类
移动开发
开发技术
课程资源
网络技术
操作系统
安全技术
数据库
行业
服务器应用
存储
信息化
考试认证
云计算
大数据
跨平台
音视频
游戏开发
人工智能
区块链
在结果中搜索
所属系统
Windows
Linux
FreeBSD
Unix
Dos
PalmOS
WinCE
SymbianOS
MacOS
Android
开发平台
Visual C
Visual.Net
Borland C
CBuilder
Dephi
gcc
VBA
LISP
IDL
VHDL
Matlab
MathCAD
Flash
Xcode
Android STU
LabVIEW
开发语言
C/C++
Pascal
ASM
Java
PHP
Basic/ASP
Perl
Python
VBScript
JavaScript
SQL
FoxBase
SHELL
E语言
OC/Swift
文件类型
源码
程序
CHM
PDF
PPT
WORD
Excel
Access
HTML
Text
资源分类
搜索资源列表
CNN_UCMerced-LandUse_Caffe_finetune
# CNN_UCMerced-LandUse_Caffe(数据:http://vision.ucmerced.edu/datasets/landuse.html) 主要任务:基于深度学习框架完成对光学遥感图像UCMerced LandUse数据集的分类。 数据特点:共包含21类土地类型图片,每类100张,每张像素大小为256*256,数据类内距离大,类间小。 完成情况:数据量太小,训练数据出现过拟合;为了克服这个问题,又减小训练时间,采用caffe框架,在别人训练好的bvlc_referenc
所属分类:
深度学习
发布日期:2017-08-03
文件大小:1048576
提供者:
flyyoung0709
finetune-images
caffe finetune 训练图片集,里面包括5个文件夹,五类图片,可用于caffe finetune训练。
所属分类:
深度学习
发布日期:2017-11-03
文件大小:13631488
提供者:
quinn07
提取tensorflow中checkpoint模型参数到npy
tensorflow将训练好的网络模型保存到了checkpoint中,如果要利用训练好的网络模型去fintune另一个网络,需要为前置层的参数赋值,因此把checkpoint中的参数保存到npy文件中方便赋值。
所属分类:
深度学习
发布日期:2018-01-03
文件大小:444
提供者:
zhaogw93
finetune的训练框架
自己写的tensorflow关于分割的框架文件,其他的步骤因为有错误就不贴了。
所属分类:
深度学习
发布日期:2018-03-26
文件大小:6144
提供者:
amanfromearth
keras_densenet161_finetune.py例子
官方例子,深度学习专用,机器学习专用,代码简单,一看就会 (keras densenet161 finetune)
所属分类:
深度学习
发布日期:2018-01-28
文件大小:9216
提供者:
wulala789
keras_densenet169_finetune.py例子
官方例子,深度学习专用,机器学习专用,代码简单,一看就会(keras densenet169 finetune)
所属分类:
深度学习
发布日期:2018-01-28
文件大小:9216
提供者:
wulala789
keras_googlenet_finetune.py例子
官方例子,深度学习专用,机器学习专用,代码简单,一看就会(keras googlenet finetune)
所属分类:
深度学习
发布日期:2018-01-28
文件大小:18432
提供者:
wulala789
keras_inception_v3_finetune.py例子
官方例子,深度学习专用,机器学习专用,代码简单,一看就会(keras inception v3 finetune)
所属分类:
深度学习
发布日期:2018-01-28
文件大小:9216
提供者:
wulala789
keras_inception_v4_finetune.py例子
官方例子,深度学习专用,机器学习专用,代码简单,一看就会(keras inception v4 finetune)
所属分类:
深度学习
发布日期:2018-01-28
文件大小:10240
提供者:
wulala789
Laravel开发-finetune
Laravel开发-finetune 微调CMS。基于Laravel框架构建
所属分类:
其它
发布日期:2019-08-27
文件大小:2097152
提供者:
weixin_38743481
Pytorch之finetune使用详解
今天小编就为大家分享一篇Pytorch之finetune使用详解,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
所属分类:
其它
发布日期:2020-09-18
文件大小:41984
提供者:
weixin_38586200
tensorflow estimator 使用hook实现finetune方式
今天小编就为大家分享一篇tensorflow estimator 使用hook实现finetune方式,具有很好的参考价值,希望对大家有所帮助。一起跟随小编过来看看吧
所属分类:
其它
发布日期:2020-09-18
文件大小:47104
提供者:
weixin_38706531
python PyTorch参数初始化和Finetune
主要介绍了python PyTorch参数初始化和Finetune,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
所属分类:
其它
发布日期:2020-09-20
文件大小:55296
提供者:
weixin_38689824
python PyTorch参数初始化和Finetune
前言 这篇文章算是论坛PyTorch Forums关于参数初始化和finetune的总结,也是我在写代码中用的算是“最佳实践”吧。最后希望大家没事多逛逛论坛,有很多高质量的回答。 参数初始化 参数的初始化其实就是对参数赋值。而我们需要学习的参数其实都是Variable,它其实是对Tensor的封装,同时提供了data,grad等借口,这就意味着我们可以直接对这些参数进行操作赋值了。这就是PyTorch简洁高效所在。 所以我们可以进行如下操作进行初始化,当然其实有其他的方法,但是这种方法是P
所属分类:
其它
发布日期:2020-12-25
文件大小:53248
提供者:
weixin_38731761
Pytorch之finetune使用详解
finetune分为全局finetune和局部finetune。首先介绍一下局部finetune步骤: 1.固定参数 for name, child in model.named_children(): for param in child.parameters(): param.requires_grad = False 后,只传入 需要反传的参数,否则会报错 filter(lambda param: param.requires_grad, model.param
所属分类:
其它
发布日期:2020-12-23
文件大小:40960
提供者:
weixin_38693173
rasa-bert-finetune:支持rasa-nlu的bert finetune-源码
介绍 支持rasa json数据格式的bert finetune 准备 在训练finetune模型前需要先下载bert pre-train model,这里用的是中文的,可去官网下载chinese_L-12_H-768_A-12 。 json文件称为rasa_dataset_training.json ,dev的json文件称为rasa_dataset_testing.json ,当然你可以在run_classifier.py代码里面做相应的修改。 版本 bert-serving-client
所属分类:
其它
发布日期:2021-03-17
文件大小:44032
提供者:
weixin_42116604
pytorch-cnn-finetune:使用PyTorch微调预训练的卷积神经网络-源码
使用PyTorch对预训练的卷积神经网络进行微调。 产品特点 可以访问ImageNet上经过预训练的最受欢迎的CNN架构。 自动替换网络顶部的分类器,使您可以使用具有不同类数的数据集训练网络。 使您可以使用任何分辨率的图像(不仅限于在ImageNet上用于训练原始模型的分辨率)。 允许添加一个Dropout层或一个自定义池层。 支持的架构和模型 从包中: ResNet( resnet18 , resnet34 , resnet50 , resnet101 , resnet152 ) R
所属分类:
其它
发布日期:2021-02-05
文件大小:21504
提供者:
weixin_42121086
tensorflow estimator 使用hook实现finetune方式
为了实现finetune有如下两种解决方案: model_fn里面定义好模型之后直接赋值 def model_fn(features, labels, mode, params): # ..... # finetune if params.checkpoint_path and (not tf.train.latest_checkpoint(params.model_dir)): checkpoint_path = None if tf.gfile.IsDirectory(para
所属分类:
其它
发布日期:2021-01-20
文件大小:51200
提供者:
weixin_38632797
wav2vec2-finetune:wav2vec2-large-xlsr-旁遮普语-源码
wav2vec2-finetune 尼泊尔文: : 旁遮普语: :
所属分类:
其它
发布日期:2021-04-02
文件大小:1000448
提供者:
weixin_42122988
finetune-gpt2xl:在单个16 GB VRAM V100 Google vm上微调GPT2-XL(15亿个参数)-源码
finetune-gpt2xl 在单个16 GB VRAM V100 Google vm上微调GPT2-XL(15亿个参数)。
所属分类:
其它
发布日期:2021-03-26
文件大小:50176
提供者:
weixin_42131628
«
1
2
3
»