搜索结果
查询Tags标签: ViT,共有 10条记录-
深度学习模型概览
Attention模型 Encoder-Decoder结构ViT模型ViT向量维度解析Informer模型 更好的长时间序列预测 Encoder-Decoder整体结构Encoder结构
2022/6/28 6:22:28 人评论 次浏览 -
命令行服务器调试python程序
以下面的程序为例 首先准备好代码 把100个epoch改成1个epoch,因为只是为了调试,至于我为什么不在本地调试,主要是本地的内存不够,跑不动的,所以我干脆在服务器上跑 import os import torch from torch.utils.data import DataLoader import pytorch_lightning as pl …
2022/3/19 17:57:45 人评论 次浏览 -
【设计模式从入门到精通】18-备忘录模式
笔记来源:尚硅谷Java设计模式(图解+框架源码剖析)目录备忘录模式1、游戏角色状态恢复问题2、备忘录模式基本介绍3、备忘录模式解决游戏角色状态回复问题4、备忘录模式的注意事项和细节 备忘录模式 1、游戏角色状态恢复问题 游戏鱼色有攻击力和防御力,在大战 Boss 前保…
2022/1/14 23:34:33 人评论 次浏览 -
【设计模式从入门到精通】18-备忘录模式
笔记来源:尚硅谷Java设计模式(图解+框架源码剖析)目录备忘录模式1、游戏角色状态恢复问题2、备忘录模式基本介绍3、备忘录模式解决游戏角色状态回复问题4、备忘录模式的注意事项和细节 备忘录模式 1、游戏角色状态恢复问题 游戏鱼色有攻击力和防御力,在大战 Boss 前保…
2022/1/14 23:34:33 人评论 次浏览 -
课程九学习笔记: 自监督ViT算法:BeiT和MAE
课程九学习笔记: 自监督ViT算法:BeiT和MAE1. SSL在NLP中的应用: 2. Bert 3. BeiT 4. MAE:Masked Autoencoders Are Scalable Vision Learners 5. 实践:Config配置和实验分开进行自监督+ Transformer 1. SSL在NLP中的应用:Self-Supervised Learning (SSL):通过自己“…
2021/12/7 11:17:28 人评论 次浏览 -
课程九学习笔记: 自监督ViT算法:BeiT和MAE
课程九学习笔记: 自监督ViT算法:BeiT和MAE1. SSL在NLP中的应用: 2. Bert 3. BeiT 4. MAE:Masked Autoencoders Are Scalable Vision Learners 5. 实践:Config配置和实验分开进行自监督+ Transformer 1. SSL在NLP中的应用:Self-Supervised Learning (SSL):通过自己“…
2021/12/7 11:17:28 人评论 次浏览 -
一周记录(MAE and TransMix)
过去一年,谷歌提出的VIT成为最火的模型,说明全部由Self-attention组成的模型会超越CNN。但最近学者又在反思,问题的本质是什么?2021年5月,谷歌挖坑 MLP-Mixer ,说明保持VIT的图像序列化输入,使用全连接网络,就可以取得非常好的性能2021年10月,ICLR2022的一个投稿…
2021/11/29 6:06:14 人评论 次浏览 -
一周记录(MAE and TransMix)
过去一年,谷歌提出的VIT成为最火的模型,说明全部由Self-attention组成的模型会超越CNN。但最近学者又在反思,问题的本质是什么?2021年5月,谷歌挖坑 MLP-Mixer ,说明保持VIT的图像序列化输入,使用全连接网络,就可以取得非常好的性能2021年10月,ICLR2022的一个投稿…
2021/11/29 6:06:14 人评论 次浏览 -
深入C++ (2)
深入C++ (2) 1.const引用 const引用可以用不同类型的对象初始化(只要能从一种类型转换到另一种类型即可),也可以是不可寻址的值,如文字常量.例如: double a = 9.9; const int &b = a; cout << "b = " << b << endl; 最后运行结果会是…
2021/7/9 1:05:50 人评论 次浏览 -
【论文阅读】Transformer及其在计算机视觉领域上的应用
Transformer Transformer最早在NLP领域出现。ViT 后被引入到计算机视觉领域。最开始是ViT。
2021/4/27 10:55:58 人评论 次浏览