网站首页 站内搜索

搜索结果

查询Tags标签: torch,共有 290条记录
  • python tips003 ——DataLoader的collate_fn参数使用详解

    背景 最近在看sentences-transformers的源码,在有一个模块发现了dataloader.collate_fn,当时没搞懂是什么意思,后来查了一下,感觉还是很有意思的,因此来分享一下。 dataloader dataloader肯定都是知道的,就是为数据提供一个迭代器。 基本工作机制: 在dataloader按照…

    2022/1/3 11:07:24 人评论 次浏览
  • python tips003 ——DataLoader的collate_fn参数使用详解

    背景 最近在看sentences-transformers的源码,在有一个模块发现了dataloader.collate_fn,当时没搞懂是什么意思,后来查了一下,感觉还是很有意思的,因此来分享一下。 dataloader dataloader肯定都是知道的,就是为数据提供一个迭代器。 基本工作机制: 在dataloader按照…

    2022/1/3 11:07:24 人评论 次浏览
  • 2021(接近2022)linux(ubuntu16.04)安装cuda跑深度学习步骤以及踩坑过程(ELF标头无效、导入torch后torch.cuda.is_available()为False等等)

    首先说一下我的环境ubuntu16.04,anaconda3,用的导师的服务器,xshell连接,(几乎)没有多少权限(apt install 都是刚拿的权限没多久)刚开始啥也不懂,上来建了个新环境,用conda安装好pytorch等库,想跑个简单的卷积神经网路代码,结果可想而知用的cpu跑的。然后找了…

    2021/12/21 7:25:49 人评论 次浏览
  • 2021(接近2022)linux(ubuntu16.04)安装cuda跑深度学习步骤以及踩坑过程(ELF标头无效、导入torch后torch.cuda.is_available()为False等等)

    首先说一下我的环境ubuntu16.04,anaconda3,用的导师的服务器,xshell连接,(几乎)没有多少权限(apt install 都是刚拿的权限没多久)刚开始啥也不懂,上来建了个新环境,用conda安装好pytorch等库,想跑个简单的卷积神经网路代码,结果可想而知用的cpu跑的。然后找了…

    2021/12/21 7:25:49 人评论 次浏览
  • pytorch的杂七杂八

    数据 contiguous() 博客 相当于深拷贝 scatter_() 博客 可以利用这个功能将pytorch 中mini batch中的返回的label转为one-hot类型的label label = torch.tensor([1,3,3,5]) one_hot_label = torch.zeros(mini_batch, out_planes).scatter_(1,label.unsqueeze(1),1) print(…

    2021/12/18 23:27:50 人评论 次浏览
  • pytorch的杂七杂八

    数据 contiguous() 博客 相当于深拷贝 scatter_() 博客 可以利用这个功能将pytorch 中mini batch中的返回的label转为one-hot类型的label label = torch.tensor([1,3,3,5]) one_hot_label = torch.zeros(mini_batch, out_planes).scatter_(1,label.unsqueeze(1),1) print(…

    2021/12/18 23:27:50 人评论 次浏览
  • Pytorch numpy 与 tensor 互相转换

    Pytorch中numpy 与 tensor互相转换1.numpy 转 tensor 可以使用torch.tensor()直接将numpy转换为tensor,但是此时数据会被复制,不会与原来的数据 共享内存。 可以使用torch.from_numpy()将numpy转换为tensor,会与原来的数据共享内存。2.tensor 转 numpy 可…

    2021/12/16 23:45:40 人评论 次浏览
  • Pytorch numpy 与 tensor 互相转换

    Pytorch中numpy 与 tensor互相转换1.numpy 转 tensor 可以使用torch.tensor()直接将numpy转换为tensor,但是此时数据会被复制,不会与原来的数据 共享内存。 可以使用torch.from_numpy()将numpy转换为tensor,会与原来的数据共享内存。2.tensor 转 numpy 可…

    2021/12/16 23:45:40 人评论 次浏览
  • 【算法】机器学习中固定随机数种子

    将下列函数在程序入口执行即可,其中 torch.backends.cudnn.benchmark 设置为 False 将放弃网络模型的卷积层优化,使得运行速度大幅度下降。def set_seed(seed=1024):random.seed(seed)np.random.seed(seed)torch.manual_seed(seed) # current CP…

    2021/12/14 17:18:21 人评论 次浏览
  • 【算法】机器学习中固定随机数种子

    将下列函数在程序入口执行即可,其中 torch.backends.cudnn.benchmark 设置为 False 将放弃网络模型的卷积层优化,使得运行速度大幅度下降。def set_seed(seed=1024):random.seed(seed)np.random.seed(seed)torch.manual_seed(seed) # current CP…

    2021/12/14 17:18:21 人评论 次浏览
  • 基于Pytorch的机器学习Regression问题实例(附源码)

    文章目录 写在前面声明本文目的学前准备 构建神经元网络要解决什么问题构建Python代码运行结果 优化神经元网络增加学习次数调整LearningRate调整优化方式激活函数小结 增加神经元个数Fat Learning(这个名字是我编的,如有雷同,纯属巧合)Deep Learning 进行预测写在前面…

    2021/12/13 1:17:30 人评论 次浏览
  • 基于Pytorch的机器学习Regression问题实例(附源码)

    文章目录 写在前面声明本文目的学前准备 构建神经元网络要解决什么问题构建Python代码运行结果 优化神经元网络增加学习次数调整LearningRate调整优化方式激活函数小结 增加神经元个数Fat Learning(这个名字是我编的,如有雷同,纯属巧合)Deep Learning 进行预测写在前面…

    2021/12/13 1:17:30 人评论 次浏览
  • GNN手写mnist数据集Pytorch实现

    GAN网络手写数据集Pytorch实现 import argparse import os import numpy as npimport torchvision.transforms as transforms from torchvision.utils import save_imagefrom torch.utils.data import DataLoader from torchvision import datasets from torch.autograd i…

    2021/12/10 23:23:54 人评论 次浏览
  • GNN手写mnist数据集Pytorch实现

    GAN网络手写数据集Pytorch实现 import argparse import os import numpy as npimport torchvision.transforms as transforms from torchvision.utils import save_imagefrom torch.utils.data import DataLoader from torchvision import datasets from torch.autograd i…

    2021/12/10 23:23:54 人评论 次浏览
  • python3.8+anaconda3+cuda9.2+cudnn7.2.1.38+pycharm搭建pytorch环境

    目录 环境 查看显卡 方法一 方法二 下载python 下载anaconda3 下载cuda9.2和cudnn7.2.1.38 下载pytorch 1、修改.condarc(贴清华源)+官网指令 2、离线安装torch和torchvision 下载pycharm 另外一些指令 再插播一条。 再再插播一条。环境 windows10python3.8Anaconda3cud…

    2021/12/10 22:17:44 人评论 次浏览
扫一扫关注最新编程教程