网站首页 站内搜索

搜索结果

查询Tags标签: 张量,共有 33条记录
  • keras 的dot函数

    首先先弄清楚哪是0轴(-1轴),1轴(-2轴) 看下面例子: import tensorflow as tfx = tf.constant([[1, 2, 3], [4, 5, 6]]) y2 = tf.reduce_sum(x, axis = 0) print("沿着张量0轴方向求和:\n",y2.eval()) y3 = tf.reduce_sum(x, axis = 1) print("沿…

    2021/10/9 23:38:41 人评论 次浏览
  • keras 的dot函数

    首先先弄清楚哪是0轴(-1轴),1轴(-2轴) 看下面例子: import tensorflow as tfx = tf.constant([[1, 2, 3], [4, 5, 6]]) y2 = tf.reduce_sum(x, axis = 0) print("沿着张量0轴方向求和:\n",y2.eval()) y3 = tf.reduce_sum(x, axis = 1) print("沿…

    2021/10/9 23:38:41 人评论 次浏览
  • 卷积神经网络卷积后尺寸大小计算

    卷积神经网络卷积后尺寸大小计算 1、无填充1.1 公式11.2 示例 2、有填充2.1.1 公式22.1.2 示例2.2.1 公式32.2.2 示例1、无填充 1.1 公式1H′=(H−K[0])S[0]+1W’=(W−K[1])S[1]+1\begin{aligned}\\ H &= \frac{(H-K[0])}{S[0]} + 1 \\ \\ W’ &=\frac{(W-K[1])}{…

    2021/10/6 23:14:45 人评论 次浏览
  • 卷积神经网络卷积后尺寸大小计算

    卷积神经网络卷积后尺寸大小计算 1、无填充1.1 公式11.2 示例 2、有填充2.1.1 公式22.1.2 示例2.2.1 公式32.2.2 示例1、无填充 1.1 公式1H′=(H−K[0])S[0]+1W’=(W−K[1])S[1]+1\begin{aligned}\\ H &= \frac{(H-K[0])}{S[0]} + 1 \\ \\ W’ &=\frac{(W-K[1])}{…

    2021/10/6 23:14:45 人评论 次浏览
  • Tensorflow编程基础

    导语这篇博客是在看慕课时写的,由于我的环境为TF2.3,在看慕课里TF1.*的代码的时候,运行起来就会出现种种问题,而我呢又不想直接去看TF2的内容,就一个个解决,记录下来,慕课链接放在下面,当然这篇博客会以TF2为主,毕竟主要还是用TF2的嘛,当然不一定完全哈。这一个…

    2021/10/4 20:42:38 人评论 次浏览
  • Tensorflow编程基础

    导语这篇博客是在看慕课时写的,由于我的环境为TF2.3,在看慕课里TF1.*的代码的时候,运行起来就会出现种种问题,而我呢又不想直接去看TF2的内容,就一个个解决,记录下来,慕课链接放在下面,当然这篇博客会以TF2为主,毕竟主要还是用TF2的嘛,当然不一定完全哈。这一个…

    2021/10/4 20:42:38 人评论 次浏览
  • pytorch学习笔记——张量维度操作

    一、torch.cat() 添加链接描述 按照指定维度拼接张量 c=torch.cat((A,B),0)#按维度0拼接 c=torch.cat((A,B),1)#按维度1拼接二、torch.view() 添加链接描述 x = torch.randn(4, 4) print(x.size()) y = x.view(16) print(y.size()) z = x.view(-1, 8) # -1表示该维度取决…

    2021/9/23 23:10:52 人评论 次浏览
  • pytorch学习笔记——张量维度操作

    一、torch.cat() 添加链接描述 按照指定维度拼接张量 c=torch.cat((A,B),0)#按维度0拼接 c=torch.cat((A,B),1)#按维度1拼接二、torch.view() 添加链接描述 x = torch.randn(4, 4) print(x.size()) y = x.view(16) print(y.size()) z = x.view(-1, 8) # -1表示该维度取决…

    2021/9/23 23:10:52 人评论 次浏览
  • 线性代数-张量算法的基本性质

    给定任何相同形状的任意两个张量,任何按元素二元运算的结果都将是相同形状的张量A = torch.arange(20, dtype=torch.float32).reshape(5, 4) B = A.clone() # 通过分配新内存,将A的一个副本分配给B A, A + B#输出结果(tensor([[ 0., 1., 2., 3.],[ 4., 5., 6., 7…

    2021/7/23 12:07:05 人评论 次浏览
  • 线性代数-张量算法的基本性质

    给定任何相同形状的任意两个张量,任何按元素二元运算的结果都将是相同形状的张量A = torch.arange(20, dtype=torch.float32).reshape(5, 4) B = A.clone() # 通过分配新内存,将A的一个副本分配给B A, A + B#输出结果(tensor([[ 0., 1., 2., 3.],[ 4., 5., 6., 7…

    2021/7/23 12:07:05 人评论 次浏览
  • pytorch-tensor张量

    torch 目录torch张量tensor的几种属性内置类型torch.type()type_as()设置默认类型类型转换创建tensor创建Tensor时指明数据类型获取数据类型转换数据类型torch.tensor(data)torch.from_numpy(ndarray)tensor.tolist()tensor.numpy()创建指定张量随机操作 张量 张量(Tenso…

    2021/7/19 23:05:53 人评论 次浏览
  • pytorch-tensor张量

    torch 目录torch张量tensor的几种属性内置类型torch.type()type_as()设置默认类型类型转换创建tensor创建Tensor时指明数据类型获取数据类型转换数据类型torch.tensor(data)torch.from_numpy(ndarray)tensor.tolist()tensor.numpy()创建指定张量随机操作 张量 张量(Tenso…

    2021/7/19 23:05:53 人评论 次浏览
  • 1 预备知识

    2.1、张量初始化 import torch 几种初始化方式 torch.zeros((3,4)), torch.ones((1,2)), torch.tensor([[1,2,3], [4,54,5]]), torch.randn(5,6) 2.1.2、张量元素操作 1.对于应常数的+,-,乘,除, 张量对应元素位置进行加减乘除即可 2.使用== 和 > 和 < 比较各元素…

    2021/7/1 6:22:27 人评论 次浏览
  • 张量tensor 和张量分解 tensor decomposition

    Tensor 实际上是一个多维数组(multidimensional array) Tensor的目的是能够创造更高维度的矩阵、向量。

    2021/6/18 6:03:04 人评论 次浏览
  • 张量的索引、分片、合并以及维度调整

    文章目录 张量的符号索引一维张量索引二维张量索引 tensor.view()方法张量的分片函数分块:chunk函数拆分:split函数 张量的合并操作拼接函数:cat堆叠函数:stack张量的符号索引 张量也是有序序列,我们可以根据每个元素在系统内的顺序“编号”,来找出特定的元素,也就…

    2021/6/15 10:51:30 人评论 次浏览
扫一扫关注最新编程教程