搜索结果
查询Tags标签: Reduction,共有 6条记录-
OpenMP 教程(一) 深入剖析 OpenMP reduction 子句 前言
从并发求和开始我们的任务是两个线程同时对一个变量 data 进行 ++操作,执行 10000 次,我们看下面的代码有什么问题: #include <stdio.h> #include <omp.h> #include <unistd.h> static int data; int main() { #pragma omp parallel num_thread…
2022/11/12 1:24:05 人评论 次浏览 -
seurat 单细胞数据分析中 VizDimLoadings 函数
前期处理:https://www.jianshu.com/p/fef17a1babc2 #可视化对每个主成分影响比较大的基因集 001、dat <- pbmc[["pca"]]@feature.loadings ## 数据来源 dat[1:3, 1:3] dat <- dat[order(-dat[,1]),][1:29,1] dat <…
2022/8/27 23:25:55 人评论 次浏览 -
label smoothing
label 可分为 hard label 和 soft label; label smoothing,标签平滑,像 L1 L2 dropout 一样,是一种正则化的方法; 用于 防止模型过分自信,提升泛化能力; 不过这个 方法不是 很常用,有很多 tricks 可以起到类似的作用,学到最后你会发现,很多算法之间彼此互通…
2022/8/7 23:24:04 人评论 次浏览 -
reduce的方向
我们先使用tf.reduce_sum来计算了每一个样本点的损失,注意这里的参数 reduction_indices=[1],这表明我们是在第1维上运算,这跟numpy或者DataFrame的运算类似,具体1的含义看下图: 缩减哪一维度,就意味着这个维度没有了,被压扁了
2022/3/7 23:47:54 人评论 次浏览 -
MMDetection源码解析:Focal loss
Focal loss在文件.\mmdet\models\losses\focal_loss.py实现,代码如下:import torch import torch.nn as nn import torch.nn.functional as F from mmcv.ops import sigmoid_focal_loss as _sigmoid_focal_lossfrom ..builder import LOSSES from .utils import weight_r…
2022/1/29 17:05:25 人评论 次浏览 -
李宏毅机器学习课程笔记-15.1无监督学习简介
目录聚类K-meansHAC降维引入降维降维作用原理如何实现降维生成 无监督学习(Unsupervised Learning)可以分为两类:化繁为简聚类(Clustering) 降维(Dimension Reduction)无中生有生成(Generation)在无监督学习(Unsupervised Learning)中,数据集中通常只有\((x,\hat y)\)中…
2021/6/13 10:25:52 人评论 次浏览