搜索结果
查询Tags标签: NLP,共有 104条记录-
Transformer的应用
Transformer 写在前面 本学期学习了NLP的课程,本小菜鸡结合做的课设(基于Transformer的英文文档摘要系统的设计与实现),来写一下有关于Transformer的相关内容吧,有问题之处还请各位大佬批评指正 系统的背景 抽象文本摘要是自然语言处理中最具挑战性的任务之一,涉及理…
2024/1/21 5:02:26 人评论 次浏览 -
“中国法研杯”司法人工智能挑战赛:基于UTC的多标签/层次分类小样本文本应用,Macro F1提升13%+
“中国法研杯”司法人工智能挑战赛:基于UTC的多标签/层次分类小样本文本应用,Macro F1提升13%+ 相关文章推荐: 本项目主要完成基于UTC的多标签应用,更多部署细节请参考推荐文章。本项目提供了小样本场景下文本多标签分类的解决方案,在 UTC的基础上利用提示学习取得比…
2023/5/19 14:22:07 人评论 次浏览 -
Prompt learning 教学[技巧篇]:通过增加示例、引导词、特殊符号指令等方式让chatgpt输出更好的答案
Prompt learning 教学[技巧篇]:通过增加示例、引导词、特殊符号指令等方式让chatgpt输出更好的答案 技巧1:To Do and Not To Do 在问答场景里,为了让 AI 回答更加准确,一般会在问题里加条件。比如让 AI 推荐一部电影给你 Recommend a movie to me 。但这个 prompt 太空…
2023/5/14 5:22:23 人评论 次浏览 -
千“垂”百炼:垂直领域与语言模型(1)
Using Language Models in Specific Domains (1) 微信公众号版本:https://mp.weixin.qq.com/s/G24skuUbyrSatxWczVxEAg 这一系列文章仍然坚持走“通俗理解”的风格,用尽量简短、简单、通俗的话来描述清楚每一件事情。本系列主要关注语言模型在垂直领域尝试的相关工作。 …
2023/4/9 14:22:00 人评论 次浏览 -
NLP学习(二)——支持向量机(SVM)
Support Vector Machine(SVM) 对下图中的数据点进行分类:要解决的问题:什么样的决策边界最好? 特征数据本身若很难分应怎么处理? 计算复杂度如何?决策边界 若将数据点比喻为地雷,则决策边界为选出的离雷区最远的(雷区就是边界上的点,要large margin)距离的计算数…
2022/7/25 6:52:51 人评论 次浏览 -
NLP分词算法简介
1. 简介 NLP的底层任务由易到难大致可以分为词法分析、句法分析和语义分析。分词是词法分析(还包括词性标注和命名实体识别)中最基本的任务,可以说既简单又复杂。说简单是因为分词的算法研究已经很成熟了,大部分的准确率都可以达到95%以上,说复杂是因为剩下的5%很难有…
2022/7/8 1:20:56 人评论 次浏览 -
NLP模型压缩概述
目录1. 为什么需要模型压缩2. 模型压缩的基本方法 1. 为什么需要模型压缩 理论上来说,深度神经网络模型越深,非线性程度也就越大,相应的对现实问题的表达能力越强,但相应的代价是,训练成本和模型大小的增加。 同时,在部署时,大模型预测速度较低且需要更好的硬件支持…
2022/6/28 23:31:17 人评论 次浏览 -
斯坦福NLP课程 | 第4讲 - 神经网络反向传播与计算图
作者:韩信子@ShowMeAI,路遥@ShowMeAI,奇异果@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/36 本文地址:http://www.showmeai.tech/article-detail/236 声明:版权所有,转载请联系平台与作者并注明出处 收藏ShowMeAI查看更多精彩内容ShowMeAI为斯坦福CS22…
2022/5/4 6:47:43 人评论 次浏览 -
斯坦福NLP课程 | 第3讲 - 神经网络知识回顾
作者:韩信子@ShowMeAI,路遥@ShowMeAI,奇异果@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/36 本文地址:http://www.showmeai.tech/article-detail/235 声明:版权所有,转载请联系平台与作者并注明出处 收藏ShowMeAI查看更多精彩内容ShowMeAI为斯坦福CS22…
2022/5/4 6:24:46 人评论 次浏览 -
一文搞懂NLP中的对抗训练FGSM/FGM/PGD/FreeAT/YOPO/FreeLB/SMART
原地址本文主要串烧了FGSM, FGM, PGD, FreeAT, YOPO, FreeLB, SMART这几种对抗训练方法,希望能使各位大佬炼出的丹药更加圆润有光泽,一颗永流传对抗训练是一种引入噪声的训练方式,可以对参数进行正则化,提升模型鲁棒性和泛化能力。 对抗训练的假设是:给输入加上扰动之…
2022/2/24 23:28:28 人评论 次浏览 -
(转)深入理解NLP Subword算法:BPE、WordPiece、ULM
原地址 目录 前言 与传统空格分隔tokenization技术的对比 Byte Pair Encoding WordPiece Unigram Language Model 总结前言Subword算法如今已经成为了一个重要的NLP模型性能提升方法。自从2018年BERT横空出世横扫NLP界各大排行榜之后,各路预训练语言模型如同雨后春笋般涌…
2022/2/23 20:53:17 人评论 次浏览 -
新鲜出炉的 NLP 算法岗社招面试经验分享
最近终于做好了选择,决定从杭州“搬迁”到了上海,一切安顿好之后,终于有功夫可以好好整理一下近期面试遇到的一些问题以及自己的一些小经验啦,希望对同样有跳槽需求的同行小伙伴们有些小小的帮助。 【注】文末提供面试技术交流群 首先,简单做一下自己的背景介绍啦~背…
2022/1/31 20:11:31 人评论 次浏览 -
NLP技术在找房的搜索推荐中的应用
公众号:系统之神与我同在 NLP技术在搜索推荐中的应用 本文包括 介绍(业务简介) NLU(找房中自然语言的理解) 应用(NLU在搜索推荐中的应用) 介绍 找房的业务和场景 图解(多元化的居住服务) 用户购房流程 找房场景 NLU 找房中的自然语言理解 找房业务下NLU的特点 …
2022/1/23 23:09:00 人评论 次浏览 -
机器学习与ML.NET–NLP与BERT
目录 1. 先决条件 2. 理解Transformers架构 3. BERT直觉 4. ONNX模型 5. 使用ML.NET实现 5.1 数据模型 5.2 训练 该训练类是相当简单,它只有一个方法 BuildAndTrain它使用的路径,预先训练的模式。 5.3 预测器 5.4 助手和扩展 5.4 分词器 5.5 BERT 预测方法进行几个步骤。…
2022/1/14 23:11:54 人评论 次浏览 -
机器学习与ML.NET–NLP与BERT
目录 1. 先决条件 2. 理解Transformers架构 3. BERT直觉 4. ONNX模型 5. 使用ML.NET实现 5.1 数据模型 5.2 训练 该训练类是相当简单,它只有一个方法 BuildAndTrain它使用的路径,预先训练的模式。 5.3 预测器 5.4 助手和扩展 5.4 分词器 5.5 BERT 预测方法进行几个步骤。…
2022/1/14 23:11:54 人评论 次浏览