×
提示:
×
提示:
请:
谢谢!
Toggle navigation
技术头条
最新
读点非技术
我也分享
赞过
我的
IT技术博客大学习
微博登录
1
中文语法纠错全国大赛获奖分享:基于多轮机制的中文语法纠错
(www.52nlp.cn)
【简介】
中文语法纠错任务旨在对文本中存在的拼写、语法等错误进行自动检测和纠正,是自然语言处理领域一项重要的任务。同时该任务在公文、新闻和教育等领域都有着落地的应用价值。但由于中文具有的文法和句法规则比较复杂,基于深度学习的中文文本纠错在实际落地的场景中仍然具有推理速度慢、纠错准确率低和假阳性高等缺点,因此中文文本纠错任务还具有非常大的研究空间。
点击查看全文 >>
由
@技术头条
2022-12-24 23:33分享 / 原作者微博:
@52nlp
/ 0个评论
赞过的人:
@IT技术博客大学习
要不要再学学下面的文章?
1
论文分享|基于被动DNS流量分析的大规模IoT设备识别系统
(blog.nsfocus.net)
如何通过被动流量识别IoT设备?如何检测分配了IPv6地址、NAT后的IoT设备?本文介绍了IoTFinder系统有效解决上述问题。
by
@技术头条
2023-01-04 23:42 分享
查看详情
1
JS数组的copyWithin()语法我看了好几遍才懂
(www.zhangxinxu.com)
copyWithin()是一个数组内的复制与替换方法,类似C或C++里面的memmove,是个高性能的数据移动方法,其语法需要多看几篇才看得懂。
by
@技术头条
2023-01-04 23:34 分享
查看详情
1
文字语义纠错技术探索与实践-张健
(www.52nlp.cn)
文本语义纠错的使用场景非常广泛,基本上只要涉及到写作就有文本纠错的需求。书籍面市前就有独立的校对的环节来保障出版之后不出现明显的问题。在新闻中我们也时不时看到因为文字审核没到位造成大乌龙的情况,包括上市公司在公开文书上把“临时大会”写成为“临死大会”,政府文件把“报效国家”写成了“报销国家”。有关文本纠错的辅助工具能给文字工作人员带来较大的便利,对审核方面的风险也大幅降低。
by
@技术头条
2022-12-24 23:38 分享
查看详情
1
【顶刊论文分享】DeepSec:深度学习模型的安全性分析平台
(blog.nsfocus.net)
DEEPSEC是一个对深度学习模型安全性进行统一分析的平台,通过构建多指标评价体系,对多种对抗攻击的攻击/防御方法进行了全面深入地评估。
by
@技术头条
2022-12-18 20:07 分享
查看详情
1
划词评论与Range开发若干经验分享
(www.zhangxinxu.com)
如果你有类似划词评论的开发需求,本文内容不容错过,这可是外面很难找到的开发素材,暂时没有遇到类似需求也没关系,可以Star下项目,日后再说。
by
@技术头条
2022-12-18 20:04 分享
查看详情
0
MogDB ASH机制浅析
(www.dbform.com)
ASH实际上是Oracle数据库中的一个名词,全称是Active Session History,这项功能会在数据库内存和持久化的系统表里都记录下每隔一定周期的活跃会话的信息,内存中的数据重启数据库以后会清空,但是持久化的系统表数据会长期保留。因为ASH的存在,所以当数据库发生故障或者经历性能问题,需要回溯定位问题原因的时候,非常有帮助。
在MogDB中,同样实现了ASH能力。
by
@技术头条
2022-12-10 22:57 分享
查看详情
1
深入 JS new Function 语法
(www.zhangxinxu.com)
JS new Function() 语法看起来平平无奇 ,但是其字符串作为函数主体的特性大有用处,本文绝对会让你有所收益!
by
@技术头条
2022-08-18 23:35 分享
查看详情
1
介绍一种CSS变量未定义语法也OK的小妙招
(www.zhangxinxu.com)
我以为我对 CSS 变量了解够多够深入了,没想到还是有知识的盲区,今天这个小技巧小特性就是其中之一,并且是相当实用的一个特性。
by
@技术头条
2022-07-24 20:54 分享
查看详情
2
六则糟糕代码的优化方案分享
(mp.weixin.qq.com)
变量、属性和函数名应该使用小驼峰式命名法,并且名称是可描述的. 应该避免使用单字符变量和不通用的缩写。
by
@code小生
2022-06-26 11:29 分享
查看详情
1
Transformer中的缓存机制
(www.52nlp.cn)
Encoder部分相对简单,进行self-attention时只需要考虑一个batch内和长度相关的mask。这里重点讨论training和inference两种模式下decoder attention在每一层的工作机制。在training模式下,decoder部分采用teacher_forcing的机制来产生decoder的输入,具体的实现方式是将原始的input_target_sequence右移动一位,或者可以理解为在原始的input_target_sequence最左侧添加一个decode_start_token。
by
@技术头条
2022-06-19 22:35 分享
查看详情
使用微博登录,分享你的文章到本站
评论:
提交评论
近一周被赞排行
分享文章被赞得多,您就会出现在上面。还能给您微博带来新粉丝哦!