论文的目录格式是什么样的迁移学习是如何应用于深度学习的

论文的目录格式是什么样的

目录是用来列出文档中的各级标题及标题在文档中相对应的页码。首先介绍Word的一个概念:大纲级别。Word使用层次结构来组织文档,大纲级别就是段落所处层次的级别编号,Word提供9级大纲级别,对一般的文档来说足够使用了。Word的目录提取是基于大纲级别和段落样式的,在Normal模板中已经提供了内置的标题样式,命名为“标题1”、“标题2”,…,“标题9”,分别对应大纲级别的1-9。我们也可以不使用内置的标题样式而采用自定义样式,但有点麻烦。下文中的目录制作方法直接使用Word的内置标题样式,关于自定义样式的方法请参阅Word的帮助文档。  目录的制作分三步进行。  1)修改标题样式的格式。通常Word内置的标题样式不符合论文格式要求,需要手动修改。在菜单栏上点“格式|样式”,列表下拉框中选“所有样式”,点击相应的标题样式,然后点“更改”。可修改的内容包括字体、段落、制表位和编号等,按论文格式的要求分别修改标题1-3的格式。  2)在各个章节的标题段落应用相应的格式。章的标题使用“标题1”样式,节标题使用“标题2”,第三层次标题使用“标题3”。使用样式来设置标题的格式还有一个优点,就是更改标题的格式非常方便。假如要把所有一级标题的字号改为小三,只需更改“标题1”样式的格式设置,然后自动更新,所有章的标题字号都变为小三号,不用手工去一一修改,即麻烦又容易出错。关于如何应用样式和自动更新样式,请参考Word帮助。  3)提取目录。按论文格式要求,目录放在正文的前面。在正文前插入一新页(在第一章的标题前插入一个分页符),光标移到新页的开始,添加“目录”二字,并设置好格式。新起一段落,菜单栏选“插入|索引和目录”,点“目录”选项卡,“显示级别”为3级,其他不用改,确定后Word就自动生成目录。若有章节标题不在目录中,肯定是没有使用标题样式或使用不当,不是Word的目录生成有问题,请去相应章节检查。此后若章节标题改变,或页码发生变化,只需更新目录即可。  注:  目录生成后有时目录文字会有灰色的底纹,这是Word的域底纹,打印时是不会打印出来的(如果你愿意浪费一张纸可以试着打印一下目录)。在“工具|选项”的“视图”选项卡可以设置域底纹的显示。

迁移学习是如何应用于深度学习的

今年CVPR发表了很多迁移学习在深度学习上的应用,这里介绍其中一篇CVPR 2019论文: Taking A Closer Look at Domain Shift: Category-level Adversaries for Semantics Consistent Domain Adaptation这是我写在今日头条上的文章,直接粘贴过来摘要域适应在语义分割中的关键问题在于 减少域漂移(domain shift)。一般,我们对齐两个域之间的分布来解决这个关键问题。问题是,这种全局性的对齐两个域的分布,并没有考虑类别级别的对齐。这种忽略会造成:目标域中 原本已经对齐的类别,经过训练后,映射到错误的类别。基于以上问题,作者提出类别级别的对抗网络,目标是在全局对齐的过程中,保持局部的语义不变性介绍语义分割是指在一张图片上给每个像素都打上类别标签。要实现这样的模型,人工标注成本太高。为了省点钱,我们采用合成数据集训练。比如用游戏中的街景数据集训练街景的语义分割模型。问题在于,该模型在真实场景中并不好使。所以采用域适应的策略,解决标注数据缺少的问题。域适应的关键问题在于减少源域和目标域之间的差异。目前主要有两类方法:通过缩小某种距离 来减少源域和目标域特征之间的差异通过gan学习域不变的特征上述方法都有一个很明显的缺陷:当生成器网络能完美地骗过判别器网络时,两个域的全局边缘分布几乎完全对齐了。但是此时,忽略了局部的联合分布差异。目标域有些类别的特征分布已经对齐了。但是最小化对抗损失函数之后,会将该特征映射到错误的类别。作者为了解决该问题提出了一下算法:算法问题背景源域:数据X_S,标签Y_S目标域:数据X_T,无标签目标:训练一个模型G,能正确分类目标域的数据网络架构整个网络由生成器G 和判别器D组成。G是一个由任意FCN为基础的语义分割网络。D是一个以CNN为基础的二分类网络。其中G又可以细分为:特征提取器E和两个分类器C_1 , C_2。结构示意图如图片所示。相关工作论文采用了两种思想:对抗(GAN)和协同训练(co-traning)GANGAN在迁移学习中的应用形式:训练生成器和判别器。生成器用来产生域不变的特征。判别器用来判别 特征属于哪个域.本文中,生成器是G,判别器是D协同训练(co-traning)协同训练是一种半监督模型,针对标注数据很少的情况。协同训练的基本假设:数据有两种特征表达,并且这两种表达都可以对数据进行分类。即可以从两个不同的视角(view)看待数据。假设数据有两种视角:(x1,y1),(x2,y2),其中x是特征,y是标签。利用标注数据的不同视角(x1,y1),(x2,y2),可以得到两个不同的模型f1和f2训练完之后用f1、f2 为目标域未标注数据生成伪标签,并将置信度高的样本加入到对方的训练集中在本篇论文中的网络架构中,分类器C_1 , C_2,充当协同训练的模型f1,f2。分类器C_1预测的语义分割图记为p1,分类器C_2预测的语义分割图记为p2。最终的语义分割图记为p=p1+p2训练流程在训练中,一共包含三个 loss:语义损失函数 (segmentation loss),差异损失函数 (discrepancy loss),自适应的对抗损失函数 (self-adaptive adversarial loss)首先是,源域图片经过生成器G,其中包括特征提取器E,和两个分类器C_1 , C_2,得到预测结果——语义分割图p。这里产生一个语义损失函数 (segmentation loss):然后,我们考虑标准的协同训练流程。为了得到同一张图片的两种表达,我们需要对分类器C_1 , C_2的参数进行约束。特征提取器E,提取所需的所有参数,而两个分类器分别选取一部分,进行像素分类。为了使得两个分类器选取的特征尽可能不一样,这里采用最小化卷积层参数的余弦相似度函数,即差异损失函数 ( discrepancy loss)其中,w是分类器的卷积层的参数展开最后考虑对抗过程。源域和目标域的图像经过整个网络,产生一个自适应的对抗损失函数所以最终的训练损失函数为损失函数分析在网络中,C_1 , C_2的作用是:期望两个分类器抓取不同的特征对由E提取的任意特征,两个分类函数的输出一样差异损失函数 ( discrepancy loss),即公式4的作用是第一项语义损失函数 (segmentation loss)和自适应的对抗损失函数 (self-adaptive adversarial loss)的作用是第二项本文最大的贡献点在于:在传统的对抗loss中加入了自适应的权重如果这一项很大,则表明:该类别的特征在两个域上面并没有对齐。所以,我们鼓励生成器去忽悠判别器,从而减小该类别两个域之间的差异如果这一项很小,则表明:该类别特征在两个域上面已经对齐了,我们不需要对生成器做过大的修改。从而我们达到了类别级别的特征对齐实验以上是我对这篇文章的解读,文章地址 也可查看其它迁移学习论文的解读迁移学习系列文章一:ADVENT: Adversarial Entropy Minimization for Domain Adaptation in Semantic Segmentation 迁移学习系列文章二:AdaGraph: Unifying Predictive and Continuous Domain Adaptation through Grap 迁移学习系列文章三:Selective Zero-Shot Classification with Augmented Attributes 迁移学习系列文章四:Universal Domain Adaptation 迁移学习系列文章五:Leveraing the Invariant Side of Generative Zero-Shot Learning 迁移学习系列文章六:CVPR 2018论文:Feature Generating Networks for Zero-Shot Learning

做提纲的软件

快乐码字是一款专门为网络写手开发的一款功能强大,界面自由的码字软件。而快乐码字不仅仅是一款码字软件,它集中了资料收集,记事本,音乐播放器,浏览器,在线拼字,大纲规划,各种生成器于一体的工具箱。1、独创的每日字数统计2、丰富多样的生成器3、随写随记4、大纲生成5、资料收集6、独创的在线拼字功能7、强制码字8、苛刻的字数统计9、自由简洁的码字页面10、更多的特点:特点实在太多了,就不一一细表,另外还 有语音朗读、文本分割、邮箱保存,自动分章等等等等,还是下载下去慢慢体验吧

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

Proudly powered by WordPress | Theme: Lean Blog by Crimson Themes.