风车小站

  • 首页

  • 分类

  • 时间轴

  • 书单

  • 电影

  • 友链

  • 关于

  • 搜索

软件推荐(一)

发表于 2020-09-28 | 更新于 2020-10-29 | 分类于 推荐
本文字数: 1.6k | 阅读时长 ≈ 1 分钟

这是软件推荐的第一期。虽然个人博客确实没什么人看,但还是会用心的去完成它,就当是给现在的自己存个档。感谢点开这个网页的所有人,如果本期内容对你有用的话,就点个赞吧~ 先来个全家福 软件 简介 平台 Listary 全局搜索 / 快速启动 / 文件定位 Win WGestu ...

阅读全文 »

Federated Learning for Vision-and-Language Grounding Problems

发表于 2020-08-07 | 更新于 2020-09-29 | 分类于 uncategorized
本文字数: 2.7k | 阅读时长 ≈ 2 分钟

文章背景这篇文章的背景是这样的,首先我的每个客户端输入的都是图像,这些图像可以是不同类型的,作者在实验中是用了两个不同的数据集来表示这一点。其次是每个客户端的任务也可以是不同的,比如一部分做视觉问答,另一部分做图像描述。因为他们的任务不一样,所以传统的联邦学习方法就不适用了。作者的方法概括的说就 ...

阅读全文 »

Multi-modal Self-Supervision from Generalized Data Transformations

发表于 2020-07-31 | 更新于 2020-10-20 | 分类于 机器学习
本文字数: 2.2k | 阅读时长 ≈ 2 分钟

自监督学习首先简单的介绍一下自监督学习和对比学习。自监督学习在我看来更偏向于无监督学习,因为他处理的对象也是无标签的数据,但是不同于无监督学习,它希望用自己构造的一些标签,作为一个辅助任务来训练网络。比如我们看到下面,我可以对原图像做一个旋转让他去预测旋转的角度,或者对原图像挖掉一块让他去预测挖 ...

阅读全文 »

Fitnets:Cross Modal Distillation for Supervision Transfer

发表于 2020-07-22 | 更新于 2020-10-20 | 分类于 机器学习 , 蒸馏
本文字数: 1.1k | 阅读时长 ≈ 1 分钟

看完这篇文章我的内心是崩溃的…… 因为是第一次接触多模态深度学习,所以去搜索了解了一些基本的概念,然后在千辛万苦弄懂理解了他的方法之后,发现和之前的蒸馏文章 Fitnets:Hints for Thin Deep Nets 提出的方法是完全一样的,就是换了种表达而已…… 看了下两篇文章的投稿分别 ...

阅读全文 »

实用网站汇总(长期更新)

发表于 2020-07-19 | 更新于 2021-03-21 | 分类于 推荐
本文字数: 1.8k | 阅读时长 ≈ 2 分钟

做一个各种良心网站的汇总,另外有时间会做实用软件的分享,大家有什么的好的网站或者软件也可以告诉我~ 学习谷歌镜像点我跳转呀~ 没有梯子也能用谷歌哦~ iData点我跳转呀~白嫖知网论文~ SCI-HUB点我跳转呀~ 如果你也像我一样进不了学校图书馆的数据库,又想白嫖各种论文,试试这个吧。当然, ...

阅读全文 »

FedMD:Heterogenous Federated Learning via Model Distillation

发表于 2020-07-17 | 更新于 2020-09-29 | 分类于 机器学习 , 联邦学习
本文字数: 1.9k | 阅读时长 ≈ 2 分钟

在做工作总结的时候,老师问我们看了这么多联邦学习和蒸馏的论文,有没有什么自己的想法呢?具体的比如怎么将蒸馏应用到联邦学习中呢?确实,在之前的工作中大部分都是带任务性的 “被动” 的阅读,以致没有注意到这样基础的问题,这一点以后需要多加注意。这一篇文章就是将蒸馏与联邦学习相结合的一种方法,思路也非 ...

阅读全文 »

PAYING MORE ATTENTION TO ATTENTION:IMPROVING THE PERFORMANCE OF CONVOLUTIONAL NEURAL NETWORKS VIA ATTENTION TRANSFER

发表于 2020-07-10 | 更新于 2020-09-29 | 分类于 机器学习 , 蒸馏
本文字数: 997 | 阅读时长 ≈ 1 分钟

这是蒸馏论文的第四篇,将注意力机制引入知识蒸馏中,总体来说还算比较好懂。作者提出了基于 Activation 和基于 Gradient 两种注意力迁移的方法。 ACTIVATION-BASED ATTENTION TRANSFER 正如图中所示,作者将 HxWxC 的特征图通过计算后得到 at ...

阅读全文 »

Squeeze-and-Excitation Networks

发表于 2020-07-10 | 更新于 2020-09-29 | 分类于 机器学习
本文字数: 1.2k | 阅读时长 ≈ 1 分钟

读这篇论文主要是为了学习注意力机制 (Attention),论文没有做精度,想对文章做快速了解的可以观看 b 站视频:https://www.bilibili.com/video/BV1SA41147uA?from=search&seid=5000503775793461277 注意力机制我们在 ...

阅读全文 »

A Gift from Knowledge Distillation:Fast Optimization,Network Minimization and Transfer Learning

发表于 2020-07-09 | 更新于 2020-09-29 | 分类于 机器学习 , 蒸馏
本文字数: 1.1k | 阅读时长 ≈ 1 分钟

不同于大多数的蒸馏模型中用小模型去拟合大模型的输出,这篇文章将知识定义为神经网络中层与层之间的关系(特征图的内积)文中提到这样做有三个优点: student 网络可以学习的更快 student 网络可以比 teacher 网络的性能更优 适用于迁移学习(teacher 和 student 属 ...

阅读全文 »

Fitnets:Hints for Thin Deep Nets

发表于 2020-07-09 | 更新于 2020-09-29 | 分类于 机器学习 , 蒸馏
本文字数: 648 | 阅读时长 ≈ 1 分钟

这是知识蒸馏的第二篇文章,文章认为 Hinton 提出的 knowledge distillation 方法 (KD) 简单的拟合 Teacher 模型的输出并不能使 Student 达到和 Teacher 一样的泛化性能。对此,作者提出了 hint(隐藏层的输出)的概念。此外,作者认为在 th ...

阅读全文 »
123…7
丨fengche丨

丨fengche丨

风过轻轻,侧耳倾听。
65 日志
9 分类
14 标签
RSS
GitHub E-Mail QQ CSDN
推荐阅读
  • 软件推荐
  • 实用网站
  • 影视大全
  • talkop
  • 虫部落
  • 学术导航
0%
© 2019 – 2021 fengche | 站点字数合计: 240k
载入天数...载入时分秒...
人 | 次