Yhc Blog

行百里者,九十为半

19.4.18_组会问题记录与学习

"可解释性算法的差距"

4.18 机器学习与认知计算所第四次组会问题记录 1.统计方法设计 根据层次聚类算法,进行有统计意义的计算 会议上,老师对我的实验结果进行了质疑,以前没接触过对应的聚类统计方法,在上一次设计实验时,并没有考虑到实验的随机性,缺乏这方面的知识。刚好亡羊补牢在此进行针对性的学习。 1.1 任务明细 上次实验,我们将mnist在cam中gap层的数据进行了导出,得到了一个 300x64x...

机器学习experiment_GAP_LeNet_MMD

"将MMD应用在LeNet上查看GAP下不同类的差距"

机器学习experiment_GAP_LeNet_MMD ‘”tensorflow + torch “ 1. 实验目标 直观观察不同类中的差距 利用MMD进行差距度量 2. 实验环境 数据集:MNIST cluttered dataset 1 2 pip3 install -r requirements.txt jupyter notebook mnist...

19.4.11_组会问题记录与学习

"找问题,研究生学习方法,网络复现"

4.11 机器学习与认知计算所第三次组会问题记录 “第一次发言,好紧张啊” 1. 前言 没想到,这才第三次组会一个月的时间,自己就能够从旁听生到讲台上发表自己的意见 兴奋,又紧张吧。一直在准备自己要讲啥,所以前面学长学姐在讲什么也没听清楚,😭哈哈哈 所以这次主要还是对自己发言的问题进行总结,然后对一些问题进行回答 2.可解释性对比思路问题 其实刚开始想到这个,自己还觉得...

论文笔记6:Deep Domain Confusion

"迁移学习网络和方法学习"

论文笔记6 Deep Domain Confusion 论文Deep Domain Confusion: Maximizing for Domain Invariance 的研读笔记 1. 简介 深度监督神经网络在大量数据的训练下,产生很多的数据偏差bias,很难remove到新的任务上去。 提出一种新的网络结构,能够应对数据bias问题。 就适应层的选择...

Search_度量方法调研与迁移学习

"经过思路的整理,对用什么方法进行实验做了调研"

度量方法调研与迁移学习 1.理解迁移学习 重新理解我们的问题,我们目标也就是两个:在输出的feature map上度量时 同类之间的差距小,不同类之间的差距大 概率(准确率)高 在我们确定要去度量差距之后,我的重点就放在了度量方法的研究上。而刚好迁移学习的核心思想就是在做源域到目标域的迁移。通过度量两者之间的差距来调整或者finetune模型(上节组会还不知道这个名词,没...