2022-02-03

  • Swin Transformer
    • 论文:在整个图片上打patch,每个patch之间做自注意力,这个注意力是在全图上做的全局注意力,带来的问题是计算复杂度随着图片尺寸的增加会图片尺寸的平方成比例,所以提出每个patch里做自注意力,每个patch的大小固定,那么计算的复杂度就是patch的大小,随着图片尺寸的增大,计算复杂度呈线性增长
    • 想法:是否可以整个车辆产生的报文看作是一张大图,每次选出来的一块(29X29)看作是一个patch

2022-02-06

  • MAE
    • 论文:这里借鉴BERT使用Transfomer来对图片做掩码(完形填空),最终从剩下的块里学出图像特征,然后恢复。这里作者指出与BERT不同的是,在NLP领域做掩码,盖住的是一个完整的词,几乎是包含有完整的语义信息,图像的掩码恢复是更有难度的
    • 想法:在车辆报文如果做掩码遮住,和图像类似,遮住的是一部分,并不包含一定完整信息

2022-02-07

  • AlphaFlod-2

    • 论文:算法7 有sigmoid作用的门控制多头自注意力的输出(不会放出的元素,让sigmoid输出零,从而控制输出)
    • 想法:在卷积网络和图网络的特征合并,然后通过门控网络控制特征元素的输出
    • 论文:算法7 做完按行的 k 、q自注意力,又添加了氨基酸对的bias
    • 想法:把图神经网络的输出当作bias加入到卷积网络
  • 可否通过随机遮住部分做数据增强


文章作者: 田山
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 田山 !
 上一篇
2023-03-16 田山
下一篇 
2023-03-16 田山
  目录