人工智能与大数据安全研究所第四次研讨会
时间:2023年3月14日 下午14:00-17:00
地点:广州大学 (大学城校区)理科南214
报告1:
报告人:谌伦源 (硕士生)
报告题目:中继辅助的联邦边缘学习
在本次报告中,谌伦源同学首先介绍了联邦学习的产生背景、核心思想并分析了联邦学习的特点。重点针对联邦学习在网络边缘的部署进行研究,考虑到资源受限场景下联邦边缘学习会受到严重的通信瓶颈的限制,引出了所提出的中继辅助的联邦边缘学习。
通过分别解答中继辅助联邦边缘学习的三个关键问题,对其进行了系统设计,并对所提出的系统进行性能分析,在性能分析的指导下提出了两种带宽分配方法对系统进一步优化。最后谌伦源同学对此次报告进行了总结,并对如何提高联邦边缘学习性能的未来工作进行了展望。汇报结束后范立生教授、高崇志教授以及黄华锟副教授进行专业的点评并对系统框架与实验仿真的设置给出了重要的建议。同时参会同学针对报告内容踊跃地进行了提问,谌伦源同学对此进行了细致的讲解。
报告2:
报告人: 冯健维(硕士生)
报告题目:Conv2NeXt: Reconsider ConvNeXt Network Design for Image Recognition
在本次报告中,冯健维同学分享了他们团队最近一项关于计算机视觉中卷积神经网络模型的工作Conv2NeXt: Reconsider ConvNeXt Network Design for Image Recognition。首先,介绍了CNNs和Transformers的背景、相关任务以及有代表性的相关技术。随后,分析了现有技术ConvNeXt是如何构建的,以及其优缺点并提出了两个创新点:一是将ConvNeXt提出的4次下采样与ConvMixer提出的1次下采样方法相借鉴得出“double patches”结构;二是引入注意力机制中的空间注意力模块和坐标注意力模块。将这两个创新点进行融合构成了一个完整的卷积神经网络模型Conv2NeXt。紧接着,先从宏观的角度介绍Conv2NeXt是如何一步步构建的。再从细节出发,详细阐述其核心模块“double patches” 和 SACA Module(Spatial Coordinate Attention Module)的设计思想并展示完整的与一系列SOTAs的对比实验、消融实验、模型热力图可视化的实验过程和结果,在一定程度上证明了Conv2NeXt在解决小分辨率图像上的轻量性和鲁棒性。最后,冯健维同学对该工作进行了总结和讨论(局限性和未来工作),相信Conv2NeXt能解决更多的下游任务,以及CNN和transformer的结合仍有很大的发展空间。接下来,计划在更多更大的数据集上验证Conv2NeXt的实用性,以及尝试能否找到CNN和transformer的一个的平衡点。 汇报结束后,谭恒良老师对注意力模块比较关注,提出了疑问以及新的想法;方美娥教授肯定了模型热力图可视化实验,提出直观的比较更能凸显模型的优势;高崇志教授和范立生教授同时也进行了深度的沟通,鼓励同学可以集中资源在大数据集上继续进行实验;汪洋涛老师和黄华锟副教授分别对CNN卷积网络局限性提出了建议,并提出了新的研究立足点。