很不幸的是被抽到了公开答辩,然而幸运的是我是第一个答辩,系里面的老师也没有全来,大概到场的也就8到9个。

写在前面

我估计老师在答辩的时候感觉出来我做的比较水,只是因为有督导在前面就给我点面子,最后水了个优秀毕业论文。校优秀就不申请了,嫌麻烦,而且估计更多老师看明白是个水文。

答辩PPT: 百度盘 提取码: p7yv

答辩记录

  • Q1: 几类目标?
    6类,分别为行人(Person)、自行车(bike)、机动车(car)、摩托车(motor)、公交车(bus)和卡车(truck)
  • Q2:实测框架?
    本次系统使用pytorch框架实现
  • Q3:不平衡怎么去确定
    根据数据集中各个类的数量比对, 行人类和机动车类明显比其他类别要多
  • Q4:数据集如何自建?收集?
    本次数据集从大型检测数据集COCO、自动驾驶数据集BDD100K中提取的含有行人车辆图片和网络爬取的图片组成。
  • Q5:损失函数的选择理由?
    损失函数由box loss、obj loss、cls loss三部分组成。其中box loss为边界框定位部分,由c-iou loss组成,其反应了预测框和真实框的重叠程度、中心点距离和长宽比,优化边界框的定位问题。对于分类部分采取逻辑回归函数能够更好的反应预测物体性和预测类别与真实值的差别。obj loss采用BCE Logits函数,对边界框中含有物体的置信度进行优化。cls loss采用BCE函数,对边界框的分类进行优化。
  • Q6:为什么不采用公开数据集?70%训练,30%测试,理由?
    由于未能找到符合我需求的公开数据集,因此从各个公开数据集中提取需要的类别检测。
    本次训练和验证一共使用约2万张图片,属于小数据集。因此采用机器学习中传统的划分方法,即将70%的数据用于训练,20%数据用于验证。
    (其实因为没钱。免费colab嫖到没次数了,租的GPU又贵,网盘功能免费只给5G,只能搞小一点数据集)
  • Q7:改进结果突出哪些类?
    所有类的均值平均精确度都有一定的提升,效果最大的为机动车类,约有4.1%的提升效果。
  • Q8:为什么car类提升效果最高?
    调整特征融合部分主要是针对长宽小于8像素的小目标改进,而在这些小目标中car类的实例数量约占一半,因此car类受到的提升效果最高。
    (因为当时PPT打错了,老师原本问的是motor)

写在最后

因为当时答辩的PPT把motor类的数值写错了,以至于老师以为我的提升效果有10%,实际只有2%左右吧。搞得我答辩时候很懵逼,总共提升效果一般般,而老师以为很大。