YOLOv3:自分のデータを訓練する(絶対クラシックバージョン1)

Windows版:https://github.com/AlexeyAB/darknetを参照してください。

Linux版:https://pjreddie.com/darknet/yoloでこの記事を参照してください

パート1:論文とコード

パートII:自分のデータを鍛える方法

パートIII:疑問の解釈

パートIV:テスト関連

パート1:論文とコード

本文:https://pjreddie.com/media/files/papers/YOLOv3.pdf

翻訳:https://zhuanlan.zhihu.com/p/34945787

コード:https://github.com/pjreddie/darknet

公式サイト:https://pjreddie.com/darknet/yolo

旧バージョン:

Https://pjreddie.com/darknet/yolov2/

Https://pjreddie.com/darknet/yolov1/

パートII:自分のデータを鍛える方法

説明:

(1)プラットフォームlinux +著者の公式コード[トレーニングの手順は、公式サイトのチュートリアルを参照してください:https://pjreddie.com/darknet/yolo]

環境:centos6.5

グラフィックカード:1080Ti

時間:まもなく、私は正確な時間を覚えていない。
反復:900
利点:小さなターゲット検出速度:v2よりわずかに遅い
テスト:cfgファイルを変更することを忘れないでください。

目的:ユーザーに参照を提供するため、サンプルと反復の数は少なく、学習のためだけです!

(2)全員の学習を容易にするために、182のトレーニングデータ、注釈、および対応する設定ファイルがここに提供されています。データは、[人、前、尾、横]の4つのカテゴリです。

トレーニングデータ、設定ファイル、モデル、トレーニングログ、アノテーションツールはQQグループに入れられます: 371315462 、この記事を読んでグループを追加してください! ! ! 特定のダウンロードアドレスはグループファイルYOLOv3.txtにあります!

フレンドリーリマインダ:グループを追加すると、このブログの投稿に記載されている質問が残っていて、削除されます。

[グループファイルにはtraining_list.txtラベルファイルが追加されています]、 ターゲット検出とセマンティックセグメンテーションの小さなパートナーはグループに入ることを歓迎します。

自分のデータをトレーニングすることは、主に以下の手順に分かれています。

(0)データセット制作:

A. VOC形式のXMLファイルを作成する

ツール:LabelImg [グループファイルには、exe無料のインストールバージョンと使用方法が記載されています]

B. VOC形式のxmlファイルをYOLO形式のtxtファイルに変換する

スクリプト:voc_label.py、あなた自身のデータセットに従って修正するだけです。

(1)文書の変更:

(A).data .namesについて2つのファイルは非常に簡単に変更できます。公式サイトのファイルやグループファイルYOLOv3.txtの接続を参照してください。

(B)cfgの変更に関して、6カテゴリのターゲット検出を例にとって、主に以下の調整( 青色のマーク )があり、アップロードしたファイルも参照しています。これは4つのカテゴリに対応しています。

[ネット]
#テスト
#batch = 1
#subdivisions = 1
#トレーニング
バッチ= 64

小区画= 8

……

[畳み込み]
サイズ= 1
ストライド= 1
パッド= 1
フィルタ= 33 ### 75

アクティベーション=リニア

[yolo]
マスク= 6,7,8
アンカー= 10,13,16,30,33,23,30,61,62,45,59,119,116,90,156,198,373,326
クラス= 6 ### 20
Num = 9
ジッタ= .3
Ignore_thresh = .5
Truth_thresh = 1
ランダム= 0 ### 1

……

[畳み込み]
サイズ= 1
ストライド= 1
パッド= 1
フィルタ= 33 ### 75
アクティベーション=リニア

[yolo]
マスク= 3,4,5
アンカー= 10,13,16,30,33,23,30,61,62,45,59,119,116,90,156,198,373,326
クラス= 6 ### 20
Num = 9
ジッタ= .3
Ignore_thresh = .5
Truth_thresh = 1
ランダム= 0 ### 1

……

[畳み込み]
サイズ= 1
ストライド= 1
パッド= 1
フィルタ= 33 ### 75
アクティベーション=リニア

[yolo]
マスク= 0,1,2
アンカー= 10,13,16,30,33,23,30,61,62,45,59,119,116,90,156,198,373,326
クラス= 6 ### 20
Num = 9
ジッタ= .3
Ignore_thresh = .5
Truth_thresh = 1
ランダム= 0 ### 1

A.フィルタの数はどのように計算されますか: 3x(クラス数+5)。これは、クラスタ番号の分布に関連しています

B.デフォルトアンカー値を変更する場合は、k-meansを使用します。

C. メモリが小さい場合は、 ランダムに0を 設定 してマルチスケールトレーニングをオフにします。

D.他のパラメータをどのように調整し、記入するか。

最初の100回の反復は大きな損失を有し、後者の反復は迅速に収束する。

Region xx:cfgファイル内のyolo-layerのインデックス。

平均IOU:現在の反復では、予測されたボックスがラベル付きボックスの平均と比較されます。値が大きければ大きいほど、期待値は1になります。

クラス:マークされたオブジェクトの分類精度は、大きければ大きいほど、期待値は1です。

Obj:期待値が大きければ大きいほど、期待値は1です。

いいえobj:小さければ小さいほど良い。

.5R:閾値としてのIOU = 0.5で再現;回収=陽性試料検出/実際陽性試料

0.75R:IOU = 0.75を閾値として想起する。

カウント:陽性サンプルの数。

F.モデルテスト:

6種類のテスト結果[ モデルファイルと設定ファイルは後でグループファイルに入れられますが、データはまだ利用できません]

4つのタイプのテスト効果、182の反復が900回であるときの検出効果。 [グループファイルYOLOv3.txtにはBaiduクラウドディスクダウンロードアドレスがあります]

設定ファイル内の関連パラメータ: フルバージョンについては、グループファイルを参照してください。

H.トレーニングに問題やその他の質問がある場合は、第3部またはウェブ検索を参照してください。

I.問題のテストとテスト方法については、第4部またはWeb検索を参照してください。

トレーニング手順、マルチGPUトレーニング手順、リカバリトレーニング手順

パートIII:詳細なトレーニングに関する質問

グループファイルからの画像、侵害連絡先の削除

Tips0:データセットの問題

訓練の仕方を学んでいる場合は、VOCやCOCOを使わないことをお勧めします。これらの2つのデータセットは複雑で多くのカテゴリがありますが、作者の効果を再現するには一定のスキルが必要です。 したがって、単純なデータセットを選択するか、手動で数百にマークを付けて訓練するのが良いでしょう。

ヒント1:CUDA:メモリ不足とサイズ変更の問題

不十分なメモリ、小さなバッチ、近いマルチスケールトレーニング:ランダム= 0。

ヒント2:初期の反復では、損失は大きく、通常ですか?

いくつかのデータセットがテストされた後、初期の損失は正常であり、後者はすぐに収束します。

ヒント3:YOLOV3のマスクの役割は何ですか?

参照番号558#567

Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPressすべてのレイヤーはすべてのアンカーボックスについて知っている必要がありますが、それらのサブセットの一部のみを予測しています。これはおそらくより良い名前が付けられていますが、マスクはレイヤーに境界ボックスのどれを予測するかを指示します。

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

yolo-->训练与测试指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (2)如何进行模型的评估(valid)?评估指令,请参考官网连接:https://pjreddie.com/darknet/yolo/ (3)bounding box正确,标签错乱,这里提供两种方案供选择。 A.不改源码,不用重新编译修改coco.names中内容,为自己的检测目标类别B.改源码,需要重新编译[ 先make clean ,然后再make]原因是作者在代码中设置了默认,所以修改examples/darknet.c文件,将箭头指示的文件替换成自己的。然后重新编译即可。 (4)模型保存问题A:保存模型出错?一般是.data 文件中指定的文件夹无法创建,导致模型保存时出错。自己手动创建即可。 B:模型什么时候保存?如何更改迭代次数小于1000时,每100次保存一次,大于1000时,没10000次保存一次。自己可以根据需求进行更改,然后重新编译即可[ 先make clean ,然后再make]。代码位置: examples/detector.c line 138 C:使用预训练模型直接保存问题darknet53.conv.74作为预训练权重文件,因为只包含卷积层,所以可以从头开始训练。 xxx.weights作为预权重文件训练,因为包含所有层,相当于恢复快照训练,会从已经保存的迭代次数往下训练。如果cfg中迭代次数没改,所以不会继续训练,直接保存结束。 (5)中文标签问题这个解决方案较多,我就简单的说一下我的方案【群文件labels提供了参考代码】 A:首先生成对应的中文标签,修改代码中的字体,将其替换成指中文字体,如果提示提示缺少**模块,安装就行了。 B:添加自己的读取标签和画框函数(6)图片上添加置信值代码比较熟悉的童鞋,使用opencv在画框的函数里面添加一下就行了。 (7)图片保存名称测试的时候,保存的默认名称是predictions.自己改成对应的图片名称即可。 第五部分:论文阅读优点 :速度快,精度提升,小目标检测有改善; 不足 :中大目标有一定程度的削弱,遮挡漏检,速度稍慢于V2。 v2: anchors[k-means]+多尺度+跨尺度特征融合
v3: anchors[k-means]+多尺度+跨尺度特征融合v2,v3两者都是有上面的共同特点,简单的多尺度不是提升小目标的检测的关键。 v2: 32x的下采样,然后使用anchor进行回归预测box
问题:较大的下采样因子,通常可以带来较大的感受野,这对于分类任务是有利,但会损害目标检测和定位【小目标在下采样过程中消失,大目标边界定位不准】 v3: 针对这个问题,进行了调整。就是在网络的3个不同的尺度进行了box的预测。【说白了就是FPN的思想】在下采样的前期就进行目标的预测,这样就可以改善小目标检测和定位问题。
不理解的话,稍微看一下FPN,就明白了。这个才是v3提升小目标的关键所在。 --------------------- 本文来自马卫飞的CSDN 博客,全文地址请点击:https://blog.csdn.net/maweifei/article/details/81137563?utm_source=copy 标签 Coco 、 layer 、 人工知能发表评论取消回复 电子邮件地址不会被公开。必填项已用*标注 文章导航上一篇文章 上一篇 ubuntu16.04+CUDA8.0+GTX1080Ti+yolo3详细配置转 下一篇文章 下一篇 OpenCV图像处理实例:libuv+cvui显示摄像头视频顶 https://my.oschina.net/farces/blog/2209444 自豪地采用WordPress

元のサイトへ