成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

YOLOv8 中的損失函數解析

開發
在本文中,我們將詳細介紹YOLOv8中使用的五個損失函數。請注意,我們將僅討論YOLOv8倉庫中配置的默認損失函數。

介紹

YOLO長期以來一直是目標檢測任務的首選模型之一。它既快速又準確。此外,其API簡潔易用。運行訓練或推斷作業所需的代碼行數有限。在2023年下半年,YOLOv8在框架中引入了姿態估計后,該框架現在支持最多四個任務,包括分類、目標檢測、實例分割和姿態估計。

在本文中,我們將詳細介紹YOLOv8中使用的五個損失函數。請注意,我們將僅討論YOLOv8倉庫中配置的默認損失函數。此外,我們還將僅關注代表性參數,跳過一些標量和常數以進行歸一化或縮放,以便更好地理解。YOLOv8中對應的任務和損失函數可見于圖1。接下來我們將分別對每一個進行討論。

IoU損失

cw = b1_x2.maximum(b2_x2) - b1_x1.minimum(b2_x1)  # convex (smallest enclosing box) width
ch = b1_y2.maximum(b2_y2) - b1_y1.minimum(b2_y1)  # convex height

if CIoU or DIoU:  # Distance or Complete IoU https://arxiv.org/abs/1911.08287v1
  c2 = cw ** 2 + ch ** 2 + eps  # convex diagonal squared
  rho2 = ((b2_x1 + b2_x2 - b1_x1 - b1_x2) ** 2 + (b2_y1 + b2_y2 - b1_y1 - b1_y2) ** 2) / 4  # center dist ** 2
  
  if CIoU:  # https://github.com/Zzh-tju/DIoU-SSD-pytorch/blob/master/utils/box/box_utils.py#L47
     v = (4 / math.pi ** 2) * (torch.atan(w2 / h2) - torch.atan(w1 / h1)).pow(2)
     with torch.no_grad():
       alpha = v / (v - iou + (1 + eps))
     return iou - (rho2 / c2 + v * alpha)  # CIoU

當考慮評估邊界框準確度的方式時,交并比(IoU)指標可能是大多數人首先想到的一個指標。IoU度量了預測的邊界框與實際邊界框之間的重疊程度。它也可以作為一個損失函數,只需將IoU轉換為1-IoU。

在YOLOv8中,修訂后的版本,完全IoU(CIoU)1被應用于衡量預測邊界框與實際邊界框之間的差異。CIoU是一個綜合性指標,它考慮了邊界框之間的三個屬性:

  • 重疊比
  • 中心點之間的距離
  • 長寬比 

CIoU的方程可在圖2右側找到。重疊比、中心點距離和長寬比這三個因素分別由方程中的各項表示。方程中涉及的關鍵參數在左側的圖中進行了說明,其中p和g表示預測和實際情況,b、w和h分別是相應邊界框的中心、寬度和高度。參數c是包圍邊界框的對角線(灰色虛線矩形)而ρ是歐氏距離。除了分類任務外,IoU損失在YOLOv8中的所有其他任務中都會應用。

分布焦點損失(DFL)


def _df_loss(pred_dist, target):
    """Return sum of left and right DFL losses."""
    # Distribution Focal Loss (DFL) proposed in Generalized Focal Loss https://ieeexplore.ieee.org/document/9792391
    tl = target.long()  # target left
    tr = tl + 1  # target right
    wl = tr - target  # weight left
    wr = 1 - wl  # weight right
    return (F.cross_entropy(pred_dist, tl.view(-1), reduction='none').view(tl.shape) * wl +
            F.cross_entropy(pred_dist, tr.view(-1), reduction='none').view(tl.shape) * wr).mean(-1, keepdim=True)

另一個與邊界框相關的損失函數是分布焦點損失(DFL)2。DFL關注的是邊界框回歸的分布差異。YOLOv8中的網絡不是直接預測邊界框,而是預測邊界框的概率分布。它旨在解決邊界模糊或部分遮擋的挑戰性對象。

關鍵點損失

loss[1] += self.keypoint_loss(pred_kpt, gt_kpt, kpt_mask, area)

area:bounding box area

class KeypointLoss(nn.Module):

  def forward(self, pred_kpts, gt_kpts, kpt_mask, area):
        """Calculates keypoint loss factor and Euclidean distance loss for predicted and actual keypoints."""
        d = (pred_kpts[..., 0] - gt_kpts[..., 0]) ** 2 + (pred_kpts[..., 1] - gt_kpts[..., 1]) ** 2
        kpt_loss_factor = (torch.sum(kpt_mask != 0) + torch.sum(kpt_mask == 0)) / (torch.sum(kpt_mask != 0) + 1e-9)
        # e = d / (2 * (area * self.sigmas) ** 2 + 1e-9)  # from formula
        e = d / (2 * self.sigmas) ** 2 / (area + 1e-9) / 2  # from cocoeval
        return kpt_loss_factor * ((1 - torch.exp(-e)) * kpt_mask).mean()

在YOLOv8中,首次將姿態估計任務納入到框架中。姿態由一組關鍵點的坐標和順序定義。關鍵點損失監控了預測和實際關鍵點之間的相似性。兩個對應關鍵點之間的歐幾里得距離是關鍵點損失的主要組成部分。此外,每個關鍵點都帶有一個權重σ,定義了關鍵點的重要性,默認值為1/關鍵點數。例如,如果姿態有四個關鍵點,則所有關鍵點的權重為1/4 = 0.25。

關鍵點目標損失

import torch.nn as nn
loss[2] = nn.BCEWithLogitsLoss(pred_kpt[..., 2], kpt_mask.float())

在大多數姿態估計訓練中,我們可以定義每個關鍵點的可見性。Python腳本中的參數kpt_mask攜帶了我們在標簽中定義的可見性(1/0)。關鍵點目標損失計算關鍵點存在的距離。在YOLOv8中,距離由預測值和實際值的二元交叉熵(BCE)測量。

分類損失和掩碼損失

import torch.nn as nn

loss[3] = nn.BCEWithLogitLoss(pred_scores, target_scores.to(dtype)).sum() / target_scores_sum  # BCE

分類損失是涉及到所有任務的唯一損失函數。無論我們是在進行分類、目標檢測、分割還是姿態估計,圖像或特定對象的類別(例如貓、狗、人等)的推斷結果之間的距離都是通過二元交叉熵(BCE)計算的。

它還適用于實例分割中的掩碼損失。掩碼損失將每個像素視為一個對象,并計算相關的BCE值。在圖5中計算了一個3x3的預測掩碼和相應的掩碼損失。

總損失

# yolo/cfg/default.yaml
...
box: 7.5  # box loss gain
cls: 0.5  # cls loss gain (scale with pixels)
dfl: 1.5  # dfl loss gain
pose: 12.0  # pose loss gain
kobj: 1.0  # keypoint obj loss gain
...

好了,以上我們已經介紹了所有六個損失。在網絡應用反向傳播并更新其參數之前,將損失與相應的權重相加。權重在配置文件default.yaml中定義,如上所示。如果您想在訓練階段動態調整權重,您可以考慮直接在存儲庫中使用下面提供的代碼片段。

loss[0] *= self.hyp.box  # box gain
loss[1] *= self.hyp.pose / batch_size  # pose gain
loss[2] *= self.hyp.kobj / batch_size  # kobj gain
loss[3] *= self.hyp.cls  # cls gain
loss[4] *= self.hyp.dfl  # dfl gain

return loss.sum() * batch_size, loss.detach()

總結 

YOLO是一個為目標檢測任務而知名的框架。除了在效率和準確性方面的表現之外,它還在不斷更新最新的研究成果。這是一個讓計算機視覺從業者跟蹤和學習入選技術的好框架。損失函數在模型訓練中起著重要作用,并決定了最終的準確性。

責任編輯:趙寧寧 來源: 小白玩轉Python
相關推薦

2024-07-22 13:49:38

YOLOv8目標檢測開發

2024-01-29 09:29:02

計算機視覺模型

2025-02-24 09:50:21

2024-11-18 17:31:27

2024-11-28 10:04:14

2025-02-07 14:52:11

2024-10-25 08:30:57

計算機視覺神經網絡YOLOv8模型

2024-07-11 08:25:34

2023-06-18 23:00:39

神經網絡損失函數隨機變量

2023-02-02 09:00:00

2025-01-24 07:37:19

計算機視覺熱力圖YOLOv8

2024-08-27 12:40:59

2024-10-10 17:05:00

2024-10-16 16:49:44

定向邊界框目標檢測YOLOv8

2024-09-09 16:35:10

YOLO模型

2025-01-21 11:41:14

2023-12-11 10:18:38

YOLOv8檢測器實戰

2019-10-08 15:39:54

人工智能損失函數網絡

2024-07-01 12:55:50

2023-01-12 12:20:29

YOLOv8模型
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 精产嫩模国品一二三区 | 亚洲精品不卡 | 国产精品中文字幕在线 | 久久er精品 | 久久婷婷国产麻豆91 | 欧美精品一区二区三区在线 | 欧美在线 | 中文字幕精品视频在线观看 | 91亚洲精品国偷拍自产在线观看 | 伊人久久大香线 | 麻豆av在线免费观看 | 欧美久久一区二区 | 国产视频精品在线 | 少妇精品久久久久久久久久 | 免费观看a级毛片在线播放 黄网站免费入口 | 久久久久国产精品一区二区 | 成人美女免费网站视频 | 久久久精品一区二区三区 | 欧美久久一区二区三区 | 日韩视频免费看 | 午夜精品久久久 | 天天操天天插天天干 | 一级h片 | 91精品欧美久久久久久久 | 欧美成人a∨高清免费观看 色999日韩 | 亚洲欧洲成人av每日更新 | 久久av一区二区三区 | 亚洲精品久久久一区二区三区 | 蜜臀久久99精品久久久久野外 | 一级片免费视频 | 国产成人精品久久久 | 久久综合久 | 国产亚洲精品久久情网 | 久久精品久久久久久 | 中文字幕一区二区三区精彩视频 | 在线观看成人av | 亚洲人成网亚洲欧洲无码 | 羞羞视频在线网站观看 | 精品一区二区三区在线观看国产 | 国产成人精品一区二区三区视频 | 免费麻豆视频 |