成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

從視頻到音頻:使用VIT進行音頻分類

人工智能 機器學習
就機器學習而言,音頻本身是一個有廣泛應用的完整的領域,包括語音識別、音樂分類和聲音事件檢測等等。

就機器學習而言,音頻本身是一個有廣泛應用的完整的領域,包括語音識別、音樂分類和聲音事件檢測等等。傳統上音頻分類一直使用譜圖分析和隱馬爾可夫模型等方法,這些方法已被證明是有效的,但也有其局限性。近期VIT已經成為音頻任務的一個有前途的替代品,OpenAI的Whisper就是一個很好的例子。

在本文中,我們將利用ViT - Vision Transformer的是一個Pytorch實現在音頻分類數據集GTZAN數據集-音樂類型分類上訓練它。

數據集介紹

GTZAN 數據集是在音樂流派識別 (MGR) 研究中最常用的公共數據集。 這些文件是在 2000-2001 年從各種來源收集的,包括個人 CD、收音機、麥克風錄音,代表各種錄音條件下的聲音。

這個數據集由子文件夾組成,每個子文件夾是一種類型。

加載數據集

我們將加載每個.wav文件,并通過librosa庫生成相應的Mel譜圖。

mel譜圖是聲音信號的頻譜內容的一種可視化表示,它的垂直軸表示mel尺度上的頻率,水平軸表示時間。它是音頻信號處理中常用的一種表示形式,特別是在音樂信息檢索領域。

梅爾音階(Mel scale,英語:mel scale)是一個考慮到人類音高感知的音階。因為人類不會感知線性范圍的頻率,也就是說我們在檢測低頻差異方面要勝于高頻。 例如,我們可以輕松分辨出500 Hz和1000 Hz之間的差異,但是即使之間的距離相同,我們也很難分辨出10,000 Hz和10,500 Hz之間的差異。所以梅爾音階解決了這個問題,如果梅爾音階的差異相同,則意指人類感覺到的音高差異將相同。

def wav2melspec(fp):
y, sr = librosa.load(fp)
S = librosa.feature.melspectrogram(y=y, sr=sr, n_mels=128)
log_S = librosa.amplitude_to_db(S, ref=np.max)
img = librosa.display.specshow(log_S, sr=sr, x_axis='time', y_axis='mel')
# get current figure without white border
img = plt.gcf()
img.gca().xaxis.set_major_locator(plt.NullLocator())
img.gca().yaxis.set_major_locator(plt.NullLocator())
img.subplots_adjust(top = 1, bottom = 0, right = 1, left = 0,
hspace = 0, wspace = 0)
img.gca().xaxis.set_major_locator(plt.NullLocator())
img.gca().yaxis.set_major_locator(plt.NullLocator())
# to pil image
img.canvas.draw()
img = Image.frombytes('RGB', img.canvas.get_width_height(), img.canvas.tostring_rgb())
return img

上述函數將產生一個簡單的mel譜圖:

圖片

現在我們從文件夾中加載數據集,并對圖像應用轉換。

class AudioDataset(Dataset):
def __init__(self, root, transform=None):
self.root = root
self.transform = transform
self.classes = sorted(os.listdir(root))
self.class_to_idx = {c: i for i, c in enumerate(self.classes)}
self.samples = []
for c in self.classes:
for fp in os.listdir(os.path.join(root, c)):
self.samples.append((os.path.join(root, c, fp), self.class_to_idx[c]))

def __len__(self):
return len(self.samples)

def __getitem__(self, idx):
fp, target = self.samples[idx]
img = Image.open(fp)
if self.transform:
img = self.transform(img)
return img, target

train_dataset = AudioDataset(root, transform=transforms.Compose([
transforms.Resize((480, 480)),
transforms.ToTensor(),
transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))
]))

ViT模型

我們將利用ViT來作為我們的模型:Vision Transformer在論文中首次介紹了一幅圖像等于16x16個單詞,并成功地展示了這種方式不依賴任何的cnn,直接應用于圖像Patches序列的純Transformer可以很好地執行圖像分類任務。

將圖像分割成Patches,并將這些Patches的線性嵌入序列作為Transformer的輸入。Patches的處理方式與NLP應用程序中的標記(單詞)是相同的。

由于缺乏CNN固有的歸納偏差(如局部性),Transformer在訓練數據量不足時不能很好地泛化。但是當在大型數據集上訓練時,它確實在多個圖像識別基準上達到或擊敗了最先進的水平。

實現的結構如下所示:

class ViT(nn.Sequential):
def __init__(self,
in_channels: int = 3,
patch_size: int = 16,
emb_size: int = 768,
img_size: int = 356,
depth: int = 12,
n_classes: int = 1000,
**kwargs):
super().__init__(
PatchEmbedding(in_channels, patch_size, emb_size, img_size),
TransformerEncoder(depth, emb_size=emb_size, **kwargs),
ClassificationHead(emb_size, n_classes)

訓練

訓練循環也是傳統的訓練過程:

vit = ViT(
n_classes = len(train_dataset.classes)
)

vit.to(device)

# train
train_loader = DataLoader(train_dataset, batch_size=32, shuffle=True)
optimizer = optim.Adam(vit.parameters(), lr=1e-3)
scheduler = ReduceLROnPlateau(optimizer, 'max', factor=0.3, patience=3, verbose=True)
criterion = nn.CrossEntropyLoss()
num_epochs = 30

for epoch in range(num_epochs):
print('Epoch {}/{}'.format(epoch, num_epochs - 1))
print('-' * 10)

vit.train()

running_loss = 0.0
running_corrects = 0

for inputs, labels in tqdm.tqdm(train_loader):
inputs = inputs.to(device)
labels = labels.to(device)

optimizer.zero_grad()

with torch.set_grad_enabled(True):
outputs = vit(inputs)
loss = criterion(outputs, labels)

_, preds = torch.max(outputs, 1)
loss.backward()
optimizer.step()

running_loss += loss.item() * inputs.size(0)
running_corrects += torch.sum(preds == labels.data)

epoch_loss = running_loss / len(train_dataset)
epoch_acc = running_corrects.double() / len(train_dataset)
scheduler.step(epoch_acc)

print('Loss: {:.4f} Acc: {:.4f}'.format(epoch_loss, epoch_acc))

總結

使用PyTorch從頭開始訓練了這個Vision Transformer架構的自定義實現。因為數據集非常小(每個類只有100個樣本),這影響了模型的性能,只獲得了0.71的準確率。

這只是一個簡單的演示,如果需要提高模型表現,可以使用更大的數據集,或者稍微調整架構的各種超參數!

這里使用的vit代碼來自:

https://medium.com/artificialis/vit-visiontransformer-a-pytorch-implementation-8d6a1033bdc5

責任編輯:華軒 來源: DeepHub IMBA
相關推薦

2021-03-19 17:59:30

深度學習音頻程序

2021-03-29 10:56:51

人工智能深度學習

2024-09-20 10:02:13

2022-08-12 08:38:52

FFmpegLinux命令

2024-11-21 16:06:02

2016-09-12 14:42:24

LinuxOctave音頻文件

2009-12-28 17:33:19

WPF視頻音頻

2016-10-31 19:41:50

LinuxOctave音頻文件

2020-05-15 08:06:37

JavaScriptobject URL對象

2011-06-13 16:22:49

Core AudioCocoa TouchiOS

2015-08-26 10:27:33

2013-05-03 13:59:18

視頻會議音頻音頻通話

2022-09-28 15:26:45

視覺任務

2015-10-28 13:29:21

音頻源碼audio

2022-07-08 08:00:00

流混合開發Web

2021-09-07 15:25:51

鴻蒙HarmonyOS應用

2011-04-18 11:00:34

使用音頻BlackBerry

2023-11-21 21:39:38

單例模式音頻管理器

2011-08-02 16:58:15

iPhone AVAudioPla 音頻播放

2012-04-27 14:34:15

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 成人不卡 | 亚洲第一成人av | 日韩在线观看一区二区三区 | www.奇米| 精品一二区 | 国产精品久久久久久久7电影 | 日韩欧美中文 | 国产成人精品久久二区二区91 | 99视频| 免费看色 | 免费国产成人av | 国产一区二区三区免费视频 | 91视频.com| 亚洲国产精品久久 | 91久久国产综合久久 | 一区二区三区视频在线观看 | 久久久久久99 | 日韩视频二区 | 在线一区 | 国产高潮好爽受不了了夜夜做 | 综合一区 | 国产伊人精品 | 国产ts人妖系列高潮 | 成人亚洲一区 | 欧美精品一区二区三区在线 | 在线播放中文字幕 | 在线视频亚洲 | 成人一级视频在线观看 | 免费影视在线观看 | 色必久久| 黄色一级毛片免费看 | 久久久久国产一区二区三区四区 | 国产精品久久久久久一区二区三区 | 最新伦理片 | 91夜夜夜| 日韩一区二区三区在线视频 | 又黄又色| 99re在线视频 | 中文字幕亚洲国产 | 欧美视频区 | 高清av一区 |