成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

音頻處理問題難?快使用Tensorflow構建一個語音識別模型

譯文
開發 開發工具
語音識別在許多行業都是一個復雜的問題。了解有關處理音頻數據以及如何對聲音樣本進行分類的一些基礎知識對豐富個人能力是件很有益的事。

【51CTO.com快譯】本文我們將通過一個使用Tensorflow對一些聲音剪輯進行分類的例子,幫助你了解足夠的基礎知識,從而能夠構建自己的語音識別模型。另外,你也可以通過進一步的學習,將這些概念應用到更大、更復雜的音頻文件中。

本案例的完整代碼可以在??GitHub??上獲取。

?[[386747]]?

獲取數據

數據收集是數據科學中的難題之一。雖然有很多可用的數據,但并不是所有的數據都容易用于機器學習問題。因此必須確保數據是干凈的、有標簽的和完整的。

為了實現本次案例,我們將使用Google發布的一些音頻文件,可以在??Github??上獲取。

首先,我們將創建一個新的Conducto管道。在這里,您可以構建,訓練和測試模型,并與其他感興趣的人共享鏈接:

###
# Main Pipeline
###
def main() -> co.Serial:
path = "/conducto/data/pipeline"
root = co.Serial(image = get_image())

# Get data from keras for testing and training
root["Get Data"] = co.Exec(run_whole_thing, f"{path}/raw")

return root

然后,開始編寫 run_whole_thing 功能:

def run_whole_thing(out_dir):
os.makedirs(out_dir, exist_ok=True)
# Set seed for experiment reproducibility
seed = 55
tf.random.set_seed(seed)
np.random.seed(seed)
data_dir = pathlib.Path("data/mini_speech_commands")

接下來,設置目錄以保存音頻文件:

if not data_dir.exists():
# Get the files from external source and put them in an accessible directory
tf.keras.utils.get_file(
'mini_speech_commands.zip',
origin="http://storage.googleapis.com/download.tensorflow.org/data/mini_speech_commands.zip",
extract=True)

預處理數據

現在將數據保存在正確的目錄中,可以將其拆分為訓練、測試和驗證數據集。

首先,我們需要編寫一些函數來幫助預處理數據,以使其可以在我們的模型中起作用。

我們需要算法能夠理解的數據格式。我們將使用卷積神經網絡,所以數據需要轉換成圖像。

第一個函數將把二進制音頻文件轉換成一個張量:

# Convert the binary audio file to a tensor
def decode_audio(audio_binary):
audio, _ = tf.audio.decode_wav(audio_binary)
return tf.squeeze(audio, axis=-1)

由于我們有一個具有原始數據的張量,所以我們需要得到匹配它們的標簽。這就是下面的函數通過從文件路徑獲取音頻文件的標簽功能:

# Get the label (yes, no, up, down, etc) for an audio file.
def get_label(file_path):
parts = tf.strings.split(file_path, os.path.sep)
return parts[-2]

接下來,我們需要將音頻文件與正確的標簽相關聯。執行此操作并返回一個可與 Tensorflow配合使用的元組:

# Create a tuple that has the labeled audio files
def get_waveform_and_label(file_path):
label = get_label(file_path)
audio_binary = tf.io.read_file(file_path)
waveform = decode_audio(audio_binary)
return waveform, label

前面我們簡要提到了使用卷積神經網絡(CNN)算法。這是我們處理語音識別模型的方法之一。通常CNN在圖像數據上工作得很好,有助于減少預處理時間。

我們要利用這一點,把音頻文件轉換成頻譜圖。頻譜圖是頻率頻譜的圖像。如果查看一個音頻文件,你會發現它只是頻率數據。因此,我們要寫一個將音頻數據轉換成圖像的函數:

# Convert audio files to images
def get_spectrogram(waveform):
# Padding for files with less than 16000 samples
zero_padding = tf.zeros([16000] - tf.shape(waveform), dtype=tf.float32)
# Concatenate audio with padding so that all audio clips will be of the same length
waveform = tf.cast(waveform, tf.float32)
equal_length = tf.concat([waveform, zero_padding], 0)
spectrogram = tf.signal.stft(
equal_length, frame_length=255, frame_step=128)
spectrogram = tf.abs(spectrogram)

return spectrogram

現在我們已經將數據格式化為圖像,我們需要將正確的標簽應用于這些圖像。這與我們制作原始音頻文件的做法類似:

# Label the images created from the audio files and return a tuple
def get_spectrogram_and_label_id(audio, label):
spectrogram = get_spectrogram(audio)
spectrogram = tf.expand_dims(spectrogram, -1)
label_id = tf.argmax(label == commands)
return spectrogram, label_id

我們需要的最后一個 helper 函數將處理傳遞給它的任何音頻文件集的所有上述操作:

# Preprocess any audio files
def preprocess_dataset(files, autotune, commands):
# Creates the dataset
files_ds = tf.data.Dataset.from_tensor_slices(files)

# Matches audio files with correct labels
output_ds = files_ds.map(get_waveform_and_label,
num_parallel_calls=autotune)
# Matches audio file images to the correct labels
output_dsoutput_dsoutput_ds = output_ds.map(
get_spectrogram_and_label_id, num_parallel_calls=autotune)
return output_ds

當已經有了所有這些輔助函數,我們就可以分割數據了。

將數據拆分為數據集

將音頻文件轉換為圖像有助于使用CNN更容易處理數據,這就是我們編寫所有這些幫助函數的原因。我們將做一些事情來簡化數據的分割。

首先,我們將獲得所有音頻文件的潛在命令列表,我們將在代碼的其他地方使用這些命令:

# Get all of the commands for the audio files
commands = np.array(tf.io.gfile.listdir(str(data_dir)))
commandscommandscommands = commands[commands != 'README.md']

然后我們將得到數據目錄中所有文件的列表,并對其進行混洗,以便為每個需要的數據集分配隨機值:

# Get a list of all the files in the directory
filenames = tf.io.gfile.glob(str(data_dir) + '/*/*')

# Shuffle the file names so that random bunches can be used as the training, testing, and validation sets
filenames = tf.random.shuffle(filenames)

# Create the list of files for training data
train_files = filenames[:6400]

# Create the list of files for validation data
validation_files = filenames[6400: 6400 + 800]

# Create the list of files for test data
test_files = filenames[-800:]

現在,我們已經清晰地將培訓、驗證和測試文件分開,這樣我們就可以繼續對這些文件進行預處理,使它們為構建和測試模型做好準備。這里使用autotune來在運行時動態調整參數的值:

autotune = tf.data.AUTOTUNE

第一個示例只是為了展示預處理的工作原理,它給了一些我們需要的spectrogram_ds值:

# Get the converted audio files for training the model
files_ds = tf.data.Dataset.from_tensor_slices(train_files)
waveform_ds = files_ds.map(
get_waveform_and_label, num_parallel_calls=autotune)
spectrogram_ds = waveform_ds.map(
get_spectrogram_and_label_id, num_parallel_calls=autotune)

既然已經了解了預處理的步驟過程,我們可以繼續使用helper函數來處理所有數據集:

# Preprocess the training, test, and validation datasets
train_ds = preprocess_dataset(train_files, autotune, commands)
validation_ds = preprocess_dataset(
validation_files, autotune, commands)
test_ds = preprocess_dataset(test_files, autotune, commands)

我們要設置一些訓練示例,這些訓練示例在每個時期的迭代中運行,因此我們將設置批處理大小:

# Batch datasets for training and validation
batch_size = 64
train_dstrain_dstrain_ds = train_ds.batch(batch_size)
validation_dsvalidation_dsvalidation_ds = validation_ds.batch(batch_size)

最后,我們可以利用緩存來減少訓練模型時的延遲:

# Reduce latency while training
train_dstrain_dstrain_ds = train_ds.cache().prefetch(autotune)
validation_dsvalidation_dsvalidation_ds = validation_ds.cache().prefetch(autotune)

最終,我們的數據集采用了可以訓練模型的形式。

建立模型

由于數據集已明確定義,所以我們可以繼續構建模型。我們將使用CNN創建模型,因此我們需要獲取數據的形狀以獲取適用于我們圖層的正確形狀,然后我們繼續按順序構建模型:

# Build model
for spectrogram, _ in spectrogram_ds.take(1):
input_shape = spectrogram.shape

num_labels = len(commands)

norm_layer = preprocessing.Normalization()
norm_layer.adapt(spectrogram_ds.map(lambda x, _: x))

model = models.Sequential([
layers.Input(shape=input_shape),
preprocessing.Resizing(32, 32),
norm_layer,
layers.Conv2D(32, 3, activation='relu'),
layers.Conv2D(64, 3, activation='relu'),
layers.MaxPooling2D(),
layers.Dropout(0.25),
layers.Flatten(),
layers.Dense(128, activation='relu'),
layers.Dropout(0.5),
layers.Dense(num_labels),
])

model.summary()

我們在模型上做了一些配置,以便給我們最好的準確性:

# Configure built model with losses and metrics
model.compile(
optimizer=tf.keras.optimizers.Adam(),
loss=tf.keras.losses.SparseCategoricalCrossentropy(
from_logits=True),
metrics=['accuracy'],
)

模型建立好了,現在剩下的就是訓練它了。

訓練模型

在所有的工作都對數據進行預處理和建立模型之后,訓練就相對簡單了。我們確定要使用訓練和驗證數據集運行多少個周期:

# Finally train the model and return info about each epoch
EPOCHS = 10
model.fit(
train_ds,
validation_data=validation_ds,
epochs=EPOCHS,
callbacks=tf.keras.callbacks.EarlyStopping(verbose=1, patience=2),
)

這樣這個模型就已經訓練好了,現在需要對它進行測試。

測試模型

現在我們有了一個準確率約為83%的模型,是時候測試它在新數據上的表現了。所以我們使用測試數據集并將音頻文件從標簽中分離出來:

# Test the model
test_audio = []
test_labels = []

for audio, label in test_ds:
test_audio.append(audio.numpy())
test_labels.append(label.numpy())

test_audio = np.array(test_audio)
test_labels = np.array(test_labels)

然后我們獲取音頻數據并在我們的模型中使用它,看看它是否預測了正確的標簽:

# See how accurate the model is when making predictions on the test dataset
y_pred = np.argmax(model.predict(test_audio), axis=1)
y_true = test_labels

test_acc = sum(y_pred == y_true) / len(y_true)

print(f'Test set accuracy: {test_acc:.0%}')

完成管道

只需要編寫一小段代碼就可以完成您的管道并使其與任何人共享。這定義了將在Conducto管道中使用的圖像,并處理文件執行:

###
# Pipeline Helper functions
###
def get_image():
return co.Image(
"python:3.8-slim",
copy_dir=".",
reqs_py=["conducto", "tensorflow", "keras"],
)

if __name__ == "__main__":
co.main(default=main)

現在,你可以在終端中運行python pipeline.py——它應該會啟動一個到新Conducto管道的鏈接。

結論

這是解決音頻處理問題的方法之一,但是根據要分析的數據,它可能要復雜得多。如果將其構建在管道中,可以很輕松地與同事共享并在遇到錯誤時獲得幫助或反饋。

【51CTO譯稿,合作站點轉載請注明原文譯者和出處為51CTO.com】


責任編輯:黃顯東 來源: hackernoon.com
相關推薦

2025-04-01 09:31:34

PyTorch自動語音識別ASR系統

2018-08-27 17:05:48

tensorflow神經網絡圖像處理

2012-07-25 13:23:32

ibmdw

2010-03-01 14:40:00

Python RSS處

2018-08-30 09:36:10

編程語言Python機器學習

2021-11-02 09:40:50

TensorFlow機器學習人工智能

2010-02-23 17:23:26

Python異常處理

2024-05-28 08:11:44

SpringTensorFlow訓練

2023-11-28 14:22:54

Python音頻

2022-09-19 16:38:59

數據產品SaaSSnowflake

2014-02-19 09:51:29

iOS開發時間處理

2023-01-30 17:14:40

人工智能語音識別

2025-01-11 23:14:52

2025-02-26 07:00:00

Go 語言Ollama 模型dubbogo

2024-06-13 08:36:11

2010-05-17 14:59:05

MySQL事務處理

2024-08-15 14:48:57

2017-03-20 10:14:03

語音識別匹配算法模型

2025-02-24 08:39:08

2023-09-05 09:00:00

工具Python抄襲檢測系統
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 日韩毛片在线免费观看 | 国产乱码精品一品二品 | 久久久久亚洲精品国产 | 精品一二区| 视频在线亚洲 | 中文字幕亚洲一区二区三区 | 日韩欧美在线一区二区 | av天天澡天天爽天天av | 精品国产一区二区三区免费 | 欧美久久一区二区三区 | 亚洲逼院 | 免费黄色的视频 | 亚洲人成一区二区三区性色 | 欧美精品在线免费观看 | 中文字幕一区二区三区在线观看 | 天天干狠狠操 | 一区二区视频 | 精品国产欧美一区二区 | 免费黄色片在线观看 | 欧美一区二区三区在线视频 | 日本中文在线视频 | 精品视频免费 | 国产精品高潮呻吟久久av黑人 | 欧美二区乱c黑人 | 国产精品久久久 | com.国产 | 日韩精品一区二区三区视频播放 | 国产成人福利在线观看 | 欧美理论片在线观看 | 久久久人成影片一区二区三区 | 黄色免费观看网站 | 国产精品美女久久久 | 成人一区二区三区在线 | 亚洲综合无码一区二区 | 欧美精品久久久久 | 国产精品色 | 色综合久 | 中文字幕四虎 | 在线成人免费av | 久久久精品国产 | 狠狠躁天天躁夜夜躁婷婷老牛影视 |