成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Hi3861使用NNOM實現人工智能神經網絡之MNIST

系統 OpenHarmony
每當我們學習一門新的語言時,所有的入門教程官方都會提供一個典型的例子——“Hello World”。而在機器學習中,入門的例子稱之為MNIST。

??想了解更多關于開源的內容,請訪問:??

??51CTO 開源基礎軟件社區??

??https://ost.51cto.com??

1、什么是NNOM

請查看之前的帖子:https://ost.51cto.com/posts/12287

2、什么是MNIST

每當我們學習一門新的語言時,所有的入門教程官方都會提供一個典型的例子——“Hello World”。而在機器學習中,入門的例子稱之為MNIST。

MNIST是一個簡單的視覺計算數據集,它是像下面這樣手寫的數字圖片:

MNIST 經常被用來做為分類任務的入門數據庫使用。在這個簡單的例子里面,我們也用它來試試數據歸類。

3、移植和編譯

移植NNOM庫的方法,在之前已經有說明。

$(wildcard $(LIBPATH)/nnom/src/backends/*.c) \
$(wildcard $(LIBPATH)/nnom/src/core/*.c) \
$(wildcard $(LIBPATH)/nnom/src/layers/*.c) \

同時移植了mnist-simple下面的兩個.h文件。

#include "lib/nnom/examples/mnist-simple/image.h"
#include "lib/nnom/examples/mnist-simple/weights.h"

核心的幾個函數。

const char codeLib[] = "@B%8&WM#*oahkbdpqwmZO0QLCJUYXzcvunxrjft/\\|()1{}[]?-_+~<>i!lI;:,\"^`'.   ";
void print_img(int8_t * buf)
{
for(int y = 0; y < 28; y++)
{
for (int x = 0; x < 28; x++)
{
int index = 69 / 127.0 * (127 - buf[y*28+x]);
if(index > 69) index =69;
if(index < 0) index = 0;
DEBUG_printf("%c",codeLib[index]);
DEBUG_printf("%c",codeLib[index]);
}
DEBUG_printf("\n");
}
}
// Do simple test using image in "image.h" with model created previously.
void mnist(int index)
{
uint32_t tick, time;
uint32_t predic_label;
float prob;
DEBUG_printf("\nprediction start.. \n");
tick = hi_get_milli_seconds();
// copy data and do prediction
memcpy(nnom_input_data, (int8_t*)&img[index][0], 784);
nnom_predict(model, &predic_label, &prob);
time = hi_get_milli_seconds() - tick;
//print original image to console
print_img((int8_t*)&img[index][0]);
DEBUG_printf("Time: %d tick\n", time);
DEBUG_printf("Truth label: %d\n", label[index]);
DEBUG_printf("Predicted label: %d\n", predic_label);
DEBUG_printf("Probability: %d%%\n", (int)(prob*100));
}
void nn_stat()
{
model_stat(model);
printf("Total Memory cost (Network and NNoM): %d\n", nnom_mem_stat());
}

4、MNIST使用

我是在Micropython下使用的,其實主要的幾個函數,如下,可以自行移植測試。

STATIC mp_obj_t machine_ai_nnom_test(mp_obj_t self_in,mp_obj_t data_in) {
int num = mp_obj_get_int(data_in);
// create and compile the model
model = nnom_model_create();
// dummy run
model_run(model);
mnist(num);
nn_stat();
return mp_const_none;
}

不同的num值,代表候選的要識別的數字的字節圖。比如8,存儲的字節符合是這樣的。

因為不方便輸入手寫數字,只能通過這種字符的形式進行測試。

5、總結

這是比較簡單的例子,對系統的要求的比較低,識別的時間也很短。同時,也可以自己訓練模型,進行分析。但該部分不是本文的重點,敢興趣的同學,可以自行去github上,進行深入的學習。下一篇,會針對KWS的功能測試,實現實時音頻輸入關鍵詞識別的demo的移植和演示。

??想了解更多關于開源的內容,請訪問:??

??51CTO 開源基礎軟件社區??

??https://ost.51cto.com??。

責任編輯:jianghua 來源: 鴻蒙社區
相關推薦

2020-12-21 08:00:00

人工智能深度學習神經網絡

2017-04-06 18:34:16

人工智能

2022-03-15 15:00:59

Hi3861Pin接口鴻蒙

2023-05-09 14:24:32

大數據人工智能

2022-11-30 07:12:06

2022-03-02 14:53:34

人工智能神經網絡

2020-10-16 09:50:37

Hi3861WiFi熱點

2021-09-24 12:00:40

人工智能AI神經網絡

2023-05-26 16:07:14

Hi3861Wifi模塊

2020-10-12 09:36:04

鴻蒙

2015-05-11 10:58:04

神經網絡人工智能憶阻器

2023-11-15 16:12:41

人工智能機器學習深度學習

2020-10-14 09:41:02

Hi3861GPIO點燈

2018-07-03 16:10:04

神經網絡生物神經網絡人工神經網絡

2021-02-02 15:52:17

鴻蒙HarmonyOS應用開發

2022-03-07 15:05:58

HTTPHi3861數據解析

2017-03-16 14:34:25

人工智能神經網絡

2020-11-06 10:15:16

HiBurn

2018-04-25 09:07:41

人工智能神經網絡

2018-02-06 15:40:50

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲电影在线播放 | 成人免费在线视频 | 国产成人综合在线 | 欧美一区二区三区在线看 | 国产在线精品一区 | 国产91精品久久久久久久网曝门 | 国产中文字幕亚洲 | 综合国产 | 日韩一区二区在线视频 | 黑人一级黄色大片 | 亚洲国产精品一区二区第一页 | 欧美日韩在线电影 | 涩涩片影院 | 中文字幕一区二区三区不卡 | 国产成年人视频 | av在线免费看网址 | 欧美成人精品一区二区男人看 | 亚洲91精品 | 国产免国产免费 | 亚洲一区二区av | 丁香综合 | 国产一区二区在线播放 | 日韩a在线观看 | 精品国产一区二区在线 | 天堂一区在线 | 久久久一区二区三区 | 免费av直接看 | 亚洲永久精品国产 | 一区二区三区视频免费看 | 综合精品| 欧美6一10sex性hd| 国产成人一区二区三区 | av一区在线观看 | 成人国产在线观看 | 欧美不卡 | 欧美激情一区二区三级高清视频 | 99精品久久久久久 | 国产成人午夜精品影院游乐网 | 久久亚洲欧美日韩精品专区 | 国产一区二区三区在线 | 久久久这里都是精品 |