<style id="7i3y3"></style>

      <sub id="7i3y3"><i id="7i3y3"></i></sub>

        午夜精品一区二区三区成人,中文字幕av一区二区,亚洲AVAV天堂AV在线网阿V,肥臀浪妇太爽了快点再快点,国产网友愉拍精品视频手机,国产精品无码a∨麻豆,久久中文字幕一区二区,a级国产乱理伦片在线观看al
        中國自動化學會專家咨詢工作委員會指定宣傳媒體
        新聞詳情

        米爾RK3576邊緣計算盒精準驅動菜品識別模型性能強悍

        http://www.kblhh.cn 2025-10-30 15:52 來源:米爾電子

        在人工智能與邊緣計算深度融合的今天,將AI模型高效部署于終端設備已成為產業智能化的關鍵。本文將分享基于米爾MYD-LR3576邊緣計算盒子部署菜品識別安卓Demo的實戰經驗。該設備憑借其內置的強勁瑞芯微RK3576芯片,為視覺識別模型提供了充沛的本地AI算力,成功將“智慧識菜”的能力濃縮于方寸之間,充分證明了其作為邊緣AI應用堅實載體的卓越性能與可靠性。

        實機演示效果

        本地部署,實時推理。在這段實機視頻中,MYD-LR3576正同步運行YOLOv11s(目標檢測)與PPLCNetV2(特征提取)模型。其性能核心在于:兩個模型的NPU推理時間均被壓縮至驚人的20ms/幀,為高性能邊緣AI應用提供了堅實底座。

        本文以米爾電子的MYD-LR3576邊緣計算盒子為例,講解如何在Android平臺部署yolo11s、PPLCNETV2模型實現實時菜品識別。為開發者與研究者提供一份兼具實踐參考與技術洞察的模型端到端的部署指南。

        MYD-LR3576邊緣計算盒(搭載米爾基于RK3576核心板)

        1. 基本介紹

        1.1 邊緣計算盒

        米爾MYD-LR3576-B邊緣計算盒是一款基于瑞芯微RK3576處理器設計的高性能嵌入式AI設備。 該處理器集成八核CPU架構(4×Cortex-A72 + 4×Cortex-A53)與算力達6 TOPS的NPU(2核心),具備強大的邊緣端AI推理能力。

        產品標配8GB LPDDR4X內存與64GB eMMC存儲,支持雙千兆網口、WiFi 6、多路USB 3.0及4K顯示輸出,提供完整的Debian/Linux軟件開發環境。

        憑借其高性能NPU與豐富接口,該設備可高效支撐計算機視覺、智能分析等邊緣AI場景,為菜品識別、工業質檢等應用提供穩定可靠的硬件平臺。

        1.2 RKNN-Toolkit2 SDK

        要將YOLOv11s、PPLCNetV2等主流AI模型高效地部署在MYD-LR3576-B這樣的邊緣設備上,并充分發揮其NPU的算力,離不開一個關鍵的軟件工具鏈——RKNN-Toolkit2。這是由瑞芯微官方提供的核心SDK,專為其RK系列芯片的NPU(神經網絡處理單元)設計。

        GitHub倉庫: https://github.com/airockchip/rknn-toolkit2

        1.2.1 RKNN-Toolkit2 是什么?

        RKNN-Toolkit2是一個功能完整的模型轉換、推理和性能評估工具包。它的核心作用在于充當一個“翻譯官”和“優化器”,將開發者們在主流深度學習框架(如PyTorch, TensorFlow, ONNX等)上訓練好的模型,轉換成可以在瑞芯微NPU上高效運行的專用格式——RKNN模型。

        1.2.2 核心功能與工作流程

        該工具鏈為AI模型在邊緣端的部署提供了全流程支持:

        1. 模型轉換

        • 支持多框架輸入: 可直接加載PyTorch(.pt)、TensorFlow(.pb)、ONNX(.onnx)等格式的模型。
        • 量化優化: 支持將FP32模型量化為INT8或INT16精度,在保證精度的同時,大幅減小模型體積、提升推理速度、降低功耗。這正是實現20ms超快推理的關鍵步驟之一。
        • 模型優化: 工具會自動對模型圖結構進行編譯和優化,使其適配RKNPU的硬件架構,提取最大性能。

        2. 仿真推理與精度分析

        • 在模型部署到物理設備(如MYD-LR3576-B)之前,可以在PC上進行仿真推理,驗證模型轉換后的正確性和精度,極大方便了前期的調試工作。

        3. 性能評估

        • 提供模型性能分析工具,可以評估模型在NPU上的理論推理時間和內存占用,幫助開發者進行模型選型和優化。

        4. 跨平臺部署支持

        • 除了Python環境下的開發工具,RKNN-Toolkit2還提供了C/C++版本的運行時庫(RKNN API)。這使得開發者可以輕松地將優化后的RKNN模型集成到最終的生產環境中,無論是Linux、Android還是Debian系統(正如MYD-LR3576-B所搭載的),都能實現高效、低延遲的推理。

        1.2.3 與MYD-LR3576的完美協同

        在本文的菜品識別Demo中,正是利用了RKNN-Toolkit2的強大能力:

        • 步驟一: 在PC端將預訓練好的YOLOv11s(目標檢測)和PPLCNetV2(圖像分類)模型通過該工具鏈轉換為.rknn格式文件。
        • 步驟二: 將轉換好的RKNN模型文件與調用RKNN Runtime的應用程序一同部署到MYD-LR3576邊緣計算盒上。
        • 步驟三: 應用程序通過RKNN Runtime API加載模型,調用NPU執行計算,最終實現了雙模型協同、單次推理均僅20ms的卓越性能。

        總結而言,RKNN-Toolkit2是釋放MYD-LR3576-B內部6 TOPS NPU潛力的鑰匙。 它大大降低了開發者將AI模型部署到瑞芯微邊緣計算平臺的技術門檻和開發周期,使得構建像實時菜品識別這樣的高性能AI應用變得簡單而高效。

        1.3 RKNN Model Zoo

        RKNN Model Zoo 是一個專為瑞芯微NPU打造的 “模型商店” 或 “開箱即用模型庫” 。該項目收集了大量經典的、高性能的深度學習模型,并已經過預轉換和調優,直接提供了現成的 RKNN格式模型文件,同時附帶了完整的示例代碼。

        Github地址:https://github.com/airockchip/rknn_model_zoo

        RKNN Model Zoo優點:

        • 開箱即用的體驗: 開發者無需從頭開始進行模型訓練和復雜的轉換調試,可以直接下載所需的RKNN模型文件,利用提供的示例代碼在MYD-LR3576等設備上快速運行起來,立即看到效果,極大地縮短了概念驗證(PoC)的周期。
        • 官方性能保證: 倉庫中的模型都提供了詳細的性能基準數據,包括在特定RK芯片上的推理速度和精度。這為開發者選型提供了權威參考,確保模型在目標設備上能夠達到預期的性能。
        • 最佳實踐范例: 每個模型都附帶完整的C++和Python示例代碼,清晰地展示了如何加載RKNN模型、進行數據預處理、執行推理以及解析輸出結果。這對于學習如何在自己的應用程序中集成和調用RKNN模型而言,是極具價值的學習資料。

        2. 搭建環境

        2.1 刷入Android系統

        米爾的MYD-LR3576邊緣盒子默認是Linux系統,在我們的場景中,需要先刷機為Android系統。

        2.1.1 獲取資料

        登錄米爾開發者中心(https://dev.myir.cn/auth/login.html),在開發者平臺注冊綁定產品信息,在包裝盒側面會有一個產品型號系列號,可通過微信掃碼綁定。 綁定成功后,依次點擊我的產品->軟件資料->Android14操作系統:

        然后復制提取碼后點擊“阿里云盤”字樣即可打開米爾提供的所有相關資料文件。如:

        01-Docs(ZH)/MYD-LR3576-GK Android 軟件開發指南-V1.0.pdf
        02-Images/myir-image-lr3576-android14.zip
        03-Tools

        是我們需要的文件,分別是軟件開發指南、安卓系統鏡像文件以及工具,下載上述文件。

        2.1.2 鏡像燒錄

        在軟件開發指南中的第四章有詳細的鏡像編譯步驟,開發者可以根據情況自行編譯鏡像,方便進行自定義。本文直接使用了資料中已經編譯好的Android鏡像進行燒錄。

        1. 安裝驅動

        驅動安裝工具壓縮包位于 03-Tools/DriverAssitant 目錄下,解壓運行 DriverAssitant工具,出現以下界面,首先點擊卸載驅動,然后點擊驅動安裝:

        2. 燒錄鏡像到EMMC

        RKDevTool是瑞芯微提供的適用于 RK 系列芯片的 windows 下的便捷開發工具,為開發人員提供了固件燒錄/鏡像燒錄|設備擦除|設備切換/固件解包等功能。

        1. 首先登陸邊緣盒子,使用Type-C線將邊緣盒子的DEBUG(電源接口旁寫著Type-C字樣)口連接到windows電腦;然后打開設備管理器,配置COM口參數:
        • 波特率:115200
        • 數據位:8
        • 停止位:1
        • 校驗位:無
        • 流控:無
        • 打開串口終端軟件填入上述參數,然后給盒子上電,即可進入系統;
        1. 進入系統后在終端輸入reboot loader即可進入loader模式;
        2. 打開工具文件夾下的RKDevTool(沒有解壓請解壓),雙擊RKDevTool.exe,會看到提示:發現一個LOADER設備;
        3. 此時點擊升級固件->固件,選擇剛剛下載的Android鏡像文件(剛下載的為zip文件,解壓出里面的鏡像文件),然后點擊升級按鈕并等待完成:

        1. 此時已經完成Android系統的燒錄。

        2.2 準備RKNN-Toolkit2環境

        注意:這里的操作是在另外一臺電腦上操作,并且已經配置了python環境或Conda環境。為模型轉換、量化以及測試提供基礎環境。

        1. 可以直接通過網絡安裝:

        pip install rknn-toolkit2 -i https://pypi.org/simple
        # 如果已安裝 RKNN-Toolkit2,可通過以下命令升級 RKNN-Toolkit2
        pip install rknn-toolkit2 -i https://pypi.org/simple --upgrade

        2. 通過本地 wheel 包安裝

        首先克隆RKNN-Toolkit2項目文件:

        git clone https://github.com/airockchip/rknn-toolkit2.git -d 1

        或者手動下載下面涉及到的文件。

        然后進入項目根目錄后:

        # 請根據不同的 python 版本及處理器架構,選擇不同的 requirements 文件:
        # 其中 cpxx 是 python 版本號
        pip install -r packages/arm64/arm64_requirements_cpxx.txt

        # 安裝 RKNN-Toolkit2
        # 請根據不同的 python 版本及處理器架構,選擇不同的 wheel 安裝包文件:
        # 其中 x.x.x 是 RKNN-Toolkit2 版本號,cpxx 是 python 版本號
        pip install packages/arm64/rknn_toolkit2-2.3.2-cp310-cp310-manylinux_2_17_aarch64.manylinux2014_aarch64.whl

        3. 模型轉換

        rknn_model_zoo中包含了很多官方已經適配的模型,包括模型訓練以及模型轉換腳本。

        3.1 yolo11模型轉換

        rknn_model_zoo中已經包含了yolo全系列模型,因此yolo11模型的轉換非常簡單,我們直接將訓練好的模型(通常是.pt格式)先轉為onnx格式。該轉換過程通常建議在與訓練模型相同的環境中進行,如何進行yolo11的模型訓練不是本文重點,可參考: https://github.com/airockchip/ultralytics_yolo11 進行訓練。 轉換命令:

        # 調整 ./ultralytics/cfg/default.yaml 中 model 文件路徑,默認為 yolo11n.pt
        # 在 ultralytics_yolo11 的項目根目錄執行
        export PYTHONPATH=./
        python ./ultralytics/engine/exporter.py

        執行完畢后,會生成 ONNX 模型。假如原始模型為 yolo11s.pt,則生成 yolo11s.onnx 模型。 然后進入rknn_model_zoo項目根目錄,再依次進入examples/yolo11/python路徑下,有一個python轉換腳本:convert.py,可通過python convert.py 查看腳本幫助文檔:

        python convert.py
        Usage: python3 convert.py onnx_model_path [platform] [dtype(optional)] [output_rknn_path(optional)]
               platform choose from [rk3562, rk3566, rk3568, rk3576, rk3588, rv1126b, rv1109, rv1126, rk1808]
               dtype choose from [i8, fp] for [rk3562, rk3566, rk3568, rk3576, rk3588, rv1126b]
               dtype choose from [u8, fp] for [rv1109, rv1126, rk1808]

        根據文檔可知,腳本的第一個參數是要被轉換的onnx模型路徑,第二個參數是平臺,即SOC型號,第三個參數是量化相關,我們的平臺是rk3576,如果量化則選i8,不量化則選fp。我們這里選擇量化:

        選擇量化需要準備校準數據,讀取的數據路徑在腳本中已經固定為../../../datasets/COCO/coco_subset_20.txt,這里需要修改為我們自己的數據,數量建議至少20張。

        python convert.py onnx模型路徑/yolo11s.onnx rk3576 i8

        轉換成功后可看到:

        腳本默認將轉換后的模型存儲在../model中。

        3.2 PPLCNETV2模型轉換

        PPLCNETV2網絡是Paddle提供的,因此需要使用paddle2onnx工具,先將paddle格式轉為onnx格式:

        paddle2onnx \
          --model_dir models/ \
          --model_filename inference.pdmodel \
          --params_filename inference.pdiparams \
          --save_file paddle_feature_one_batch.onnx \
          --opset_version 11 \
          -isd "{'x':[ 1, 3, 320, 320 ]}"

        由于RKNN官方沒有PPLCNET模型的Demo,因此我們需要自己根據模型轉換的API文檔編寫rknn模型的轉換腳本,可復制一份Yolo11的轉換腳本進行修改,重點修改模型的輸入輸出形狀、歸一化參數等。然后參考yolo11的轉換命令進行轉換。

        4. 菜品識別案例

        本章將詳細介紹基于米爾MYD-LR3576邊緣計算盒開發的菜品識別安卓Demo應用。該案例完整展示了從特征庫構建到實時識別的全流程,充分體現了設備在端側AI應用中的實用性與高性能。

        4.1 特征注冊

        特征注冊是構建可擴展菜品識別系統的關鍵第一步,其目的是為系統創建一個本地的、可定制的菜品特征庫。

        • 操作流程: 用戶在Demo界面點擊“特征注冊”按鈕后選擇一個事先準備好的文件夾。該文件夾內部包含多個子文件夾,每個子文件夾代表一道唯一的菜品,并以菜品名稱命名(例如:“紅燒肉”、“清蒸鱸魚”)。子文件夾內則包含該菜品從不同角度、在不同光照條件下拍攝的若干張圖片。
        • 技術實現: Demo應用會遍歷整個文件夾結構。對于每一張圖片,系統會調用內置的PPLCNetV2特征提取模型進行特征提取。該模型會將輸入的菜品圖片轉換成一個高維、緊湊的特征向量(也就是老生常談的特征嵌入)。最后,系統將每道菜所有圖片的特征向量與其名稱關聯起來,使用向量數據庫存儲于設備本地,形成一個結構化且高效查詢的特征數據庫。

        該設計的優勢在于:用戶無需重新訓練龐大的深度學習模型,僅需提供數十張示例圖片,即可快速、靈活地擴充或修改系統所能識別的菜品庫,極大地提升了應用的實用性和適應性。

        4.2 菜品識別

        Demo提供了三種識別模式,以適應不同場景下的需求:

        4.2.1 拍照識別

        用戶可以直接調用設備攝像頭,現場對菜品進行拍照。拍完后,系統立即對照片進行識別,并繪制識別結果。

        4.2.2 本地圖片識別

        用戶可以從手機相冊中選擇已有的菜品圖片進行識別。

        4.2.3 實時視頻流識別

        Demo啟動設備攝像頭并開啟實時預覽,視頻流中的每一幀都會被送入識別流水線。系統能夠連續、不間斷地進行識別,并將結果實時覆蓋顯示在視頻畫面上,提供流暢的“所見即所識”體驗。

        4.3 識別流水線與性能表現

        無論采用哪種識別模式,其核心的識別流水線是相同的,并且都得益于MYD-LR3576強大的NPU算力:

        1. 目標檢測: 當一張圖片或視頻幀輸入后,首先由 YOLOv11s模型進行推理。它的任務是精準定位圖片中菜品所在的位置,并輸出其邊界框,為后續處理劃定了關鍵區域。

        2. 特征提取: 系統將YOLOv11s檢測出的菜品區域裁剪出來,并送入 PPLCNetV2特征提取模型中,生成該區域的特征向量。

        3. 特征比對: 最后,系統將這個新生成的特征向量與特征注冊階段建立的數據庫中的所有已知特征向量進行相似度計算(通常使用余弦相似度)。找出相似度最高的已知菜品,并將其名稱作為識別結果輸出。

        性能亮點: 在MYD-LR3576上,經過RKNN-Toolkit2優化后,YOLOv11s和PPLCNetV2這兩個模型在NPU上的單次推理時間均穩定在20ms左右,這確保了即使在最耗費資源的實時視頻流模式下,系統也能保持較流暢的識別幀率。

        4.4 準確率評估功能

        為了量化識別系統的可靠性,Demo還內置了準確率評估功能。用戶可以選擇一個包含已標注圖片的測試集,系統會自動運行批量識別,并將識別結果與真實標簽進行比對,最終生成一份包含準確率等關鍵指標的評估報告,為模型優化和特征庫完善提供了數據依據。

        4.5 案例總結

        該菜品識別Demo僅實現了基礎功能,且沒有做針對性優化,如所有操作都是同步進行,即攝像頭數據獲取或讀取本地圖像->格式轉換->色彩空間轉換->預處理->模型推理->結果后處理這一整套流程都是同步進行,且模型推理時僅使用了一個NPU核心(共兩個),如果使用NPU進行圖像處理并配合圖像隊列異步處理以及充分利用NPU核心,其性能可以達到15-20幀。即便Demo沒有針對優化,RK3576的性能同樣足夠支撐端側復雜AI流水線的能力。從高效的特征注冊到實時的多模型推理,其強勁的NPU算力是實現所有功能流暢運行的基石,為智慧餐飲等領域提供了可靠的硬件解決方案。

        MYD-LR3576-B邊緣計算盒:

        產品鏈接:https://www.myir.cn/shows/138/24.html

        天貓鏈接:https://detail.tmall.com/item.htm?id=886580845138

        版權所有 工控網 Copyright?2025 Gkong.com, All Rights Reserved
        主站蜘蛛池模板: 久久国产成人午夜av影院| 亚洲欧美人成电影在线观看| 九九热精品免费在线视频| 亚洲美免无码中文字幕在线| 亚洲制服无码一区二区三区 | 九九热在线免费视频观看| 爱如潮水在线观看视频| 麻豆久久五月国产综合| 高清无码18| 亚洲日韩av无码中文字幕美国| 亚洲成av人在线播放无码| 亚洲精品无码国产片| 国产超碰无码最新上传| 国产精品无码不卡一区二区三区| 国产在线观看毛带| 8848高清电视| 成在人线av无码免费看网站直播 | 久久88香港三级台湾三级播放| 国模少妇无码一区二区三区| 中文字幕有码无码AV| 日韩一区二区三区在线视频| 亚洲第一区二区三区av| 色综合久久天天综线观看| 精品亚洲国产成人av| 国产AV影片麻豆精品传媒| 日韩人妻无码精品久久久不卡| 国产偷窥厕所一区二区| 武装少女在线观看高清完整版免费| 国产成人无码综合亚洲日韩不卡| 小13箩利洗澡无码视频免费网站| 亚洲精品片911| 精品无码国产日韩制服丝袜| 全部av―极品视觉盛宴| 91久久精品美女高潮不断| 亚洲国产一区二区av| 国产激情精品一区二区三区| 在线中文字幕国产一区| 人妻夜夜爽天天爽三区丁香花| 色偷偷www.8888在线观看| 久草热久草热线频97精品 | 日韩有码中文字幕国产|