首页
企业/组织
数据集导航
新建镜像项目
新建托管项目
登录
注册
OliverGroup
/
PhoneBit
分享
Activities
1
任务
Resources
Repositories
20
Pull Requests
Roadmap
Calendar
Gantt
版本库
查看Git使用指南
如操作版本库需要认证,请使用您的邮箱
20 提交
贡献统计
Apache License 2.0
分支
1
master
ZIP下载
克隆网址
复制
zzyyhsy@outlook.com
提交于
8 months
前 :update libPhoneBitJni.so
.idea
OpenCVLibrary340
app
gradle
phonebit_model_converter
.gitignore
LICENSE
OpenCL_Kernel_Analyzer.py
README.md
README_English.md
build.gradle
gradle.properties
gradlew
gradlew.bat
settings.gradle
test
trepn_6.2p.apk
导出统计结果:
各用户提交统计信息
# PhoneBit - 基于手机GPU的高能效的二值神经网络前向推理引擎 [[English](README_English.md)] [[Chinese/中文](README.md)] 如果您对PhoneBit项目感兴趣,并想获得更多资讯,请发送邮件至phonebit@outlook.com。 ## 项目介绍 PhoneBit是业界首个基于手机GPU的高能效的二值神经网络前向推理引擎,使用OpenCL实现,并采用GPU作为计算设备。相比于现有最新的其他框架,PhoneBit可实现极大的速度与能耗比的提升。 相比于CNNdroid, PhoneBit对比其CPU模式可平均提升速度794倍,对比其GPU模式可平均提升速度35倍。相比于TensorFlow Lite,PhoneBit相对其CPU模式平均提升了12倍,相对其GPU模式平均提升了15倍,相对其CPU 8bit量化模式平均提升了6倍。 相比于daBNN(一个最新的基于ARM的二值神经网络框架,于2019年8月由京东AI开源),在使用小米5手机(Snapdragon 820 芯片)运行Bi-Real Net 18(一种二值化的ResNet-18网络)的情况下,PhoneBit实现了2.60倍速度提升,2.62倍更低的功耗,6.8倍更高的能效比 此外,我们提供了一个Android Studio样例工程来帮助您使用PhoneBit,包括转换您的模型至PhoneBit格式以及在Android中执行前向传播。 ## 转换模型 我们提供了一个模型转换工具,位于phonebit_model_converter文件夹中,用于转换ONNX格式的模型至PhoneBit格式,此工具基于Python3与C++(C/C++只是用于转换为fp16精度的模型使用),您也可以修改此工具来支持从其他格式转换,请浏览onnx2phonebit.py文件。 ## 使用方法 使用Android studio来打开此工程并运行。此工程中详细展示了如何使用PhoneBit来加载模型并进行前向推理。关于PhoneBit目前提供的java API,可在PhoneBit.java中找到。 本工程中提供的PhoneBit库为限制版本,仅支持21层卷积层(包括浮点与二值卷积层)及7x7以及以下的卷积核尺寸。如果您有需要,请与我们联系,邮箱为phonebit@outlook.com。 ## 引用 如果PhoneBit在您的研究中起到了帮助,请引用我们: ``` @inproceedings{phonebit, author = {Gang Chen and Shengyu He and Haitao Meng and Kai Huang}, booktitle = {Design, Automation and Test in Europe Conference}, title = {PhoneBit: Efficient GPU-Accelerated Binary Neural Network Inference Engine for Mobile Phones}, year = {2020} } ```
Loading...