发 帖  

【新品体验】算能 Radxa Fogwise 1684X Mini 微服务器免费体验

Radxa Fogwise 1684X Mini 微服务器搭载算丰第四代智算处理器1684X,高达32Tops INT8峰值算力。支持边缘端部署ChatGLM2-6B、AIGC、Llama、SAM等超大参数模型。无 ...了解更多>>

价值:¥2499元提供:5 已申请:64
剩余时间:
分享
  • 试用详情
  • 试用名单
  • 试用报告

Radxa Fogwise 1684X Mini 微服务器搭载算丰第四代智算处理器1684X,高达32Tops INT8峰值算力。支持边缘端部署ChatGLM2-6B、AIGC、Llama、SAM等超大参数模型。无需昂贵的硬件设备和繁琐的配置环境,一根网线即插即用,大大降低使用门槛,保障数据的安全和隐私。可广泛用于教育、文旅、工业、园区、物联设备等。


Radxa Fogwise 1684X Mini 是一款跨越式的AI边缘计算设备,搭载 SOPHON AI处理器 BM1684X,拥有八核ARM Cortex-A53,最高主频2.3GHz;拥有高达32Tops(INT8)算力、或16TFLOPS FP16/BF16)算力、或2Tops(FP32)高精度算力,,16GB LPDDR4X 内存,64GB eMMC;INT8算力高达32TOPS,支持主流编程框架(包括 TensorFlow, Caffe, PyTorch,Paddle, ONNX, MXNet, Tengine, and DarkNet),开放SDK,提供一站式AI开发包,工具链完备易用度高,算法可轻松部署,可低成本迁移算法至Radxa Fogwise 1684X Mini。Radxa Fogwise 1684X Mini 具备双1000Mbps RJ45 Port;M.2 E Key for WI-FI / BT Module;M.2 M Key for NVMe SSD;双 USB 3.0;一个USB-C;支持外接Mic和Speaker。


开发资料

TPU-Milr: https://tpumlir.org/docs/quick_start/index.html
Demo参考:https://baifengbai.github.io/airbox_wiki/

课程资料:https://sophon.cn/curriculum/description.html?category_id=47


套件内容:金属外壳+1684X核心板+1684X Mini底板




活动时间:

1. 申请报名:2023 10 16 - 2023 11 30

2. 公布名单:2023 11 30

3. 发货日期:2023 11 30

4. 试用期限:202311 30 - 2023 12 30


活动流程:

1. 产品申请:点击免费申请按钮即可报名。请认真填写申请理由,提交有创意的试用计划,大致的实现过程和应用场景,展示丰富的过往项目经验和网络影响力。

2. 筛选:厂商根据申请者填写的试用计划和论坛活跃度两个维度进行筛选。

3. 名单公布:试用名单将在活动页公布。

4. 试用通知:名单公布后工作人员将以短信 / 邮箱 / 电话等方式通知申请成功者。

5. 产品寄送:联系到试用者,双方确认规则后,将产品快递给试用者,具体到货时间以实际物流为准。

6. 试用报告:收到开发板后,需按要求定期上传评测报告(图文 / 视频)至电子发烧友社区,试用报告要求100 % 原创,抄袭会被封杀哦。

7. 产品回收:请收到开发板的用户在规定时间内完成试用报告并上传至电子发烧友论坛,如发现未完成试用报告上传发布,将会要求您退回开发板。

8. 优秀试用帖评选:将从试用报告质量,回复量等方向评选。

9. 申请后可及时添加工作人员(微信elecfans123),方便后续及时发放试用。


试用报告:

1. 试用者收到开发套件后,进行学习评估,并在发烧友社区发帖/硬声APP发视频记录开发板的试用过程,分享试用心得。经过试用评测学习后,试用者使用开发套件并在论坛发帖纪录项目过程、心得。试用报告要求如下:
试用报告可分为:项目概述、软件调试、硬件接入、视频演示,不少于500字+3张图片。

2. 报告形式:标题格式【算能RADXA微服务器试用体验】+自拟标题;视频演示可分为:应用演示视频、调试演示视频。

3. 试用周期内如无特殊原因,要求一周上传一篇试用报告至算能开发者社区

4.本次试用活动要求每位开发者需完成一个完整项目,并上传完整的应用方案DEMO、样例,至少上传4篇开发内容+1个演示视频

5.如未按要求上传相应内容,开发套件将被收回,并取消活动参与资格。


活动说明:

1.本次试用不包含拉票环节。

2.产品试用结束后,完整参与试用,可免费获得开发板。(试用报告积极完成,不存在水贴现象)

3.试用周期内如无特殊原因,要求一周上传一篇试用报告至电子发烧友社区。

4.试用活动结束前,申请者应将完整的应用方案DEMO(含视频)上传至硬声APP,每位开发者需共上传4篇开发内容+1个开发视频或应用方案视频。

5.如未按要求上传相应内容,开发套件将被收回,并取消后续活动参与资格。

6.技术支持:收到开发板后,请第一时间联系平台客服进入技术交流群,技术问题将由技术工程师专门解答。

7.如遇放假、快递停发等特殊情况,工作人员将会另行安排寄送时间,并通知相应开发周期。

8.若因突发状况,无法继续完成试用,以及收到套件的15天内,若没有更新内容,请主动与企业或者平台客服协商退还,方便其他网友继续试用。

9.活动过程中,套件所有权归活动发起者,试用者只拥有套件使用权; 若在使用过程中出现恶意损坏开发套件的行为,请原价赔偿

10.电子发烧友拥有最终解释权!

企业介绍

算能专注于AI、RISC-V CPU等算力产品的研发和推广应用,以自研产品为核心打造了覆盖“云、边、端”的全场景应用矩阵 ,为城市大脑、智算中心、智慧安防、智慧交通、安全生产、工业质检、智能终端等应用提供算力产品及整体解决方案 。

他们正在申请

">

jf_98183611

23:5811-30
项目介绍: 现阶段商业化的智能座舱系统普遍以高算力芯片构筑 自动驾驶 车机交互等功能,通过堆高整车物料成本来支撑用户体验,本项目旨在通过一系列轻量化设计保证基础功能的鲁棒性及可用性的同时,压缩智能座舱方案的整体成本,使之可以部署在 园区摇摆车 十万元及以下乘用车等低端走量车型 研究内容与方法: 智能座舱的核心两大块: a) 娱乐系统:这是车载娱乐和信息系统的核心,通常包括触摸屏、声控功能、音响系统、无线连接、互联网接入以及应用程序支持。驾驶员和乘客可以使用这个系统来控制音乐、导航、通信、媒体和其他应用程序。 b) 导航及驾驶辅助系统:通过北斗或GPS提供道路导航信息并结合自动驾驶辅助功能提高驾驶的安全性和便捷性 目前乘用车市场对车载智能的评判指标主要就是上述两大块,一个是针对语音指令的辨识与执行操作,另一个就是是否支持驾驶辅助及其所支持的驾驶辅助级别 市场的主流方案是推进L3及更高阶的驾驶辅助,实现路径有如Tesla的视觉算法+毫米波雷达的低成本实现,也有如Huawei ADS的激光雷达+视觉辅助+毫米波雷达的高成本实现(注:以主次优先级顺序排列),虽然前者将FSD的专利技术进行开放但市场并未就此推出更具普适化的车机方案,后者则是为了确保更高的辅助体验而牺牲成本,两者的车机系统也都是以高算力平台进行构筑的 Tesla FSD计算芯片算力为 36Tops 4芯片双路冗余方案及72Tops综合算力; Huawei MDC 810计算芯片算力为400TOPS@INT8; 至于娱乐交互系统,华为则是采用了990A(28nm制成节点的Kirin 990芯片),而Tesla则是在早期使用Intel ATOM,现使用AMD Ryzen定制芯片,前者是Arm指令集,后者是X86指令集,前者是基于OpenHarmony对AOSP嵌套实现对Android车机应用进行支持,后者则是在Linux基础上进行开发实现,由于不支持Android应用,因此国内常用的娱乐软件则是通过HTML网页化容器进行实现的 为了压缩智能座舱的性能消耗,我们采用如下几个方案进行实现: 1. 目前激光雷达价格昂贵我们不能选其作为主次方案,因此我们采用与Tesla相似的视觉+毫米波方案 目前相关可参考的实例有Comma AI公司进行的低成本自动驾驶实现,利用双目视觉实现车道保持与前车障碍物辨识,并实现复杂道路或无标线道路上通过跟车行驶通过路段,同时可选用毫米波雷达更好的判断跟车距离,在8年前的高通骁龙820计算平台上展现了出色的成绩,并且通过接入Google Map道路决策接口与MapBox地图沙盒后可以实现部分L3驾驶辅助特性 经研究发现可将该方案中的Google与MapBox替换为高德的接口服务 无需定制化芯片,先是使用基础的ARM/Risc-V开发板实现基础的车机交互场景,通过IP视频流的形式将数据传入到算能服务器中推理,极大的降低了智能座舱的成本使得智能驾驶更加普适化 2. 压缩人车交互模式,常见的车机交互过程如下: 用户指令 -> 语音转文字 -> 云端模型请求 -> 返回模型指令辨识结果 由于我们侧重点是智能座舱也就是边缘侧性能压缩,因此在这一部分我们需要将语音转文字这部分的性能需求进行精简 传统模式下语音转文字(以下简称ASR)需要在本地通过Attention机制联系输入语音中的上下文生成一段内容通畅无歧义的文本内容,或是通过关键词库进行辨识匹配,这两种方案其实都提高了边缘侧的资源需求,因此我们将弃用这两种模式 语音转音标:仅需在本地对语音发音进行辨识,而无需进行上下文匹配或是词库匹配的ASR模式,由于中文拼音相对规则,且组合总类相较中文汉字组合大幅缩减,发音差异相对较大,无论是模型训练还是识别精度上都是有较高的可行性的 训练一个将语音转换为中文音标的本地推理模型,由于参数较少算力需求相对会低很多,将所生成的音标内容上传云端,再输入意图识别模型中并返回给车载终端进行指令执行,如需接入大模型还可再将前文提到的Attention机制用于中文音标对中文文本的还原上,将还原结果再输入到大模型中,则可大幅降低边缘侧的算力需求,同时无需上传音频节约带宽成本 车机系统上采用Android会大幅增加系统资源消耗,同时由于Android的JVM环境特性,自动驾驶模型和ASR模型其实对其的资源利用并不充分,这与我们期望压缩成本需求的愿景并不相符,但是采用Tesla的Linux + 应用厂商定制化的应用服务我们无法实现 因此我们选择使用Linux 作为基底,通过Wayland实现一个基础的Compositor(Wayland:一个轻量化高性能的Linux显示服务协议),并在此之上接入Waydroid,以此实现性能的充分利用与娱乐应用的相互兼容(Waydroid:一个对Anbox进行重构并支持Wayland协议的高性能Android兼容容器,由于Android本质上是在Linux kernel之上构建的环境,Anbox意图在Linux补齐部分AOSP环境以此实现理论上无性能损耗的Android应用服务)
">

chen000000009

23:2711-30
试用计划:申请Radxa Fogwise 1684X Mini进行 车载边缘计算终端 的研究。目前车上常见的辅助驾驶系统包括车载雷达,多个摄像头组成的车道偏离预警系统(LDW),前车碰撞预警系统(FCW)等。由于CPU的算力不足,目前车上这些平台多采用分立式的主机。 1684X平台可以提供足够强大的AI算力,同时完成360环视系统所需的图像拼接,并且在此基础上更进一步,在360度全方位图像上识别出周边的车辆以及行人,并针对可能出现的碰撞现象以及车道偏离进行提前预警。故计划申请Radxa Fogwise 1684X Mini做这方面的预研。 采用的技术框架包括通过以太网拉取多个IPC的视频流,并通过openCV实现图像拼接,Tensorflow神经网络实现在拼接好的图像上识别出周边的物体,包括车辆,行人,交通灯等。此外可以通过额外加一颗MCU实现CAN数据以及雷达数据的获取,测算出潜在的碰撞现象,进行提前预警。 后期可以在这个平台上引入V2X技术,通过与C-V2X技术的融合,进一步提升识别的准确性 试用计划 1、SDK部署,熟悉1684X的开发方式 2、以太网拉流功能 3、解码,AI处理功能开发
">

jf_76630469

21:3211-30
申请理由: 传统的车机多媒体服务都是在车机的屏幕上播放影音,我计划将车机变成一个车载AP,在车机上搭建推流服务器,并对连接上的设备提供影音推流服务。因为实际生活中,行车时前排人员大多是不会使用影音功能的,而车机屏幕也需要显示相关行车信息,所以需要影音功能的基本是后排乘客。这时后排乘客就可以利用平板或手机连接上车机的AP,使用影音推流服务。而这款小主机体积小,性能强,刚好适合我的项目;而且这个项目不但车载可用,放在家中也可以发挥作用。 项目计划: 由于需要同时进行服务较多,而每个服务都需要特定的部署环境,多个服务在同一个系统上部署势必会出现各种各样的环境冲突问题。因此我计划把所有的服务按照功能划分部署在不同的docker容器中,来使得他们互不影响。 计划在车机上搭载以下服务以实现功能: 1,文件管理服务:方便对电影,电视剧,音乐等进行整理归类,读取外接U盘内文件,同时支持通过手机或Pad等上传影音文件。通过Nextcloud,Filebrowser实现。 2,共享盘:方便从车机内下载文件,将没看完的电影下载到手机内后续观看。 通过FTP SERVER, Samba Server实现。 3,多媒体中心:实现媒体推流服务,并自动对多媒体文件进行整理分类。通过Jellyfish,Kodi实现。 4,Docker管理:用来维护车机内的各个Docker容器。通过Portainer实现。 预计成果: 实现全部功能,开源实现细节,并将实现过程封装为脚本并上传论坛,方便大家复刻。
">

jf_02693125

21:2611-30
申请理由: 最近刚好在进行车载自动化开发,需要一个linux平台先快速实现功能,验证算法可行性。刚好看到这个小主机,非常适合项目开发。 项目计划: 本项目计划对车速进行实时监控,以实现以下三个功能: 1, 启动自动巡航后通过PID进行车速控制,这样可以有效避免恒定油门控制下由于路面状况以及风阻变化导致的车速飘移。 2, 实时调整车灯的照射角度。当车速较低时照射角度低,照亮较近的路面;当车速提高时提高照射角度,照亮远处路面。 3, 通过车头的距离传感器实时监测前车距离。当车距与车速不匹配时会进行报警提醒。如果车距快速减小且减小速度超过设定阈值,说明前车出现急刹,若同时车距也小于设定阈值,则自动进行刹车,避免追尾。 预期结果: 实现如上自动化功能,并开源实现代码。
">

jf_93760649

21:2011-30
申请理由: 目前指纹锁已在防盗门上大量普及,但汽车使用的依旧是遥控钥匙,最多也只能做到不使用钥匙进入,但依旧需要携带。究其原因,主要是指纹传感器并不适合在较为恶劣的室外环境中工作。因此要彻底抛弃车钥匙,需要使用的技术依旧是人脸识别。 我计划在车载电脑端部署人脸识别,毫米波雷达,与压力膜传感器。人脸识别和压力检测用来服务驾驶位,车门处人在毫米波雷达对汽车周围进行感应以实现人脸识别的按需启动,保证低功耗,其余车内毫米波雷达负责监控车内乘客情况。 项目计划: 1, 当驾驶室外部毫米波雷达检测到有人时,启动车门处摄像头,并进行连续人脸识别,当人脸识别对象匹配后进行车门解锁。否则将继续连续识别,直到毫米波雷达检测到无人,终止识别。 2, 车门解锁后,开始读取车内毫米波雷达,若一定时间内没有检测到有人,超时后车门将重新落锁。如果检测到有人,那么将开启车内车机系统,为启动车辆做准备。 3, 若驾驶室座位压力膜传感器数值增加超过阈值,则认为驾驶员已就位,那么将会开启驾驶室处人脸识别,二度对驾驶员进行连续识别。若识别通过,则车辆进入可发动状态,当驾驶员按下发动按钮即可启动。若识别不通过,则说明驾驶室中可能不是驾驶员,或摄像头抓取图像质量不佳,将继续连续识别,直到驾驶室人员离开,压力膜传感器读数恢复,则停止识别。 预期成果: 实现上述所有功能,在论坛分享实现过程及开源代码。
">

卿小小_9e6

21:1511-30
【算能RADXA微服务器试用体验】 1.项目名称 【算能RADXA微服务器试用体验】+ AI影音处理和大模型学习 2.申请理由 本人目前从事边缘计算平台相关的深度学习及视频处理工作(FPGA/RK3588/A311D等),值此机会借助电子发烧友论坛申请【算能RADXA微服务器】做试用评测,主体面向AI影音处理和大模型学习。 3.测试计划 3.1 开箱评测,主要包括板卡特性、硬件资源分析和功能演示。 3.2 根据之前的开发经验,进行下述功能的开发测试: a.基础功能测试,包括CPU、DDR、USB、PMOD等性能测试。 b.常见python/C++算法测试,包括YOLO、SSD等图像视频处理算法(分类识别/目标检测)。 c.AI语音功能探索测试。 d.大模型学习测试:当前官网提供了ChatGLM2_6B大模型算法运行,本人还计划移植测试llama2模型。 e.基于FFMPEG的视频处理功能测试。 f.如果时间充裕,进行AIOT功能开发测试,以及游戏功能测试。 3.3 测试总结,包括文字、图片、视频等。
">

jf_35900726

21:1311-30
申请理由: 本人有多年汽车行业经验,目前主要负责车载AI部分的项目开发与工程实现。 项目计划: 这块linux板子性能强大,且有外壳封装,我认为非常适合作为车载电脑使用。我打算设计一套完整的停车辅助解决方案,一共涉及到以下几个功能模块: 1, 车窗智能防结冰:冬天北方车辆车窗会在夜晚结冰,导致第二天早上需要相当长的时间化冰,否则将严重影响视线无法驾驶。车窗起雾的原因主要是车内外温差较大,导致车内湿气在车窗上凝结,随后被车外的低温冻住结冰。我计划的解决方案是,当熄火并锁车后,检测车内外温度差,若温度差大于设定值,则开启通风功能快速平衡车内外温度;当温差小于阈值后关闭通风节省电量。 2, 后视镜智能调整:这个功能目前仅在一些顶配车型中有,我打算把这个功能也一并实现,方便对现有中低配车辆进行升级。后视镜的角度控制本质上是一个二轴舵机云台的控制。我计划预设三个角度,一是行车时后视镜角度;二是倒车时后视镜角度;三是停车时后视镜角度。三种状态通过检测汽车档位进行切换。 3, 倒车雷达方案对比:倒车雷达的核心原理是距离检测,因此我计划对比超声波测距方案和激光测距方案的优劣,并根据他们自身的特长将两者结合起来完成一个间距视野角度与精度的倒车雷达。 4, 可视无线倒车雷达:给货车或一些其他大型车辆添加倒车雷达,走线会比较麻烦,长期还容易出现老化问题,因此我计划将倒车摄像头改为无线wifi摄像头,将画面通过无线传输实时显示在LCD屏幕上。这样可以大大简化安装难度,只需要从尾灯取电即可。 5, 车窗自动关闭及防夹手功能:下车时车窗自动关闭,此时可能会出现夹手问题,因此这套系统还会有关窗防夹的功能。功能的实现难点主要在于如何检测到夹手。目前来看有两个方案,一是可以在车窗下加装传感器,当压力超过阈值时判断为夹手;二是可以检测车窗电机电流,当电流异常增加时判断为夹手。项目中我计划对比两种方案,并选择较好的方案进行实现。 6,自动驻车及自动取消功能:实时监控车速及油门踏板状态,当油门为0且车速为0时,自动开启驻车功能;当油门踏板不为0时自动取消驻车。 预计成果: 软硬件在论坛开源,在论坛分享制作过程。
">

裸奔小耗子

21:0311-30
申请理由:: 作为一位从事家庭智控终端开发工作的专业人士,我对贵司的高算力微服务器深感兴趣。我相信贵司的高算力微服务器能够为家庭智能化提供非常理想的解决方案。我希望能够参加活动,有机会将一些经典模型如GPT、Whisper和Yolo等迁移到贵司的平台上,并将其用于家庭领域的智能化部署方案中。 项目计划: 最终实现效果与该视频类似:https://www.bilibili.com/video/BV1ch4y1H7nV/ 看介绍这块板子性能强大,比较适合做机器视觉,我计划先在板子上上尝试部署CNN卷积神经网络,利用webcam获取实时图像,实现物体识别。同时利用麦克风实现语音输入与文字识别。当触发语音识别后,会同时进行语音识别与图像识别操作。识别完成后将结果整合,整合后再输入ChatGPT或其他大语言模型。最后再将大语言模型的输出结果利用TTS转化为语音进行播放。实现Chatgpt多模态输入(图像输入,语音输入),在赋予ChatGPT视觉的同时添加语音对话能力。 目前计划使用的具体方案和流程如下: 1, 使用speech_recognition进行语音输入,完成后将语音数据导入Whisper语音识别模型中进行语音识别。 2, 检测到语音输入完成后,程序会从ESP32-S2的视频流中截取最新的一帧,并利用YOLO或是RetinaNet,FPN等神经网络模型进行图像识别。 3, 图像识别的信息与语音识别都得到后进行整合,通过GPT 提示词训练,将所有信息整合成文本并输入ChatGPT。 4, 将ChatGPT返回的回复利用Edge-TTS进行播放,完成与具备视觉能力的ChatGPT进行语音交互。 预期成果: 开源所有代码,分享实现的全过程,视频展示实现结果。
">

PCB66445645

13:5511-30
本人致力于嵌入式AI的部署和落地,熟悉Linux应用和驱动开发,数据Pytorch架构和YOLO等,有丰富项目经验,想借助Radxa Fogwise 1684X Mini平台确认公司老旧电梯改造项目的算力平台是否可以部署在这上面, 目前使用RK平台带不动全小区的摄像头,见到该平台算力和性能较高,想测试下是否可以带动全小区的电梯摄像头,如果性能OK的话申请公司采购与商务合同等 项目计划 根据文档,将系统运行起来,学习NPU的使用demo 通过深度了解,部署我们自己的模型和权重文件 项目开展与采购 深度优化,调试和部署
">

tobot

12:2111-30
申请理由 本人有较好python基础,学习aicg已有一年多,曾在civitai上传过多个模型(之后还被炼丹阁使用)。 想借助发烧友论坛和算能RADXA微服务器制作人物动画呈现。 项目计划 1、通过在算能RADXA微服务器上安装摄像头采集人物 2、使用dlib采集人物面部表情 3、使用openpose采集人物动作 4、根据采集结果,使用自建模型分别生成动画人物面部和动作,合成图像 5、将多个图像合成视频 预计成果 1、根据将某些真人表演的节目(比如小品)改成动画人物表演。 2、在某些需要匿名,但需要人物出场的情况下,用本项目成果来隐藏身份。 (不确定边缘设备的性能,根据电脑类比,预计可以达到每秒2~3帧)
">

lustao

06:5611-30
本人在本领域有三年多的学习和开发经验,最近少儿编程非常的火爆,申请这个算能 Radxa Fogwise 1684X Mini 微服务器,自己研究一下,借此学习能力可用于自然语言理解等能吸引孩子的注意力,启发和引导孩子进入编程的大门,让他开始喜欢编程,国外的孩子都是很早就开始编程,所以出了很多天才,国内这方面比较欠缺,希望能申请到此套件,和孩子一起编程。 项目计划 ①根据文档,快速入门 ②通过学习软件和系统,了解实际应用案例,熟悉开发过程 ③项目开展,按时间计划实施。 ⑤项目调试,优化,分享。 预计成果
">

淡化浅出

18:5211-29
尊敬的算能团队, 我目前是大学电路和射频识别课程的老师。我怀揣着对最新科技的浓厚兴趣,对于推动学术研究和实践领域的技术创新充满热情。我了解到贵公司推出的 Radxa Fogwise 1684X Mini 微服务器,深感其在家庭自动化系统中,特别是语音和图像识别方面的强大应用潜力。 作为电路和射频识别的教育者,我一直致力于将最新的技术引入教学,并帮助学生在实践中更好地理解和应用所学知识。我相信 Radxa Fogwise 1684X Mini 微服务器将为我的学生提供一个极为有趣且富有挑战性的实践平台,促使他们在电路和射频识别领域迈出更为深远的步伐。 我的研究兴趣和课程设置涵盖了家庭自动化、语音识别以及图像识别等领域。通过将 Radxa Fogwise 1684X Mini 微服务器纳入我的教学和研究计划,我计划开展以下活动: 家庭自动化实验项目: 利用 Radxa Fogwise 1684X Mini 微服务器,设计和实施家庭自动化系统,包括语音和图像识别技术。学生将有机会从事真实的项目,提高他们的实际应用能力。 研究项目: 在语音和图像识别领域进行研究,利用 Radxa Fogwise 1684X Mini 微服务器的强大计算能力,探索新的算法和技术。我相信这将对学生的研究兴趣产生积极影响。 课程开发: 基于 Radxa Fogwise 1684X Mini 微服务器,开发相关的课程模块,为学生提供更丰富的学习资源和实践机会。 我期待能够与贵公司建立合作关系,共同推动科技教育的发展。通过使用 Radxa Fogwise 1684X Mini 微服务器,我相信我的学生将能够更好地理解和应用电路和射频识别领域的知识,为未来的技术创新做出贡献。 感谢贵公司提供这一机会,我期待着与您进一步合作,共同促进科技教育和研究的发展。
">

大菠萝Alpha

08:3511-29
考虑到算能 Radxa Fogwise 1684X Mini搭载的SoC算能BM1684X具备强大的AI能力,同时在初步了解其配套toolchain TPU-MLIR的功能后(https://tpumlir.org/docs/quick_start/01_introduction.html),计划基于基于算能 Radxa Fogwise 1684X Mini设计实现一个课堂助手demo,硬件上外接2路USB摄像头,软件层面依托算能一站式AI开发包进行开发,实现课堂学生点名和坐姿检测等功能。 工作计划: 1.熟悉算能 Radxa Fogwise 1684X Mini微服务器软硬件环境,包括TPU-MLIR开发环境部署; 2.在算能微服务器上安装OS,同时驱动USB摄像头获取视频流; 3.基于算能一站式AI SDK进行人脸识别和坐姿检测模型开发并部署: 4.实现算能 Radxa Fogwise 1684X Mini微服务器上业务部署并测试; 5.成果总结,文档输出。 预计成果:课堂助手demo可以实现在线人脸识别,打印上课学生名单,并实时监测学生坐姿,发现错误坐姿输出相关告警信息。 申请理由:本人具备相关AI开发经验,如paddlepaddle平台、AMD Vitis AI等,类似硬件平台则包括 地平线X3、rockchip的RV1126等。同时积极参与发烧友社区活动,被评为2022年度电子发烧友社区人物和2023年度优秀工程师,所发表的使用文章推荐率很高。
">

jf_28711913

08:5311-28
自己本人是在校学生,对此方面十分感兴趣,可惜价格不允许,希望可以得到这次机会去学习 进一步深入学习深度学习与视觉结合,利用高算力平台进行训练,在后续的智能车项目中进行应用
">

ChsAmb

13:1511-27
申请理由:本人刚毕业,工作方向为嵌入式软件,从gpt刚出世使用后就震撼于llm的强大,自己也在本地电脑上部署过stable diffusion,以及其他如openpose等有趣的模型,看到本次的新品体验计划,十分心动,也看了算能官方给出的教程,部署ChatGLM2_6B的每秒3+的tokens对于语音对话也已经十分充裕,因此想申请这款性能强大的微服务器,搭建一个私人的语音对话助手。 项目名称:基于ChatGLM2_6B的私人语音对话助手 之所以叫私人语音助手,是因为在ChatGLM2_6B的基础上,再结合官方示例中的whisper-TPU_py以及bark模型,来完成识别人声,生产回答以及将回答播放(其中bark模型可能无法满足实时性的需求,后期考虑更换),再给出通过关键字来进行行为匹配的接口,通过json配置文件来随时更改匹配项以及操作。 使用计划: ①:第一周:熟悉官方sdk,按照https://sophon.cn/curriculum/description.html?category_id=47教程跑模型(记录开箱、部署以及遇到的问题) ②:第二周:部署bark模型以及whisper-TPU_py(没有看到官方相关的文档,花费的时间可能会长一些,会记录部署的过程并汇总为文档,有问题的话可能需要官方支持) ③:第三周:分析性能以及各个模型的运行结果,进行调整或更换模型,以及编写关键字匹配的接口实现语音助手的功能(举例:{"开灯", "demo_light"},将匹配输入语音中的开灯,执行/usr/bin下或其他路径下的demo_light) ④:第四周:体验告以段落,整理文档以及查漏补缺。 项目的难点在于多个模型的性能问题,对话实时性的问题。预期是将每句对话的等待时间不超过3s,以及研究如何将语音分段输入到模型以并行执行提高效率。
">

jf_49342301

15:0711-26
项目名称: 算丰1684X的开发调试与ChatGLM3 Whisper等模型的迁移适配 申请理由: 本人现从事家庭智控终端的开发工作,对于贵司的高算力微服务器非常感兴趣,小型化高算力的终端非常适合在家庭中集成,本人希望将ChatGLM3 whisper Yolo等经典模型迁移到贵司的平台上,并将此用于家庭领域的智能化部署方案中 本人优势: 本人智科专业出身,在校期间参加过嵌入式软件开发竞赛,省级横向科研课题组-LLM的产业应用的研究,主导开发了多模型多服务的动态API系统,为LLM的商业化落地提供了更具鲁棒的部署方案; 并且本人对于该类推理硬件盒子有过较多开发经验,此前也曾收到来自Aidlux的边缘计算盒子(基于Qualcomm 865 SOC)的企业邀测,并发布在该企业的开发社区与视频平台通过了Aidlux的测评要求; 同时本人现职工作为嵌入式AI软件开发工程师,技术领域涉及多模态模型算法设计与实现 、嵌入式硬件设计与应用开发部署,在职期间参与了多模态模型的开发迁移工作,为燧原DTU、华为昇腾910/910B的模型训练提供了适配经验; 实现方案: 通过阅读算能微服务器介绍说明了解该产品适用于后端模型部署,因此需要在算能微服务器部署API服务节点通过RJ45与家庭主路由连接,并开发适配的APP与终端平板设备为用户提供服务 测试方向: 测试传统模型在贵司开发板上的推理能力,主要测试Yolo(目标检测)ChatGLM2/3-6B(LLM)Whisper(语音识别)VITS(语音合成)等经典模型,使用Python与C++分别进行长期性能测试 本人会将测试所产生的内容以图文和视频的方式分别上传于本论坛和BiliBili视频平台
">

jf_09931838

16:0511-25
1. 申请理由 本人有ChatGLM2的部署经验和各类大模型API调用经验(OpenAI及同类ServerSentEvent, 星火及同类WebSocket). 公司为三大航之一, 目前在航站楼中转旅客服务和飞行员, 客舱乘务人员英语培训方面有AI的需求. 本人负责其中中转旅服项目, 目前处于需求调研完建立原型前段的选型阶段. 就控制区网络条件而言, 认为中转设备自身有边缘计算能力会更合适应用场景, 之前想的是直接x86_64加计算卡, 但是成本和功耗都不能接受, 现在发现这款AI的边缘计算设备, 想测试能否满足需求顺便自己捞个玩玩. 2. 项目名称 中转智能化Demo 3. 计划 1) 测试现有成果移植到ARM架构的可行性. (较高, 是Python和Golang, 前端是纯静态资源) 2) 测试官方在详情中提到的ChatGLM2-6B. (只能满足部分项目需求) 3) 测试ChatGLM3在Radxa Fogwise 1684X Mini上的量化极限. (判断该精度能否满足项目需求) 4) 还有空余时间的话会尝试在Radxa Fogwise 1684X Mini调用讯飞的星火大模型和实时语音转写. 4. 预计成果 文章, 视频, 不关系公司涉密部分的源码. 说起来项目本身不会是纯自研的, 有兴趣有资质的小伙伴欢迎来联系! 企业和学校实验室都可以.
">

1653149838.791300

22:3311-23
申请理由 本人有多年嵌入式软件开发项目经验。算能这款盒子性能优异,很适合做AI边缘计算设备。官方开发资料详细,特别教育应用方面跟目前工作很有契合点。希望有试用机会,了解算能,加深学习,与工作项目做匹配应用评估。 计划: 1.硬件组成原理了解,环境搭建,资料收集及深度学习 2.TPU-MLIR编译模型并对模型性能测试实践 3.大模型进阶学习,大模型教育应用的部署实践 适时展示与分享阶段成果
">

jf_83154586

16:1711-22
课程学习
">

jf_60171026

16:0011-21
尊敬的申请委员会, 我代表公司向贵委员会提交Radxa Fogwise 1684X Mini微服务器的使用申请,旨在解决城市复杂交通流的多模态检测分析问题。以下是我们对该项目的背景描述、Radxa Fogwise 1684X Mini在这一领域的应用价值、申请理由以及初步项目计划: 1. 项目背景: 随着城市化进程的不断推进,城市交通流量不断增加,多模态交通(包括汽车、自行车、步行者等)交织在一起,使得交通管理和规划变得更为复杂。为了有效解决城市交通问题,需要对多模态交通流进行实时、准确的检测和分析,以提高交通效率、减缓拥堵、提升交通安全。 2. Radxa Fogwise 1684X Mini在多模态检测分析中的应用: Radxa Fogwise 1684X Mini作为一款高性能的AI边缘计算设备,具备强大的INT8算力,支持超大参数模型的部署。在城市复杂交通流的多模态检测分析中,该设备可以发挥以下关键作用: 实时检测: Radxa Fogwise 1684X Mini通过高性能的算力,可以实时检测城市中各种交通模态,包括汽车、自行车、步行者等,实现对交通流的全面监测。 多模态数据分析: 设备支持主流编程框架,可以轻松应用于多模态数据的深度学习分析,提取交通流量、速度、密度等关键信息,为交通规划和管理提供数据支持。 灵活部署: Radxa Fogwise 1684X Mini的灵活性使其适用于不同场景,可以部署在交叉口、人行道、自行车道等多个位置,从而实现全面的多模态交通监测。 3. 申请理由: 我们申请使用Radxa Fogwise 1684X Mini的主要理由包括: 技术先进: Radxa Fogwise 1684X Mini搭载算丰第四代智算处理器,具备高达32Tops INT8峰值算力,是一款先进的边缘计算设备。 低成本高效: 无需昂贵硬件和繁琐配置,Radxa Fogwise 1684X Mini通过一根网线即插即用的方式,降低了项目的部署成本,提高了效率。 数据安全: 设备通过本地处理数据,保障了多模态交通数据的隐私和安全。 4. 项目计划: 初步项目计划包括以下关键步骤: 需求调研: 深入了解城市交通流的实际需求,明确多模态检测分析的具体要求。 设备部署: 购置并部署Radxa Fogwise 1684X Mini设备于选定的交叉口和人行道等关键位置。 算法开发: 利用设备支持的主流编程框架,开发多模态检测和分析算法。 实地测试: 在实际城市交通场景中进行设备和算法的实地测试,优化和验证系统性能。 数据分析与报告: 对实测数据进行深入分析,生成交通流量、拥堵状况等相关报告,为城市交通管理决策提供数据支持。 5. 结语: 通过此申请,我们希望能够得到Radxa Fogwise 1684X Mini的使用许可,以便在城市复杂交通流的多模态检测分析项目中发挥其强大的边缘计算能力,为城市交通的智能化发展贡献一份力量。 感谢贵委员会的审阅与支持。 敬启, 许建荣 AI算法工程师 深圳交通中心

申请合作