芯驰D9系列MYC-JD9X核心板及开发板
高安全性芯驰D9系列MYC-JD9X核心板及开发板
本篇测评由电子发烧友的优秀测评者“HonestQiao”提供。
01.
评测规划
米尔MYD-Y6ULX-V2开发板上带有SIM卡的插槽,于是结合我之前的使用米尔
板子的经验,想制作一个远程监控的平台。
不过通过硬件手册了解到,板子自身不带有LTE模块,需要安装一个Mini PCI-E接口的LTE 模块才能够使用4G网络,且仅支持仅支持移远EC20型号。
而手头暂时没有这个型号的LTE模块,于是退而且其次,使用有线网络来进行数据的传输。
这块板子的full镜像,提供了通过V4L对USB摄像头的支持,直接插接上USB摄像头就能使用了。
最终,具体的评测规划如下:
使用米尔MYD-Y6ULX-V2开发板提供摄像头监控数据
使用OLED呈现开发板的设备负载、IP地址和服务信息
使用PyQT5开发监控显示界面
使用opencv进行人脸识别检测
硬件准备
更新成功后,断电,然后将拨码开关设置回eMMC启动模式,重启上电开机,最终会看到如下的启动信息,其中NXP i.MX Release Distro 5.10-gatesgarth表示已经更新到了当前系统:
04.
开发板设置
在更新完毕后,需要对开发板进行一些基础的设置,以方便后续进一步操作。
参考:7.2. 通用网络配置
静态配置示例如下:
[Match] Name=eth0 [Network] Address=192.168.1.177/24 Gateway=192.168.1.1 DNS=192.168.1.1
动态配置示例如下:
[Match] Name=eth0 [Network] DHCP=yes EOF
配置后,可以重启网络服务,然后查看结果:
service systemd-networkd restart ifconfig
时区设置:
使用vi修改:/etc/sysconfig/clock
ZONE="Asia/Shanghai" UTC=true ARC=false
ntpd对时设置
使用vi修改:/etc/sysconfig/ntpd
# Drop root to id 'ntp:ntp' by default. OPTIONS="-u ntp:ntp -p /var/run/ntpd.pid" # Set to 'yes' to sync hw clock after successful ntpdate SYNC_HWCLOCK=yes #make no into yes; BIOS的时间也会跟着修改 # Additional options for ntpdate NTPDATE_OPTIONS=""
使用vi修改:/etc/ntp.conf
restrict default kod nomodify notrap nopeer noquery # restrict -6 default kod nomodify notrap nopeer noquery #针对ipv6设置 # 允许本地所有操作 restrict 127.0.0.1 #restrict -6 ::1 # 允许的局域网络段或单独ip restrict 10.0.0.0 mask 255.0.0.0 nomodify motrap restrict 192.168.0.0 mask 255.255.255.0 nomodify motrap restrict 192.168.1.123 mask 255.255.255.255 nomodify motrap # 使用上层的internet ntp服务器 server cn.pool.ntp.org prefer server 0.asia.pool.ntp.org server 3.asia.pool.ntp.org server 0.centos.pool.ntp.org iburst # 如果无法与上层ntp server通信以本地时间为标准时间 server 127.127.1.0 # local clock fudge 127.127.1.0 stratum 10 # 计算本ntp server 与上层ntpserver的频率误差 driftfile /var/lib/ntp/drift # Key file containing the keys and key identifiers used when operating # with symmetric key cryptography. keys /etc/ntp/keys #日志文件 logfile /var/log/ntp.log
service ntpd restart date
查看结果:
远程连接:
以上设置完成后,就可以在其他电脑上,使用ssh远程连接,来连接开发板了。
首先在开发板上,为root用户设置密码:
passwd root
然后,在其他电脑上,使用ssh工具进行远程连接:
Windows系统可以视同使用Putty或者mobaxterm,Linux和macOS系统可以直接使用ssh命令
ssh root@192.168.1.177
# 出现下一行提示附后,就可以输入命令了:
root@myd-y6ull14x14:~#
root@myd-y6ull14x14:~# uname -a
Linux myd-y6ull14x14 5.10.9-1.0.0+g062cea228 #1 SMP PREEMPT Fri Aug 12 02:04:17 UTC 2022 armv7l armv7l armv7l GNU/Linux
开发环境建立
米尔为MYD-Y6ULX-V2开发板提供了详细的开发环境建立的指导,参考《MYD-Y6ULX_Linux软件开发指南.pdf》即可完成所需要的工作。
开发环境需要在一个Ubuntu环境下建立,而不是开发板自身的系统上。
从开发板的资料包页面,下载光盘镜像:http://down.myir-tech.com/MYD-Y6ULX/,也可以从百度网盘下载相应的资料包。
首先安装基础工具包,并进行工作目录的构建:
sudo apt-get install gawk wget git-core diffstat unzip texinfo gcc-multilib build-essential chrpath socat cpio python3 python3-pip python3-pexpect xz-utils debianutils iputils-ping python3-git python3-jinja2 libegl1-mesa libsdl1.2-dev mkdir -p ~/MYD-Y6ULX-devel export DEV_ROOT=~/MYD-Y6ULX-devel sudo mkdir /media/cdimage sudo mount -o loop ~/Downloads/MYD-Y6ULX_L5.10.9_20220826.iso /media/cdimage cp -r /mnt/cdimage/02_Images $DEV_ROOT/ cp -r /mnt/cdimage/03_Tools $DEV_ROOT/ cp -r /mnt/cdimage/04_Sources $DEV_ROOT/
cd $DEV_ROOT/03_Tools/Tools_chain/ bash fsl-imx-fb-glibc-x86_64-myir-image-full-cortexa7t2hf-neon-myd-y6ull14x14-toolchain-5.10-gatesgarth.sh . /opt/test5.10/environment-setup-cortexa7t2hf-neon-poky-linux-gnueabi $CC -v
安装编译工具链时的提示:安装到/opt/test5.10目录
安装完成后的验证:
06.
mjpg_streamer部署
要使用到摄像头,并对外提供监控数据,使用mjpg_streamer最合适了。
在网上也有不少 iMX6移植原版mjpeg-streamer的文章可供参考,不过我查看后大受误导。
直接使用我之前的版本,进过简单的修改,就能使用MYD-Y6ULX-V2开发板的编译工具链进行成功编译了。
mjpg_streamer分支版本:https://github.com/jacksonliam/mjpg-streamer
下载地址:https://github.com/jacksonliam/mjpg-streamer/archive/refs/heads/master.zip
交叉编译:
使用交叉编译环境的CC设置即可,但需要先注释掉mjpg_streamer源码中原有的gcc设置,具体操作步骤如下:
cd mjpg-streamer/mjpg-streamer-experimental find -name "Makefile" -exec sed -i "s/CC = gcc/#CC = gcc/g" {} ; grep -rn 'CC = gcc' * make clean make
CC配置修改后,使用grep应得到如下的输出:
完成编译后,结果如下:
使用scp将以上文件拷贝到开发板
ssh root@192.168.1.177 "mkdir ~/mjpeg_server/" scp mjpg_streamer root@192.168.1.177:~/mjpeg_server/ scp *.so root@192.168.1.177:~/mjpeg_server/
查看摄像头设备
查看设备指令:v4l2-ctl --list-devices
从上图可以看出,识别到了连接的USB摄像头HIK 720P Camera,对应的第一个设备地址/dev/video2可以被mjpg_streamer调用。
cd ~/mjpeg_server ./mjpg_streamer -i "input_uvc.so -d /dev/video2 -n -r 640x480 -f 10" -o "output_http.so -w ./"
默认启动的mjpg_streamer是可以任意访问的,这很危险。但可以使用-c 用户名:密码来设置一个访问密码,可以参考下图中的指令:
07.
镜像烧录ssd1306_bin部署
我所使用的SSD1306 OLED使用IIC通讯的,之前我也使用过一个Linux环境下的ssd1306工具。
经过尝试,这个工具可以使用MYD-Y6ULX-V2开发板的编译工具链进行编译和使用。
修改配置文件 Makefile,具体修改如下:
修改完成后,进行编译,编译完成后,部署ssd1306_bin一个文件即可
make ls -l ssd1306_bin # 部署文件到开发板 scp ssd1306_bin root@192.168.1.177:~/mjpeg_server/
参考手册上的说明,进行硬件的连接。我所使用的OLED使用到了VDD_5V、DGND、I2C2_SCL、I2C2_SDA。务必要注意所使用的OLED的电压,有的只能使用3.3V,使用5V会完蛋。
OLED显示测试
上述硬件连接完成后,就可以远程连接到开发板,进行测试了。
然后,进行显示测试
cd ~/mjpeg_server ./ssd1306_bin -n 1 -I 128x64 ./ssd1306_bin -n 1 -c ./ssd1306_bin -n 1 -r 0 ./ssd1306_bin -n 1 -x 0 -y -0 -m "Hello World!nnI'm MYD-Y6ULX-V2."
08.
开发板应用综合部署
完成以上两项工作,开发板部分的基础工作就完成了,可以写一个启动脚本来进行控制,具体如下:
为了安全访问,在脚本中设置了访问的用户名和密码,可以根据实际需要进行修改。
以下的操作,都需要远程连接到开发板上进行。
服务启动脚本:~/mjpeg_server/mjpeg_server_start.sh
#!/bin/bash cd "${0%/*}" killall mjpg_streamer >/dev/nul 2>&1 device=$(v4l2-ctl --list-devices | grep 'Camera' -A1 | grep /dev/video | head -1 | awk '{print $NF}') ./mjpg_streamer -i "input_uvc.so -d $device -n -r 640x480 -f 10" -o "output_http.so -w ./ -c test:test123" & ./ssd1306_bin -n 1 -I 128x64 ./ssd1306_bin -n 1 -r 0 let count=0 while true do nowdate="$(date '+%Y-%m-%d %H:%M:%S')" load="$(w | head -1 | sed -e 's/^.*average: //' | cut -d ',' -f 1)" temp=$(echo "scale=1;$(cat /sys/devices/virtual/thermal/thermal_zone0/temp)/1000" | bc) ipstr=" ${nowdate}n L:${load} T:${temp}" if [[ $count -gt 0 ]];then ./ssd1306_bin -n 1 -x 0 -y 0 -m "${ipstr}" else ./ssd1306_bin -n 1 -c ipstr="${ipstr}n**-*-IP Address-*-**" i=0 for ip in $(ip addr show | grep -v "127.0.0.1" | awk -F'[ /]+' '{if($0 ~ / inet /) print $3;}') do let i=i+1 ipstr="${ipstr}nIP${i}: ${ip}" done ipstr="${ipstr}nSRV: ip:8080/?action" ipstr="${ipstr}n =stream" echo -e "${ipstr}" ./ssd1306_bin -n 1 -x 0 -y 0 -m "${ipstr}" fi let count=count+1 if [[ $count -gt 15 ]];then let count=0 fi sleep 1 done
开机启动:
chmod u+x /home/root/mjpeg_server/mjpeg_server_start.sh
screen -S mjpeg_server /home/root/mjpeg_server/mjpeg_server_start.sh
配置完成后,就可以重新启动开发板,OLED显示屏上会显示对应的信息:
MYD-Y6ULX-V2开发板的full环境支持使用QT5进行应用开发,但实际使用中,需要屏幕配合。
我手头没有对应的屏幕,所以这一步的工作,就在电脑上进行,并使用PyQT5进行开发。
具体要做的工作如下:
操作界面开发
mjpeg流读取显示
人脸识别
其中人脸识别部分,参考了:* opencv快速入门人脸检测与人脸识别
涉及到具体的代码的开发,我就直接上代码了,感兴趣的同学,可以查看代码进行学习。
from PyQt5 import QtWidgets from PyQt5.QtGui import QImage, QPixmap, QKeySequence from PyQt5.QtCore import QThread import sys, cv2, threading, random, signal import numpy as np import socket import time, datetime import requests from requests.auth import HTTPBasicAuth # 0-摄像头 1-socket 2-from remote CAMERA_SOURCE = 2 CAMERA_LOCAL_INDEX = 0 # 如果使用本地摄像头,则表示其videoN的N CAMERA_SOCKET_PORT = 8888 # 如果视同socket,设置端口 # CAMERA_REMOTE_URL = "http://192.168.1.15:8080/live.mjpg" CAMERA_REMOTE_URL = "http://192.168.1.177:8080/?action=stream" CAMERA_SOURCE_NAME = ["USB摄像头", "网络图像流", "米尔MYD-Y6ULX-V2摄像头监控"] AUTH_CONFIG = {"user":"test","pass":"test123"} FACE_DETECTION = True if FACE_DETECTION == True: # https://blog.csdn.net/FontThrone/article/details/105314973 # https://github.com/FontTian/DS-Exhibitio face_cascade = cv2.CascadeClassifier('haarcascade_frontalface_default.xml') face_cascade.load('./haarcascades/haarcascade_frontalface_default.xml') face_box_colors = [ (255, 0, 0), (0, 255, 0), (0, 255, 0), (255, 255, 0), (255, 0, 255), (0, 255, 255), (255, 128, 128), (128, 255, 128), (128, 255, 128), (255, 255, 128), (255, 128, 255), (128, 255, 255) ] # 应用定义 app = QtWidgets.QApplication(sys.argv) window_w, window_h = 640, 480 # 窗口宽度和高度 scale = 0.58 # 视频信息宽高比 # 界面定义 Form = QtWidgets.QWidget() Form.setWindowTitle(CAMERA_SOURCE_NAME[CAMERA_SOURCE]) Form.resize(window_w, window_h) # 窗口大小改变时自动调整按钮 def windowResize(self): global window_w, window_h, scale window_w = Form.width() # 窗口宽度 window_h = Form.height() # 窗口高度 label.setGeometry(0,0, window_w, int(window_w*scale)) # 调整 QLabel 尺寸 btn1.setGeometry(10, window_h-40,70,30) # 调整按钮位置 btn2.setGeometry(80, window_h-40,70,30) # 调整按钮位置 btn3.setGeometry(window_w - 80, window_h-40,70,30) # 调整按钮位置 Form.resizeEvent = windowResize # 设置窗口大小改变时触发 # 关闭应用时的处理 ocv = True # 设置是否处理视频 def closeOpenCV(self): global ocv, output ocv = False # 关闭窗口时,停止处理视频 print("关闭程序") try: output.release() # 关闭窗口时,释放视频处理资源 except: pass Form.closeEvent = closeOpenCV # 窗口关闭时触发 label = QtWidgets.QLabel(Form) label.setGeometry(0,0, window_w, int(window_w*scale)) # 设置 QLabel 的位置和大小 # 存储文件时使用的文件名 def rename(): # return str(random.random()*10).replace('.','') return datetime.datetime.now().strftime('%Y%m%d_%H%M%S') photo = False # 按下拍照按钮时,设置处于拍照状态 # 按下拍照按钮时的处理 def takePhoto(): global photo photo = True # 设定拍照状态为True print("马上拍照") btn1 = QtWidgets.QPushButton(Form) btn1.setGeometry(10, window_h-40,70,30) # 设置拍照按钮的位置和大小 btn1.setText('拍照') btn1.clicked.connect(takePhoto) # 按下拍照按钮时触发 fourcc = cv2.VideoWriter_fourcc(*'mp4v') # 设置视频中的存储格式 recorderType = False # 按下录像按钮时,设置处于录像状态 # 按下录像按钮时的处理 def recordVideo(): global recorderType, output if recorderType == False: # 如果按下按钮时没有在录像,则开始录像 # 设定存储的视频信息 output = cv2.VideoWriter(f'videos/{rename()}.mp4', fourcc, 20.0, (window_w, int(window_w*scale))) recorderType = True # 设置正在录制状态 btn2.setGeometry(80, window_h-40,200,30) # 根据显示内容设置大小 btn2.setText('录像中,点击停止保存') else: # 如果按下按钮时正在在录像,则停止录像 output.release() # 释放视频存储资源 recorderType = False # 设置非录制状态 btn2.setGeometry(80, window_h-40,70,30) # 根据显示内容设置大小 btn2.setText('录像') btn2 = QtWidgets.QPushButton(Form) btn2.setGeometry(80, window_h-40,70,30) # 设置录像按钮的位置和大小 btn2.setText('录像') btn2.clicked.connect(recordVideo) # 按下录像按钮时触发 # 按下退出按钮时的处理 def quitApp(): global video_server print("退出程序") closeOpenCV(False) app = QtWidgets.QApplication.instance() app.quit() btn3 = QtWidgets.QPushButton(Form) btn3.setGeometry(window_w-80, window_h-40,70,30) # 设置退出按钮的位置和大小 btn3.setText('退出') btn3.clicked.connect(quitApp) # 按下退出按钮时触发 # 人脸识别处理 def face_detection_process(frame): if FACE_DETECTION == True: face_count = 0 gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) faces = face_cascade.detectMultiScale(gray, 1.3, 5) for (x, y, w, h) in faces: color = face_box_colors[face_count % len(face_box_colors)] cv2.rectangle(frame, (x, y), (x + w, y + h), color, 2) face_count+=1 # 此处省略本项目用不到的数百行... # mjpeg数据流处理服务 def mjpeg_remote_server(): global window_w, window_h, scale, photo, output, recorderType, ocv r = requests.get(CAMERA_REMOTE_URL, auth=HTTPBasicAuth(AUTH_CONFIG["user"], AUTH_CONFIG["pass"]), stream=True) if(r.status_code != 200): print("Received unexpected status code {}".format(r.status_code)) return count = 0 is_first = False recv_data_mjpeg = bytes() for recv_data in r.iter_content(chunk_size=1024): if not ocv: break count+=1 if count % 10000 == 1: print("trecv stream success") recv_data_mjpeg += recv_data a = recv_data_mjpeg.find(b'xffxd8') b = recv_data_mjpeg.find(b'xffxd9') if not (a != -1 and b != -1): continue mjpg_data_raw = recv_data_mjpeg[a:b+2] recv_data_mjpeg = recv_data_mjpeg[b+2:] mjpeg_data = np.frombuffer(mjpg_data_raw, 'uint8') img = cv2.imdecode(mjpeg_data, cv2.IMREAD_COLOR) # cv2.imshow('stream', img) if not is_first: is_first = True sp = img.shape sz1 = sp[0] #height(rows) of image sz2 = sp[1] #width(colums) of image sz3 = sp[2] #the pixels value is made up of three primary colors print('网络图像: width=%d theight=%d tnumber=%d' % (sz1, sz2, sz3)) scale = sz1/sz2 frame = cv2.resize(img, (window_w, int(window_w*scale))) # 改变帧大小 if photo == True: name = rename() # 设置文件名称 name_save = f'photos/{name}.jpg' print("照片存储:%s" % name_save) cv2.imwrite(name_save, frame) # 存储图片 photo = False # 拍照完,设置非拍照状态 if recorderType == True: output.write(frame) # 按下录像按钮时,输出到存储文件 face_detection_process(frame) frame = cv2.cvtColor(frame, cv2.COLOR_BGR2RGB) # 设置为 RGB height, width, channel = frame.shape bytesPerline = channel * width img = QImage(frame, width, height, bytesPerline, QImage.Format_RGB888) label.setPixmap(QPixmap.fromImage(img)) # 显示 if CAMERA_SOURCE == 2: video_server = QThread() video_server.run = mjpeg_remote_server video_server.start() Form.show() sys.exit(app.exec_())
设置好开发板的MJPEG视频地址,然后启动上面的python程序,就能打开如下界面了:
如果画面中有人脸,就会自动识别了:
人间最美五月天
不负韶华不负卿
米尔又来送板子了
不是3套,也不是4套
150套米尔RZ/G2L开发板
送!免费!板卡不回收!
01这是什么样的有奖活动?
米尔RZ/G2L开发板创意秀
为感谢广大客户一直以来的支持,推动嵌入式行业技术发展,鼓励工程师勇于创新探索的精神,促进64位MPU的生态,米尔电子联合瑞萨共同发起“米尔电子&瑞萨RZ/G2L开发平台创意秀”,提供150套开发板支持开发者创新开发,开发者只需要提供项目需求申请即有机会获得RZ/G2L开发板。
获得开发板后提供项目介绍、板卡测试、板卡应用文档/视频等,参与作品评选,还有机会获得米尔提供的大奖:5G手机、智能手表、蓝牙耳机等。
(奖品图片仅参考,最终发放型号为准)
02
免费开发板怎么申请?
进入链接填写报名表进行赛事报名
点击链接报名:https://bbs.myir-tech.com/my_activity-activity.html
小伙伴填写申请理由、项目介绍、项目计划、预计成果、个人信息报名
Tips:填写的越详细、项目思路越清晰,越容易获得开发板哦
03
活动有什么福利?
本次活动由米尔电子和瑞萨联合举办,除免费开发板之外,提供产品开发的作品,有机会赢得大奖,奖品非常丰富:
最佳项目奖:3名;奖品:价值2500元左右的智能手机;
优秀设计奖:5名;奖品:价值1000元左右的智能手表;
创意参与奖:7名;奖品:价值450元左右的高档耳机;
最佳硬创奖:3名;免费SMT贴片服务(限米尔RZ/G2L核心板设计的底板)
04
活动流程什么样?
本次活动涉及7个活动阶段,从报名申请-赠送板卡-评选获奖等等,全程参与将有机会赢得大奖。
报名申请:2023/05/24-2023/06/26
公布名单:2023/06/30
发放板卡:2023/07/05
项目开发+作品发布:2023/07/10-2023/09/10
网络评选:2023/9/11-2023/09/20
专家评审:2023/9/21-2023/9/28
公布奖项+发放奖品:2023/10/12
05
送的是哪款开发板?
米尔MYD-YG2LX开发板,该款产品采用瑞萨RZ/G2L系列处理器的工业级应用芯片,瑞萨RZ/G2L基于64 位Arm®的高端处理器 (MPU),主频高达1.2GHz双核Arm Cortex-A55提供了强大的边缘计算能力,而且集成了双千兆以太网,多达7路串口,2路CANFD等丰富的通讯接口,能够满足复杂通讯的需求,为未来的更智能工业设备提供了更高性能的解决方案,引领工业市场从32位MPU向64位演进。
06
什么条件可以报名申请?
报名条件:
1.报名条件:必须注册米尔电子论坛的用户、关注米尔公众号;
2.报名要求:面向企业、创客团队、工程师、电子爱好者、研究院等人士,不限个人或团体形式参赛。
3.报名方式:在线提交项目主题、基本设计思路、主要应用方向以及创新点即可报名参赛,具体行业应用不限,报名审核通过后将公布免费开发板的名单。
07
参赛要求还有什么?获得大奖智能手机的攻略?
更多参赛的规则,请点击下方链接进入官方活动详情页面了解,下回小编再给你详细介绍获得奖品的攻略。
(有疑问可以联系米尔小助手微信)
在ST峰会的主论坛上,米尔副总经理Alan.Zhou隆重介绍公司新品——基于ST最新款处理器STM32MP135打造的MYC-YF13X核心板及开发板。STM32MP13系列处理器是一款基于单核Cortex-A7设计的高性价比、高可靠性工业级处理器;运行频率高达1GHz,配备双路千兆以太网接口,提供高性价比和高能效的处理能力,该产品线具有高级安全功能,包括:加密算法加速器,提升硬件稳健性;内存保护,防止非法访问;代码隔离机制,用于运行时保护数据安全;确保产品生命周期内平台认证的多种功能; 以及完整的安全生态系统。STM32MP13微处理器专为入门级Linux、裸机或RTOS系统设计,让MCU开发者友好地过渡到MPU平台设计,此款核心板的批量价格99元起。
ST峰会主论坛-米尔副总Alan(右一)介绍新品STM32MP135核心模组
米尔基于STM32MP135核心板和开发板
精彩2:米尔核心板加速基于STM32MP1的产品开发
米尔产品经理张连胜在分论坛发表演讲
精彩3:免费赠送开发板5套,多重优惠火爆现场
米尔电子在分论坛抽奖免费开发板活动
2023年5月13日,ST峰会圆满结束,期待下次活动再与您相见,米尔将带来更多的优惠活动回馈广大客户。米尔自成立以来,一直紧跟嵌入式技术发展的前沿,凭借在嵌入式领域10多年的开发经验和10000多家企业客户积累。未来,米尔将潜心研发,推出更多新品,助力嵌入式CPU模组领域,为开发者提供更专业的服务!为智能医疗、智能交通、智能安防、物联网、边缘计算、工业网关、人工智能等行业客户的发展保驾护航。
米尔再次与全志推出新品
基于全志 T113-S3应用处理器的
MYC-YT113X核心板及开发板
现已开放免费试用名额!!
米尔准备了4块
价值348元的开发板
发起试用活动
您不仅可以免费体验
还可以获得京东购物卡
赶快扫码报名吧~
↓↓↓
您也可以复制链接报名我们的评测活动:
https://bbs.elecfans.com/try_YT113X.html
试用活动信息
报名时间:2023年5月10日-2023年6月10日
试用截止时间:2023年8月30日
试用对象:嵌入式开发工程师/电子爱好者
试用形式:免费申请、有奖试用
试用产品:米尔MYD-YT113X开发板,价值348元
试用名额:4名
试用套件型号:MYD-YT113X
如需购买
欢迎扫码前往myir旗舰店下单
↓↓↓
近年来,中国的芯片产业发展势头迅猛,国产芯片公司不断推出新产品,让中国的芯片产业发展迎来了新的高度。米尔2022年推出全志国产处理器T507核心板,取得良好的市场反响,这款车规级处理器广泛应用于能源电力、PLC控制、物联网网关、医疗器械、商业显示等行业。此次米尔与全志再度合作,推出国产低成本双核A7处理器——T113-S3的核心板和开发板,这款MYC-YT113S3核心板价格低至79元!
国产低成本,核心板低至79元
米尔基于全志T113-S3核心板,它的特色在于不仅限于国产化、性价比高,还打破零售核心板100元界限,同时具有双核Cortex-A7+HiFi4 DSP多核异构工业级处理器,比同类百元左右的核心板具备更高的性价比和性能。此外,米尔核心板零售价仅79元,在市场上更具优势。
极致双核A7国产处理器
T113-S3是全志科技一款高性价比、入门级嵌入式处理器。T113-S3处理器配备2*Cortex-A7,主频最高1.2GHz,支持视频编解码器、内置128M DDR3。支持H.265/H.264 1080P@60FPS视频解码、JPEG/MJPEG 1080P@60FPS视频编码,具有丰富多媒体接口MIPI-DSI/RGB/LVDS/Parallel CSI,支持1080P@60FPS显示;此外摄像头接口(Parallel-CSI)、显示器接口(MIPI-DSI/LVDS/RGB)、USB2.0接口、CAN接口、千兆以太网等接口,适用于物联网网关、商业显示、能源电力、工业控制、医疗器械等场景。
全志科技T113-S3处理器框图
米尔T113-S3核心板接口资源图
140PIN邮票孔设计,6层高密度PCB
米尔基于T113-S3处理器的核心板,采用高密度高速电路板设计,在大小为37mm*39mm板卡上集成了T113-S3、Nand Flash/eMMC、E2PROM、分立电源等电路。并通过邮票孔引出信号和电源地共计140PIN,这些信号引脚包含了丰富的外设资源。
米尔T113-S3核心板
符合高性能智能设备的要求
MYC-YT113X具有非常严格的质量标准、超高性能、丰富的外设资源、高性价比、长供货时间的特点,适用于高性能智能设备所需要的核心板要求。为保证产品的质量,经过严苛的测试,确保产品品质。
米尔T113-S3核心板测试图
丰富开发资源
米尔MYD-YT113X提供丰富的软件资源以帮助客户尽快实现产品的开发。在产品发布时,您可以获取全部的Linux BSP源码及丰富的软件开发手册。
米尔T113-S3的核心板,随同开发套件MYiR提供了丰富的软件资源以及文档资料。软件资料包含但不限于U-boot、Linux、所有外设驱动源码和相关开发工具。文档资料丰富,MYiR旨在为开发者提供稳定的参考设计和完善的软件开发环境,能够有效帮助开发者提高开发效率、缩短开发周期、优化设计质量、加快产品研发和上市时间。
米尔T113-S3开发资源图
配套开发板,助力开发成功
米尔基于T113-S3处理器的核心板配套开发板,采用12V/2A直流供电,搭载了千兆以太网接口、1路USB2.0协议M.2 B型插座的5G/4G模块接口、板载1路USB2.0协议的WIFI模块、1路单通道LVDS显示接口、1路双通道LVDS显示接口、1路音频输入输出接口、2路USB HOST Type A、1路USB OTG Type-C接口、1路USB debug Type-C接口、1路Micro SD接口、1路兼容树莓派扩展接口。
米尔基于T113-S3处理器的开发板图
米尔MYC-YT113X核心板参数
名称 |
配置 |
选配 |
处理器型号 |
T113-S3,2*Cortex-A7@1.2G |
|
电源管理 |
分立电源 |
|
内存 |
内置128MB DDR3 |
|
存储器 |
标配4GB eMMC / 256MB Nand FLASH |
eMMC 可选8GB |
其他存储 |
32KB EEPROM |
|
接口类型 |
邮票孔,140PIN |
|
工作温度 |
工业级:-40℃-85℃ |
|
机械尺寸 |
37mm x 39mm |
|
操作系统 |
Linux 5.4 |
|
米尔MYC-YT113X核心板扩展信号
项目 |
参数 |
Ethernet |
RGMII/RMII x1 |
USB |
2*USB2.0 |
UART |
6*UART |
CAN |
2*CAN |
TWI |
4*TWI |
SPI |
2*SPI |
ADC |
1*GPADC 4*TPADC |
DISPLAY |
1*MIPI DSI 1*RGB 2*LVDS |
CAMERA |
1* Parallel CSI |
AUDIO |
2* I2S |
米尔MYC-YT113X开发板接口
功能 |
参数 |
|
系统 |
POWER |
12V DC |
KEY |
1路复位按键、1路用户按键 |
|
SD |
1路Micro SD卡槽 |
|
DEBUG |
1路调试串口,1路Type C调试接口 |
|
通讯接口 |
WIFI/BT |
板载WIFI模块 |
5G/4G |
1路M.2 B型插座5G/4G模块接口 2路SIM卡座 |
|
Ethernet |
1路10/100/1000M以太网接口 |
|
USB |
2路USB2.0 HOST接口,采用Type-A接口 1路USB2.0 OTG接口,采用Type-C接口 |
|
UART |
4路UART接口,1路 UART Debug接口 |
|
CAN |
1路CAN接口,通过扩展接口引出 |
|
多媒体接口 |
DISPLAY |
单路LVDS显示接口 双路LVDS显示接口 |
AUDIO |
1路音频输出接口 |
|
扩展接口 |
RPI Interface |
1路2.54mm间距的40PIN排针,GPIO/I2C/UART/SPI/CAN |
近些年来,随着自动控制领域的发展,摄像镜头的工艺和视觉识别算法越来越完善,基于这一基础,无人机视觉跟踪技术成为炙手可热的研究领域。什么是无人机视觉跟踪技术呢?首先无人机通过摄像头进行视频采集,对采集的信息进行存储,并通过算法识别设定的跟踪目标,执行预设任务。目前无人机视觉跟踪技术已经广泛运用在农业生产,军事科研,物流运输等领域。
无人机应用于农业生产
在农业生产领域,无人机视觉追踪系统运用在识别农作物的生长情况中,进行高空灌溉、驱赶害虫等自动化农业管理;在民用领域,无人机通常使用视觉跟踪系统识别人体手势,让用户通过手势操控无人机的升降和摆动;在生物调研领域,该技术更多是为了追踪记录野生濒危动物的生活习惯,维护生态系统平衡。
无人机跟踪系统是如何组成的呢?首先,无人机通过高清摄像头模块,实时采集图像数据,系统通过信号检测模块和图像预处理模块将图片信息转变成数字信息,然后通过数据采集与处理模块进行采样、量化,并对各图片参数进行分析过滤;将分析结果与设定的跟踪目标比较,进行图像识别跟踪;跟踪的图像信息可以通过网络传输到手机和电脑实时显示。
无人机视觉跟踪流程图
基于米尔电子MYC-CZU4EV/5EV-V2核心板设计的无人机视觉跟踪系统,可以分为图像信号采集、数据处理、信息展示三部分;图像采集主要通过摄像头收集图像信息,再由FPGA芯片高速采集将图片信息传输到数据处理单元,数据处理单元由VCU和MCU组成,负责将采集的图像数据通过算法把设定好的跟踪目标进行标注处理;而信息展示部分,则通过无线传输系统把信息同步显示到无人机控制平台和APP上面,实现实时视频传输,掌握远程定位追踪功能。
MYC-CZU3EG/4EV/5EV-V2核心板,搭载功能全面的高规格Zynq UltraScale+ MPSoC芯片,其中芯片的PS端集成了APU ARM Cortex™-A53处理器,RPU Cortex-R5处理器,频率高达667MHz的Arm Mali-400 MP2(GPU)。需要注意的是,4EV/5EV芯片比3EG芯片多了一个视频编解码器单元 (VCU),支持H.264/H.265编解码。芯片搭载内部存储器,外部存储器接口(DDR)和外设接口。这些外设接口主要包括USB总线接口,以太网接口,SD/eMMC接口,I2C总线接口,CAN总线接口,UART接口,GPIO等。高速接口如 PCIE,SATA,Display Port。
机械参数
类型 |
分类 |
参数 |
工作温度 |
工业级 |
-40℃~+85℃ |
商业级 |
0°C~+70°C |
|
环境温度 |
-50℃~100°C |
|
工作湿度 |
非冷凝 |
20%~90% |
冷凝 |
不支持 |
|
电源供电 |
核心板 |
3.3V/5A |
核心板接口 |
PCB连接器 |
2个160 Pin 0.5mm间距双排高速高密度PCB连接器 |
PCB规格 |
核心板 |
12层盲埋孔,沉金工艺生产,独立的接地信号参考层,无铅 |
机械尺寸 |
核心板 |
60.0mmx52.0mm,板厚1.6mm,核心板模块整体厚度约为8.25mm |
|
序号 |
资源种类 |
||
PS 单元 |
1 |
1 路千兆以太网 |
||
2 |
1路USB3.0typeC接口 |
|||
3 |
1路Display Port接口 |
|||
4 |
1路PCIE 2.1x1接口 |
|||
5 |
1路SATA 3.1接口 |
|||
6 |
1路CAN接口 |
|||
7 |
1路RS232串口 |
|||
8 |
1路TF卡接口 |
|||
9 |
1路I2C接口 |
|||
10 |
1个复位按键,2个用户按键 |
|||
11 |
1路JTAG |
|||
12 |
内置实时时钟 |
|||
|
序号 |
资源种类 |
||
PL 单元 |
1 |
XADC接口 |
||
2 |
1路Xilinx标准LPFMC接口 |
|||
3 |
1路HDMI接口,RGB 24bit,不支持音频 |
|||
4 |
1路LCD DIP/LPC接口,RGB 24bit,与HDMI复用显示信号 |
|||
5 |
电阻式电容式触摸屏接口,集成在LCD触摸屏接口 |
|||
6 |
2路PMoD |
|||
7 |
5个电源指示灯 |
|||
8 |
4路SFP+模块接口(注:仅4EV/5EV使用) |
|||
9 |
1路Arduino接口 |
每一个劳动者都了不起,向每一位勤勉奋斗的人致敬!劳动最光荣!
米尔电子预祝大家五一劳动节快乐!
根据国务院对国家节假日的规定,五一劳动节为我国法定节假日
米尔电子2023年五一劳动节放假安排:
4月29日至5月3日放假,共5天。5月6日正常上班。
全新网址,界面功能全面升级
经过全新升级改版,米尔电子的新网站已经正式全新上线与大家见面了!
只需登录米尔电子官网最新网址
就能轻松打开米尔电子官网,获取所需信息
来看看米尔新网站的更新内容吧!
索引清晰,常用模块一目了然
升级改版后的新网站设有产品中心、应用与方案、服务与支持、关于米尔等5个一级栏目,7个信息分区两大模块。
同时新版页面优化升级了展示界面,以全媒体时代用户体验需求为导向,产品目录、产品方案一目了然。其中产品中心以ST、NXP、全志、TI、Xilinx、瑞萨等合作厂商作为一级目录,进一步用具体的处理器型号作二级目录,为开发者提供更全面的核心板和开发板的展示。
米尔电子官网-处理器展示型号目录
此外,米尔在医疗、工控、交通、电力、物联网等各行各业都有丰富的产品应用方案,并从中挑选了一些具有代表性的项目做了详细的介绍,让工程师更快、更准地找到符合自己项目的产品和方案。
米尔电子官网-应用方案展示
全新设计,新风格提供优质体验
新版网站融合扁平化、卡片式、微粒体的设计理念和设计风格,沿用米尔电子VI的主题配色体系,页面风格简介清爽,功能一目了然,更方便开发者快速、直观地找到自己需要的产品信息。
为了提供更好的使用体验,我们还考虑到了不同终端、不同显示比例的访问需求,在台式计算机、平板电脑等多尺寸的屏幕上都进行了匹配适应,以实现良好的浏览体验,当然手机也适配哦!
本次网站的更新不止于此,想要更多了解我们,请访问我们的新网站:
STM32峰会已成功举办五届,第六届将于今年5月12日-13日在深圳重磅回归!往年,米尔电子都作为官方合作伙伴,出席演讲并展出公司配套的核心板和开发板。
今年,STM32峰会更是集齐了值得你「点赞、收藏、转发」的一键三连精彩内容,围绕智能工业与高性能MCU/MPU、连接、生态系统与开发者社区、人工智能与信息安全四大主题,汇集了众多全球生态合作伙伴,带来基于STM32创新的嵌入式解决方案及各类终端产品。
▲点击文章尾部链接报名
“STM32 释放你的创造力” 是2023年STM32峰会的活动主题,旨在展示意法半导体多样化的产品和解决方案,为工程师们提供亲身体验意法半导体产品及方案的平台。
2023年,米尔电子也将受邀参与此次盛会,米尔电子将现场展出STM32相关的最新产品技术和应用演示,除STM32MP151和STM32MP157系列核心板和开发板外,还将隆重介绍芯片STM32MP35系列的核心板和demo,届时,米尔电子的技术工程师将与各位嘉宾面对面深入交流,并将在论坛发表基于“米尔核心板加速基于STM32MP1的产品开发”的演讲。感兴趣的客户和朋友欢迎莅临参观了解!
米尔电子将于5月12日(周五)下午15:45-16:15进行基于“米尔核心板加速基于STM32MP1的产品开发”的演讲,敬请期待。
报名链接: