Step 1. 下载
下载地址 官网
Step 2. 安装
双击安装包下载。
从Cygwin Mirror Sites选择国内镜像并添加,然后选择一个mirror进行安装:
安装 Devel -binutils、 gcc 、mingw 、gdb
Step 3. 使用
a5059726@RECH-0054891 /cygdrive/c
$ cygcheck -c cygwin
Cygwin Package Information
Package Version Status
cygwin 3.4.6-1 OK
Step 4. 配置 将以下目录添加到环境变量:
C:\cygwin64\bin
C:\cygwin64\sbin
a5059726@RECH-0054891 /cygdrive/c
$ gcc --version
gcc (GCC) 11.3.0
Copyright (C) 2021 Free Software Foundation, Inc.
This is free software; see the source for copying conditions. There is NO
warranty; not even for MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.
a5059726@RECH-0054891 /cygdrive/c
$ make --version
GNU Make 4.4
Built for x86_64-pc-cygwin
Copyright (C) 1988-2022 Free Software Foundation, Inc.
License GPLv3+: GNU GPL version 3 or later <https://gnu.org/licenses/gpl.html>
This is free software: you are free to change and redistribute it.
There is NO WARRANTY, to the extent permitted by law.
参考:
"And here's to you, <span style="background-color:green">Mrs. Robinson</span>, Jesus loves you more than you will know."
“And here’s to you, Mrs. Robinson, Jesus loves you more than you will know.”
Linux系统下执行make命令,编译比较大一点的工程或者文件的时候,在命令行下错误和警告信息直接就把我们的实现覆盖了。
那么如何保存配置编译过程的信息?
最好是把编译过程的信息保存成日志文件,方便后面的分析。举例说明保存编译信息的行命令,它把make过程打印的所有信息都保存在xxx.log中。
# 这条命令是编译并保存打印信息。在Linux Shell的设备定义中,“0”表示标准输入,“1”表示标准输出,“2”表示标准出错信息输出。2>&1表示把2设备的信息重定向到1设备;
# “|”是管道符号,把标准输出的信息直接传递给后面的命令;tee是创建文件并保存信息的工具;xxx.log是文件名。
$ make 2>&1|tee xxx.log
# 相比于上面的命令,输出到log文件的信息更多
# 但是,终端不显示任何编译信息
$ make > build.log 2>&1
转:
# list PATH
$ echo $PATH
# add new to PATH
$ export PATH=$PATH:新添加的路径
# delete something in PATH
$ echo $PATH #if PATH=路径1:路径2:路径3:路径4
$ export PATH=路径1:路径2:路径4
参考:
“车载摄像头技术方案分析报告”
视频流:
Sensor -》 ISP -》 Serializer -》 CSI/MIPI -》 DeSerializer -》 SoC(内含ISP)
Sensor:CCD 或者 CMOS
ISP: 黑电平补偿 、镜头矫正 、坏像素矫正 、颜色插值 、Bayer 噪声去除、 白平衡矫正、 色彩矫正 、 gamma 矫正、 色彩空间转换( RGB 转换为 YUV) 、 在 YUV 色彩空间上彩噪去除与边缘加强、 色彩与对比度加强,中间还要进行自动曝光控制
色彩空间的概念,主要是RGB、YUV这两种(实际上,这两种体系包含了许多种不同的颜色表达方式和 模型,如sRGB, Adobe RGB, YUV422, YUV420 …)。
RGB与YUV的转换公式
如果摄像头图像传给到SoC主机后,用作自动驾驶,就涉及到自动驾驶的视觉技术,视觉技术需要解决的是“摄像头拍到的是什么物体”。
机器识别能读懂是什么物体,需要进行后续图像分割、物体分类、目标跟踪、世界模型、多传感器融合、在线标定、视觉SLAM、ISP等一系列步骤进行匹配与深度学习,其核心环节在于物体识别与匹配,或者运用AI 自监督学习来达到感知分析物体的目的。
特斯拉的深度学习网络称为HydraNet。其中,基础算法代码是共享的,整个HydraNet包含48个不同的神经网络,通过这48个神经网络,就能输出1000个不同的预测张量。理论上来说,特斯拉的这个超级网络,能同时检测1000种物体。
可以由视觉完成3D的深度信息。
前视摄像头:FOV角度不大(40~50度左右),频率30~60Hz,高动态(100dB),像素100W~200W。
倒车摄像头:FOV角度大于130度,频率30Hz以上就可以,大于70dB即可,像素大于100W。
环视摄像头:FOV角度非常大(170度),频率大于30Hz,宽动态。
[1] -D
CFLAGS += -DETHTSN
解释: -D是gcc命令行参数,定义宏。 虽然写在Makefile中,跟Makefile没什么关系
比如: CFLAGS= -D_MY_MACRO 下面一定有 $(CC) $(CFLAGS) 这样传给gcc