博客
记录技术探索与思考 · 共 655 篇
AI研究-121 DeepSeek-OCR 研究路线:无限上下文、跨模态抽取、未来创意点、项目创意点
DeepSeek-OCR(2025,含3B参数方向)的前沿思路与工程落地展开,总结"上下文光学压缩、无限长上下文记忆、跨模态信息抽取、模型压缩与蒸馏、视觉压缩的理论探索"等研究路线,并给出面向PDF智能助手、AI学习笔记整理、以图搜文的多模态检索,知识库存储光学压缩的实用Demo方案。
AI研究-119 DeepSeek-OCR PyTorch FlashAttn 2.7.3 推理与部署 模型规模与...
介绍DeepSeek-OCR在本地/私有化部署的可复用做法,基于Python 3.12、PyTorch 2.6.0、Transformers 4.46.3与FlashAttention 2.7.3的推理环境,约3B参数模型推理与部署指南。
AI研究-120 DeepSeek-OCR 从 0 到 1:上手路线、实战要点
DeepSeek-OCR 从 0 到 1 的上手路径与工程化要点(以 2025 年 为准),覆盖 环境搭建(Python/PyTorch 2.x、Transformers 4.x)→模型加载→输出解析(文本/坐标/标记)→参数试验(base_size、crop_mode、Prompt)→文档阅读与代码走读。
AI研究-118 具身智能 Mobile-ALOHA 解读:移动+双臂模仿学习的开源方案(含论文/代码/套件链接)
Mobile-ALOHA:一种将移动底盘与双臂协同结合的开源移动操作方案。其通过全身遥操作低成本采集多模态演示数据,采用 ACT 等监督式模仿学习(Behavior Cloning),并与静态 ALOHA 数据共训,在烹饪、开门、按键等长流程任务上显著提效。
AI研究-117 特斯拉 FSD 视觉解析:多摄像头 - 3D占用网络 - 车机渲染,盲区与低速复杂路况安全指南
详解特斯拉 3D 渲染(Occupancy Network)工作机制:多摄像头时空融合→voxel 占用→鸟瞰坐标。明确其为何成为 FSD/Autopilot 的世界模型和决策输入。结合 2025 实测与案例,归纳"可靠"场景(高速巡航、规则明确的城市路口、标准泊车)与"不可靠"场景(无信号路口/强并线、极端天气、复杂施工、超近距离盲区),给出驾驶员操作 SOP、盲区与误判速查表(幽...
AI研究-116 特斯拉 HW3.0 与 HW4.0 区别详解:摄像头分辨率、FSD算力、雷达与Vision泊车
Tesla HW3.0 vs HW4.0: 摄像头从约1.2MP升级到约5MP,支持更好的HDR/夜视;FSD计算机算力大幅提升;移除超声波传感器,替换为特斯拉视觉"高精度泊车";HW4预留了Phoenix成像雷达接口,但不同批次的车辆可能未安装或未启用软件。
AI-调查研究-108-具身智能 机器人模型训练全流程详解:从预训练到强化学习与人类反馈
机器人数据模型训练流程涵盖从预训练、微调到强化学习与人类反馈的全周期优化,是实现智能自主决策的核心路径。首先通过大规模监督与自监督预训练获取通用感知与动作表示;随后在特定任务上进行微调,采用全量更新或LoRA等参数高效方法提升适应性。接着结合强化学习与模仿学习,实现从"会做"到"做好"的策略优化,并通过人类反馈构建奖励模型,确保机器人行为符合人类偏好与安全约束。最后在仿真与实机循环中...
AI-调查研究-107-具身智能 强化学习与机器人训练数据格式解析:从状态-动作对到多模态轨迹标准
机器人与强化学习系统中的数据格式与开发流程,包括时间序列轨迹、状态-动作对、离线强化学习数据、多模态融合结构及元数据标注标准。时间序列轨迹以状态—动作—奖励序列形式构建,支持Transformer等模型的时空理解。
AI-调查研究-106-具身智能 机器人学习数据采集工具和手段:传感器、API、遥操作、仿真与真人示教全流程
现代数据采集的核心方法与应用场景,涵盖从手动录入、传感器采集、网络爬虫、API接口调用、日志采集到仿真与真人示教等十余种方式,系统阐述其在工业自动化、物联网、AI训练、机器人控制等领域的具体实现。
AI-调查研究-105-具身智能 机器人学习数据采集:从示范视频到状态-动作对的流程解析
数据采集是机器人学习开发流程的关键环节,涵盖示范视频采集、动作轨迹记录、状态-动作对生成与语言指令标注等步骤。通过录制专家演示视频(1080p以上、30fps稳定光照)并分割关键帧,可为模仿学习提供高质量视觉数据。
AI-调查研究-104-具身智能 从模型训练到机器人部署:ONNX、TensorRT、Triton全流程推理优化详解
推理部署与优化是从AI模型训练走向机器人应用的关键环节,其核心目标是实现高效、低延迟、跨平台的智能推理。通过ONNX标准化模型格式,可在PyTorch、TensorFlow等框架间无缝转换,实现CPU、GPU、TPU等多硬件平台兼容。NVIDIA TensorRT、Intel OpenVINO、ONNX Runtime等推理引擎提供算子融合、量化压缩、FP16/INT8/INT4低精度计算等...
AI-调查研究-103-具身智能 技术全景图 Isaac Gym、Habitat Open X-Embodimen...
机器人技术栈构成涵盖从硬件到算法的完整体系,是实现智能控制的核心基础。硬件层包括高性能计算单元(CPU、GPU、TPU)、边缘计算设备(Jetson、NUC)、感知传感器系统(RGB相机、激光雷达、IMU)与执行器系统(伺服电机,EtherCAT总线),构建出高精度感知与实时控制能力。软件层以ROS为核心中间件,结合G...
AI-调查研究-102-具身智能 智能机械臂、自动驾驶与人形机器人的模仿学习、强化学习与多模态融合趋势
不同类型的机器人在结构、任务和控制方式上差异巨大,因此AI算法的适配策略也需因地制宜。机械臂以高精度和重复性为核心,常用于工业制造和医疗操作。现代机械臂广泛采用模仿学习+强化学习结合的训练方式,通过人类示教与仿真微调实现毫米级操作精度。
AI-调查研究-101-具身智能 现代AI方法全解析:VLA、RT-1、RT-2、扩散模型 在机器人控制中的应用
现代AI机器人控制方法正在经历从强化学习、模仿学习到大模型驱动的多模态智能体的重大跃迁。特别是视觉-语言-动作模型(VLA)与扩散策略的结合,正在重塑机器人智能的边界。
AI-调查研究-100-具身智能 现代AI方法全解析:强化学习、模仿学习与Transformer在机器人控制中的应用
面向机器人控制的现代人工智能方法涵盖强化学习(RL)、模仿学习(IL)、以及基于Transformer的大模型方法。强化学习通过奖励信号驱动机器人试错学习;模仿学习通过专家演示快速获取策略;Transformer模型用于序列决策。
AI-调查研究-99-具身智能 融合感知技术全面解析(摄像头、LiDAR、IMU、雷达融合)
融合感知(Sensor Fusion)是自动驾驶、机器人和智能安防等领域的核心技术,通过摄像头、LiDAR、雷达、IMU、超声波等多传感器数据融合,实现更精准、更全面的环境感知。常见方法包括数据级融合、特征级融合和决策级融合。典型组合如视觉+雷达实现全天候探测,LiDAR+IMU提升定位精度,多摄像头融合实现360°全景感知。
AI-调查研究-98-具身智能 视觉SLAM详解:ORB-SLAM、RTAB-Map、VINS-Fusion核心技...
视觉SLAM(Visual SLAM)是一种不依赖LiDAR,仅使用摄像头实现自主定位和环境建图的技术。通过提取环境特征(角点、边缘、纹理),利用多视图几何计算相机轨迹,同时建立3D地图。
AI-调查研究-97-具身智能 SLAM算法对比与应用场景详解:Cartographer、LOAM、GMappin...
多传感器融合与SLAM是机器人感知与导航的核心技术。通过融合IMU、GPS、轮式里程计、激光雷达、视觉里程计等多源数据,机器人能够在复杂环境中实现高精度定位与实时建图。ROS生态中的robot_localization包是最常用的开源方案,支持EKF/UKF滤波器、多传感器输入和GPS全局定位。
AI-调查研究-96-具身智能 机器人场景测试全攻略:从极端环境到实时仿真
机器人场景测试全攻略,涵盖环境测试、负载测试、异常情况测试三大维度。传统手工测试存在效率低、难以复现的局限,自动化测试通过可编程性、可重复性显著提升覆盖率。实时仿真是核心手段,借助物理引擎可安全模拟危险场景。
AI-调查研究-95-具身智能 机器人场景测试全解析:从极端环境仿真到自动化故障注入
在机器人进入实际应用前,必须进行系统化的场景测试,涵盖极端天气、复杂地形、电磁干扰和突发状况等边界条件。传统手工测试覆盖率有限,而自动化测试与仿真技术可将罕见场景转化为可重复流程,大幅提升效率与安全性。