시장보고서
상품코드
1518884

DJI Automotive의 자율주행 사업 분석(2024년)

Analysis on DJI Automotives Autonomous Driving Business, 2024

발행일: | 리서치사: ResearchInChina | 페이지 정보: 영문 140 Pages | 배송안내 : 1-2일 (영업일 기준)

    
    
    



※ 본 상품은 영문 자료로 한글과 영문 목차에 불일치하는 내용이 있을 경우 영문을 우선합니다. 정확한 검토를 위해 영문 목차를 참고해주시기 바랍니다.

DJI Automotive의 조사: 독자적인 기술 경로로 NOA 시장을 선도합니다.

2016년 DJI 오토모티브의 사내 기술자들은 스테레오 센서 비전융합 위치추적 시스템 일체를 자동차에 장착하고 주행에 성공했으며, DJI 오토모티브가 드론 분야에서 축적해온 인식, 위치추적, 판단, 계획 등 기술을 지능형 운전 분야로 이전하는 데 성공했습니다.

DJI Automotive의 설립자 및 경영진은 거의 모두 DJI의 드론 프로젝트 출신이며, DJI Automotive의 설립 초기 멤버는 약 10명으로, 주로 DJI의 Flight Control Department와 Vision Department에서 일시적으로 이동한 대표들로 구성되었습니다.

DJI는 지능형 로봇 연구 전문 기업으로 드론과 자율주행차는 지능형 로봇의 다른 형태라고 주장하며, DJI는 독자적인 기술 경로를 통해 NOA의 대량 생산과 활용을 주도하고 있으며, DJI Automotive의 예측에 따르면, 2025년 약 200만 대의 승용차가 DJI Automotive의 지능형 주행 시스템을 탑재해 운행할 것으로 예상하고 있습니다.

스테레오 비전 센서의 지속적인 최적화

DJI Automotive의 핵심 기술 중 하나는 스테레오 비전으로, GPS와 같은 다른 센서가 고장 나더라도 스테레오 카메라의 시각적 인식을 기반으로 드론이 호버링, 장애물 회피, 속도 측정 등을 할 수 있습니다.

DJI 오토모티브는 스테레오 비전 기술을 자율주행차에 적용한 후, 다양한 자율주행 수준의 요구사항에 따라 스테레오 비전 센서를 지속적으로 최적화하고 있습니다.

2023년 NOA의 요구를 충족시키기 위해 DJI Automotive는 2 세대 관성 내비게이션 스테레오 비전 시스템을 출시했습니다. 이 시스템은 맞춤형 광학 편광판을 추가하여 전체 렌즈 후드를 제거하고 더 나은 자체 보정 알고리즘을 사용하여 단단한 연결 막대를 취소합니다. 이를 통해 센서 설치가 용이하고 두 카메라 사이의 거리를 180mm에서 400mm까지 유연하게 설정할 수 있습니다. 리지드 커넥팅로드를 없애는 것은 스테레오 비전 센서의 큰 발전이며, 더 많은 시나리오에서 스테레오 카메라를 사용할 수 있게 해줍니다.

L3 자율주행의 요구에 따라 DJI 오토모티브는 2024년 LiDAR, 스테레오 센서, 장초점 모노 카메라, 관성 네비게이션이 결합된 LiDAR 비전 시스템을 발표했습니다. 현재 시장에서 흔히 볼 수 있는 'LiDAR 전면 카메라' 솔루션과 비교했을 때, 이 시스템은 모든 기능을 100% 대체하면서도 비용을 30-40% 절감할 수 있습니다. 통합 설계 덕분에 "LiDAR-vision" 솔루션은 전체 캐빈에 통합할 수 있어 전체 장착 비용을 절감할 수 있습니다.

"LiDAR-vision" 솔루션은 차량 종방향 제어의 안전성을 더욱 향상시킬 수 있으며, LiDAR의 정확한 거리 측정 능력과 조명에 대한 견고성으로 인해 "LiDAR-vision" 솔루션은 근거리 컷인, 도심의 복잡한 교통 흐름, 교통 약자(VRU)(VRU) 대응, 임의 장애물 회피, 우회, 야간 VRU 등의 시나리오에서 지능형 주행 시스템의 안전성과 편의성을 더욱 향상시킬 수 있습니다.

데이터 수집 및 시뮬레이션에 드론 기술 사용

세 가지 자율주행 데이터 수집 방법 중 차량에 의한 수집이 가장 일반적이지만, 유효 데이터 비율이 낮고 주변 차량의 실제 동작을 방해하기 쉬우며, 센서의 사각지대에 있는 데이터를 기록할 수 없습니다. 또 다른 방법은 현장 수집이지만, 유연성이 낮고 신뢰성이 떨어집니다.

RWTH 아헨 대학의 자동차 기술 연구 기관인 fka의 면밀한 조사와 DJI Automotive의 지난 2 년간의 실습에 따르면 드론을 이용한 항공 측량 데이터 수집에는 분명한 장점이 있습니다. 드론은 더 풍부하고 완전한 시나리오 데이터를 수집할 수 있고, 대상 차량의 사각지대에 있는 모든 차량의 항공 촬영 객관적 사진을 장애물 없이 직접 수집할 수 있으며, 보다 현실적이고 간섭이 없는 인간의 운전 행동을 반영할 수 있고, 특정 도로 구간이나 특수한 운전 시나리오, 예를 들어 온/오프 램프나 빈번한 컷인 등 특정 도로 구간이나 특수한 운전 시나리오에서 보다 효율적으로 데이터를 수집할 수 있습니다.

이 보고서는 DJI Automotive의 자율주행 사업에 대한 조사 및 분석을 통해 DJI Automotive의 핵심 기술, 솔루션, 개발 동향 등에 대한 정보를 제공합니다.

목차

제1장 개요

  • 개요
  • 개발 역사
  • 모든 시나리오의 지능형 주행 사용자 저니 맵
  • 제품 레이아웃(1)
  • 제품 레이아웃(2)
  • 제품 레이아웃(3)
  • 첨단 지능형 주행 진화 동향에 관한 DJI의 판단

제2장 코어 기술

  • 관성 항법 스테레오 비전 : 제2세대까지 개발
  • 입체시 인식 기술(1)
  • 입체시 인식 기술(2)
  • 비전 센서간 파라미터 비교
  • LiDAR-vision 시스템과 사양
  • 지능형 주행 도메인 컨트롤러
  • 도메인 컨트롤러 미들웨어
  • Lingxi Intelligent Driving System 2.0
  • BEV 인식 기술

제3장 지능형 주행 솔루션

  • 지능형 주행 솔루션
  • 솔루션 1
  • 솔루션 2
  • 솔루션 3
  • 솔루션 4
  • 솔루션 5
  • 솔루션 6
  • 솔루션 비교 : 주차 기능과 센서 구성
  • 솔루션 비교 : 드라이빙 기능과 센서 구성
  • Lingxi Intelligent Driving 기술 루트

제4장 DJI Automotive 지능형 주행 솔루션 양산과 응용

  • 응용 사례 1
  • 응용 사례 2
  • 응용 사례 3
  • Baojun Yunduo용 Lingxi Intelligent Driving 2.0
  • 응용 사례 4
  • 응용 사례 5

제5장 DJI Automotive가 NOA 시스템을 개발하는 방법

  • DJI Automotive의 NOA 솔루션 도입
  • 세계 비전 인식 루트를 선택하는 방법
  • 환경 인식과 예측 능력을 확립하는 방법
  • 고정도 로컬 자세 추정 기능을 확립하는 방법
  • DJI Automotive NOA를 실현하는 알고리즘과 모델
  • DJI Automotive가 NOA를 실현하는 방법(1)
  • DJI Automotive가 NOA를 실현하는 방법(2)
  • DJI Automotive가 NOA를 실현하는 방법(3)
  • DJI Automotive가 NOA를 실현하는 방법(4)
  • DJI Automotive가 NOA를 실현하는 방법(5)
  • DJI Automotive가 NOA를 실현하는 방법(6)
  • DJI Automotive가 NOA를 실현하는 방법(7)
  • DJI Automotive가 NOA를 실현하는 방법(8)
  • DJI Automotive가 NOA를 실현하는 방법(9)
  • DJI Automotive가 NOA를 실현하는 방법(10)
  • DJI Automotive가 NOA를 실현하는 방법(11)
  • 신뢰성을 확보하는 방법
LSH 24.07.30

Research on DJI Automotive: lead the NOA market by virtue of unique technology route.

In 2016, DJI Automotive's internal technicians installed a set of stereo sensors + vision fusion positioning system into a car and made it run successfully. DJI Automotive's technologies such as perception, positioning, decision and planning accumulated in the drone field have been successfully transferred to intelligent driving field.

Almost all founding and management team members of DJI Automotive came from DJI's drone projects. DJI Automotive had only about 10 members at the beginning, mainly composed of representatives temporarily transferred from the Flight Control Department and Vision Department of DJI at that time.

DJI claims that it is a company specializing in the research of intelligent robots, and drones and autonomous vehicles are different forms of intelligent robots. Relying on its unique technology route, DJI holds lead in the mass production and application of NOA. By DJI Automotive's estimates, around 2 million passenger cars taking to road will be equipped with DJI Automotive's intelligent driving systems in 2025.

Continuously optimize stereo vision sensors

One of the core technologies of DJI Automotive is stereo vision. Even when other sensors like GPS fail, based on visual perception of the stereo camera, drones can still enable hovering, obstacle avoidance, and speed measurement among others.

After applying stereo vision technology to autonomous vehicles, DJI Automotive continues to optimize stereo vision sensors according to requirements of different autonomous driving levels.

In 2023, to meet the needs of NOA, DJI Automotive launched the second-generation inertial navigation stereo vision system, which eliminates the overall lens hood by adding a customized optical polarizer and cancels the rigid connecting rod using a better self-calibration algorithm. This makes it easier to install the sensor, and the distance between two cameras can be flexibly configured from 180 mm to 400 mm. Elimination of the rigid connecting rod is a huge progress in stereo vision sensors, allowing stereo cameras to be applied in much more scenarios.

Based on the needs of L3 autonomous driving, in 2024 DJI Automotive introduced a LiDAR-vision system, which combines LiDAR, stereo sensor, long-focus mono camera and inertial navigation. Compared with the currently common "LiDAR + front camera" solution on the market, the system can reduce the costs by 30% to 40%, while enabling 100% performance and replacing all the functions. Thanks to the integrated design, the "LiDAR-vision" solution can also be built into the cabin as a whole, reducing the overall installation costs.

The "LiDAR-vision" solution can further enhance safety in vehicle longitudinal control. Thanks to LiDAR's precise ranging capabilities and robustness to illumination, the "LiDAR-vision" solution can further improve safety and comfort of intelligent driving system in such scenarios as cut-in at close range, complex traffic flow in urban areas, response to vulnerable road users (VRU), arbitrary obstacle avoidance, detour, and VRU at night.

Use drone technologies for data acquisition and simulation

Among the three autonomous driving data acquisition methods, acquisition by vehicles is the most common, but the proportion of effective data is low, and it is easy to interfere with real behaviors of surrounding vehicles, and it is unable to record data in blind spots of sensors. Another method is acquisition in field, with low flexibility and insufficient reliability, a result of angle skew and low image accuracy.

According to the in-depth research by fka, the automotive technology research institute of RWTH Aachen University, and DJI Automotive's own practices in the past two years, aerial survey data acquisition by drones has obvious advantages. Drones can collect richer and more complete scenario data, and can directly collect aerial objective shots of all vehicles in blind spots of the target vehicle without obstruction, reflecting more realistic and interference-free human driving behaviors, and more efficiently collecting data in specific road sections and special driving scenarios, for example, on/off-ramps and frequent cut-ins.

Why does the implementation of vision-only autonomous driving suddenly accelerate?

Why has the pace of implementing vision-only technology solutions suddenly quicken since 2024? The answer is foundation models. The research shows that a truly autonomous driving system needs at least about 17 billion kilometers of road verification before being production-ready. The reason is that even if the existing technology can handle more than 95% of common driving scenarios, problems may still occur in the remaining 5% corner cases.

Generally, learning a new corner case requires collecting more than 10,000 samples, and the entire cycle is more than 2 weeks. Even if a team has 100 autonomous vehicles conducting road tests 24 hours a day, the time required to accumulate data is measured in "hundred years" - which is obviously unrealistic.

Foundation models are used to quickly restore real scenarios and generate corner cases in various complex scenarios for model training. Foundation models (such as Pangu model) can shorten the closed-loop cycle of autonomous driving corner cases from more than two weeks to two days.

Currently, DJI Automotive, Baidu, PhiGent Robotics, GAC, Tesla and Megvii among others have launched their vision-only autonomous driving solutions. This weekly report summarizes and analyzes vision-only autonomous driving routes.

Table of Contents

1 Overview

  • 1.1 Profile
  • 1.2 Team
  • 1.3 Development History
  • 1.4 All-scenario Intelligent Driving User Journey Map
  • 1.5 Products Layout (1)
  • 1.6 Products Layout (2)
  • 1.7 Products Layout (3)
  • 1.8 DJI's Judgment on Evolution Trends of High-level Intelligent Driving

2 Core Technologies

  • 2.1 Inertial Navigation Stereo Vision: Developed to the 2nd Generation
  • 2.2 Stereo Vision Perception Technology (1)
  • 2.3 Stereo Vision Perception Technology (2)
  • 2.4 Parameter Comparison between Vision Sensors
  • 2.5 LiDAR-vision System and Specifications
  • 2.6 Intelligent Driving Domain Controller
  • 2.7 Domain Controller Middleware
  • 2.8 Lingxi Intelligent Driving System 2.0
  • 2.9 BEV Perception Technology

3 Intelligent Driving Solutions

  • 3.1 Intelligent Driving Solutions
  • 3.2 Solution 1
  • 3.3 Solution 2
  • 3.4 Solution 3
  • 3.5 Solution 4
  • 3.6 Solution 5
  • 3.7 Solution 6
  • 3.8 Solution Comparison: Parking Functions and Sensor Configurations
  • 3.9 Solution Comparison: Driving Functions and Sensor Configurations
  • 3.10 Lingxi Intelligent Driving Technology Route

4 Mass Production and Application of DJI Automotive's Intelligent Driving Solutions

  • 4.1 Application Case 1
  • 4.2 Application Case 2
  • 4.3 Application Case 3
  • 4.4 Lingxi Intelligent Driving 2.0 for Baojun Yunduo
  • 4.5 Application Case 4
  • 4.6 Application Case 5

5 How Dose DJI Automotive Develop NOA System?

  • 5.1 Introduction to DJI Automotive's NOA Solution
  • 5.2 How to Choose Perception Routes for Global Vision
  • 5.3 How to Establish Environment Perception and Prediction Capabilities
  • 5.4 How to Establish High-precision Local Pose Estimation Capabilities
  • 5.5 DJI Automotive's Algorithms and Models to Enable NOA
  • 5.6 How DJI Automotive Realizes NOA (1)
  • 5.7 How DJI Automotive Realizes NOA (2)
  • 5.8 How DJI Automotive Realizes NOA (3)
  • 5.9 How DJI Automotive Realizes NOA (4)
  • 5.10 How DJI Automotive Realizes NOA (5)
  • 5.11 How DJI Automotive Realizes NOA (6)
  • 5.12 How DJI Automotive Realizes NOA (7)
  • 5.13 How DJI Automotive Realizes NOA (8)
  • 5.14 How DJI Automotive Realizes NOA (9)
  • 5.15 How DJI Automotive Realizes NOA (10)
  • 5.16 How DJI Automotive Realizes NOA (11)
  • 5.17 How to Ensure Reliability
샘플 요청 목록
0 건의 상품을 선택 중
목록 보기
전체삭제