{{{#!wiki style="margin: 0 -10px -5px;" {{{#!folding [ 펼치기 · 접기 ] {{{#!wiki style="margin: -6px -1px -11px" |
<colbgcolor=#e91b22><colcolor=#fff> 차량 목록 |
생산 차량 | <colbgcolor=#ffffff,#1c1d1f> 모델 S · 모델 3 · 모델 X · 모델 Y |
로드스터 · 사이버트럭 · 세미 · 사이버쿼드 | |||
사이버캡 · 사이버밴 | |||
개발 협력 차량 | 토요타 라브4 EV · 메르세데스-벤츠 A클래스 E-셀 · 메르세데스-벤츠 B클래스 일렉트릭 드라이브 · 스마트 포투 일렉트릭 드라이브 | ||
기술 | |||
관련 문서 | }}}}}}}}} |
2020년 FSD-Beta 개발자용 영상 [1] |
|
2020년 FSD-Beta 영상 |
|
2023년 FSD-Beta 영상 |
1. 개요
1.1. 역사
2. 주행 단계2.1. 오토파일럿(Autopilot)2.2. 향상된 오토파일럿(Enhanced Autopilot)2.3. 풀 셀프-드라이빙 구현 기능(Full Self Driving Capability)
3. 개발 원리4. 관련 인물5. 기능 개선 및 개발6. 평가 및 안전도7. 특징8. FSD베타 개선 이력9. 일론 머스크의 중고차 가격 상승 주장10. 비판11. 기타12. 지원 자동차13. FSD 라이선스14. FSD 출시 국가14.1. 대한민국 출시 현황
15. 관련 문서 및 링크[clearfix]
1. 개요
오토파일럿은 테슬라 차량에 탑재된 2단계 자율주행 ADAS이다. 향후 FSD로의 탈바꿈을 통해 자율주행 자동차 5단계에 해당되는 '운전자 없는 자동차를 주행' 하는 것을 목표로 하고 있다.1.1. 역사
2010년대 초중반 일론 머스크는 구글과 협력하여 자율주행 시스템을 개발하는 방안을 래리 페이지와 의논한 적이 있다. 하지만 딥마인드 인수건과 일리야 수츠케버 헤드헌팅 건으로 둘의 사이에 균열이 일어나자 그는 독자 자율주행 시스템 개발 방향으로 노선을 틀고 오토파일럿 팀에 힘을 싣어주게 된다. 사내 엔지니어들 대다수가 클라우드 포인트 데이터를 활용한 고정밀 지도 방식의 개발을 지향한 반면 머스크는 인체구조와 같은 원리로 카메라만으로 시스템을 개발해야된다고 주장하며 장기간 줄다리기를 벌인다. 이후 머스크가 일단 수긍하여 모빌아이의 EyeQ3 플랫폼을 사용하는 HW 1.0에서는 카메라 외에 초음파센서와 레이더까지 탑재한다.2016년에는 몇 차례 오토파일럿 탑승자의 사망 사고가 발생한 이후 HW2.0으로 업그레이드하면서 플랫폼을 모빌아이에서 엔비디아로 갈아탄다. 동시에 짐 켈러와 피트 배넌이 이끄는 팀은 자체 칩 개발을 시작하며 플랫폼 독립 준비에 매진한다.
2017년에 OpenAI에서 안드레 카파시가 합류한 이후부터는 카메라로 뽑아낸 데이터만으로도 고정밀 지도 방식의 성능을 추월하는 수준의 성능을 내게 되며 카메라만 쓰는 방식을 거듭 주장했던 머스크를 만족시킨다.[2]
2021년, 활성화된 오토파일럿 기능은 운전자의 적극적인 제어가 필요하며 자율주행 레벨 5가 아닌 자율주행 레벨 2에 해당한다. 이 기능을 활성화하고 실제로 사용하기까지 수십억 마일의 주행 테스트를 통해 차량의 자율주행 능력이 운전자의 주행 능력보다 앞선다는 신뢰성과 규제 기관의 승인에 달려 있으며 일부 관할권에서는 규제 승인이 더 오래 걸릴 수 있다고 한다. 이미 음주운전등을 하는 운전자보다는 안전하다고도 볼 수 있다. 더 안전한 운전을 위해 자율주행 기능이 진화함에 따라 차량도 OTA를 통해 지속적으로 업그레이드 될 예정이다.[3]
웨이모가 2020년 초에 1,000여대의 자동차를 통해서 약 2천만마일(약 3천 200만km)의 실제 도로 데이터를 축적하고 있는 것으로 발표한 가운데[4], 테슬라는 100만대 이상의 자동차 중 80만대가 넘는 HW2.0 이상의 테슬라 자동차를 크라우드소싱하여, 하루만에 웨이모의의 전체 데이터 이상의 실도로 데이터를 수집할 수 있다. 같은 시기 테슬라는 30억마일(48억km)의 실도로 주행 데이터를 가지고 있다.[a]
- 2020년 2월까지 테슬라 오토파일럿의 운행거리 및 데이터의 축적량은 다음과 같다.
- 오토파일럿 총 도로운행 거리: 30억 마일(48억km)
- 오토파일럿 내비게이션: 10억 마일(16억km)
- 자율 차로 변경: 20만회
- 운행 국가: 50개국이상
- 스마트 서몬 (스마트 차량 호출): 120만회
- 자율 비상 브레이크: 전 테슬라 차량중 하루 수십-수백회 가량
2020년 4월 인터뷰에 따르면 테슬라는 최근에 자율주행 프로그램의 기반을 다시 작성하여[6] 거의 완성됐다고 했으며, 7월에는 2-4개월안에 많은 새로운 기능이 선보일 것으로 언급됐으며[7], 8월에는 6~10주안에 큰 진전을 이룬 버전을 제한 배포(EAP; 조기 체험 프로그램)하게 될 것으로 언급됐다.[8]
2020년 9월 22일 배터리데이에서 1개월 안으로(2020년 10월 부근) 오토파일럿을 자율주행 5단계인 완전자율주행 능력을 갖춘 버전으로 업데이트(베타 테스트 형태)를 내놓을 것을 발표했다.
2020년 10월에 FSD 베타 버전이 일부 선별된 유저들에게 배포되어 구동 영상이 인터넷에 유출됐다. 영상을 통해 비보호 좌회전과 우회전이 가능하며, 회전 교차로도 통과할 수 있는 것으로 확인됐다.
일론 머스크가 트위터로 2분기부터 FSD 구독 서비스를 출시할것이라 밝혔으며, 2021년 7월 마침내 구독 형태의 요금제가 새로 출시됐다. 가격은 월 99/199 달러.
같은해 11월, 미국 전역에 FSD 베타가 배포됐다.
2023년 1분기 기준으로 FSD 베타 누적 운행거리가 1.3억 마일을 돌파했다. 40만대의 차량이 FSD 베타를 사용하고 있다.
2023년 2분기 어닝콜에서 기존 고객이 신규 차량을 구입했을 시 1회에 한해 FSD를 이전시켜줄 것을 공언했으며, 타사에 FSD를 라이선싱하는 것 또한 고려하고 있다고 한다.
2023년 7월 FSD 베타 누적 운행거리가 3억 마일을 돌파했다.
2023년 12월 FSD 베타 누적 운행거리 7억 마일을 돌파했다.
2024년 10월 We, ROBOT 행사에서 2025년 안으로 텍사스와 캘리포니아를 시작으로 비지도학습 FSD 출시를 예고했다.
2. 주행 단계
테슬라는 ADAS 기능들을 오토파일럿(Autopilot), 향상된 오토파일럿(Enhanced Autopilot), 풀 셀프 드라이빙 구현 기능(FSD; Full Self Driving Capability)로 나누어서 구분하고, "향상된 오토파일럿"과 "풀 셀프 드라이빙 구현 기능"은 별도의 추가 비용을 받고 옵션으로서 판매하고 있다. 이런 옵션들을 구매하지 않아도 하드웨어적으로는 자율주행 레벨 5를 위한 하드웨어 기능이 자동차에 장착되어 구매후 소프트웨어 구매로 옵션 기능이 업그레이드될 수 있다. 아직은 소프트웨어가 완성되지 않아 자율주행 레벨 5가 가능하지 않다. 이후 테슬라 소프트웨어 업데이트를 통해서 뒤에 열거된 자율주행 기능들이 완성되어 각 국가의 법에 따라, 자율주행 레벨 5가 가능해질 예정이다. 그전까지는 크루즈 컨트롤처럼 운전중에 운전자가 모든 상황을 계속 관찰하다가 문제가 있을 경우, 수동 운전으로 전환하여 상황을 운전자가 제어해야 한다.따라서 모든 자율주행 레벨 5가 완성되어 출시되기 전까지는 아직 완전 무인운전이 가능하지 않는다. 속도를 자동으로 유지해 주는 크루즈 컨트롤처럼 자동으로 속도와 조향 방향을 조정해 주지만, 운전자는 항상 상황을 주시하며 필요한 경우 운전대를 꺾거나 브레이크를 밟으면 오토파일럿 모드가 해제되면서(혹은 자율주행 스틱으로 직접 해제할 수 있다) 운전 상황을 운전자가 스스로 통제할 수 있게 된다.
2.1. 오토파일럿(Autopilot)
2019년 3월 이후부터는 테슬라 자동차에는 다음의 ADAS 기능이 추가비용 없이 기본으로 포함되어 있다.[9]- 교통 인식 크루즈 컨트롤(Traffic Aware Cruise Control)
- 지정된 최고 속도로 운행하며 앞차와 간격이 가까워지면 속도를 줄이거나 정차. 앞차와 간격이 늘어나면 다시 최고 속도까지 가속
- 오토스티어(Autosteer)
- 현재의 차로를 계속 유지하면서 운행
-
인접 차로 자동차 관찰 기능 출시(2019.40.2)
2.2. 향상된 오토파일럿(Enhanced Autopilot)
향상된 오토파일럿(Enhanced Autopilot) 옵션은 2019년 2월 이전 미국, 2022년 6월 이후 한국 등의 국가에서 출시된 기능이다. 한국 가격은 452.2만원이며, 구매한 경우 다음 기능을 사용할 수 있다.- 자동 차로 변경(Auto Lane Change)[10]
- 센서 혹은 측면 카메라로 옆 차로의 공간을 확인하여 차로 변경
- 오토파일럿 내비게이션 고속도로(Navigation on Autopilot on the highway)[11]
- 고속도로 진입로에서 나들목, 진출로까지 자율주행
- 2019.8.x 부터 운전자 명시적 재가 없이 차로 변경 기능 추가[12]
- 오토파크(Autopark)
- 평행주차, 직렬주차
- 차량 호출(Summon; 서몬)
- 주자창에서 무인 단거리 직진 전진, 후진
- 스마트 호출(Smart Summon; 스마트 서몬, 스마트 차량 호출)
2.3. 풀 셀프-드라이빙 구현 기능(Full Self Driving Capability)
오해하지 말아야 할 것이, 현재 대한민국은 FSD 미출시 국가다.[14][15] 한마디로 EAP를 구매하든, FSD를 구매하든 차이가 없다. 구매할 때 크게 주의할 것. 간혹 FSD에 경우, 신모델을 구매할 때 계정 이전을 해주는 경우는 있다.2016년도 이후 HW2 차량 구매자가 풀 셀프-드라이빙 구현 기능(FSD)옵션을 구매하면 다음 기능을 사용할 수 있게 된다.[16] 테슬라 FSD 컴퓨터
일시불 구매 가격: 미국 $8,000 한국 904.3만원(향상된 오토파일럿 구매자는 그 차액[17])
월정액 구독 가격: $99(미국)
- 신호등 및 정지 표지판 인식(Traffic Light and Stop Sign Recognition)
- 2019년 말 HW3 자동차에서 출시 (한국미출시)
- 2020년 4월 HW2/HW2.5 + MCU2 자동차에서 출시
- 신호등, 정지선, 일단 멈춤 표지판, 좌회전/우회전/철도건널목/마름모/자전거 전용 도로 표면 표지 인식/시각화
- 교통 장애물(대형 쓰레기통, 공사콘, 공사드럼통) 인식/시각화
- 장애인 주차 표식 인식/시각화
- 신호등 및 정지 표지판 제어(Traffic Light and Stop Sign Control)
- 1단계: 2020년 4월 출시(미국) - 모든 교차로, 일시정지 표지판, 횡단보도에서 정차를 시도하고 운전자가 가속을 하면 진행
- 2단계: 2020년 6월 출시(미국) - 선행 차량이 있는 녹색 신호에서 운전자의 입력 없이 자동으로 교차로 통과
- 3단계: 2020년 10월 출시(미국) - 선행 차량 없이 녹색 신호에서 자동으로 교차로 통과
- 오토파일럿 내비게이션 시내 주행(Navigation on Autopilot in city streets)
- (미출시) 스마트 오토파크(Smart Autopark)
- 공식 홈페이지에서 언급은 없으나 트위터에서 일론 머스크가 주차장의 시간이나 사용 규칙등을 확인하여 빈공간을 무인으로 스스로 찾아서 주차하는 기능으로 설명하고 있다.
3. 개발 원리
크게, 운전자의 차량 내에서 자체적으로 실시간 처리를 하는 추론 플랫폼과 오프라인이지만 자체 데이터센터와 슈퍼컴퓨터를 기반으로 막대한 데이터를 넣어 매개변수를 높여가며 학습한 뒤 OTA로 추론 플랫폼에 업데이트를 지원하기 위한 학습 플랫폼으로 나누어 볼 수 있다.3.1. 추론 플랫폼
|
차량 탑재 센서 범위 |
비전 인식을 위한 차선 구분, 객체 구분 등의 작업은 본래 수작업으로 이루어졌으나 2020년대에 들어서는 자동 라벨링되고 있는 추세이다.[22]
3.1.1. 네트워크
|
점유 네트워크 |
우선 위치에 따라 차이가 있는 각각의 카메라 특성을 제거하기 위해 간단한 정규화 과정을 거친 데이터들은 RegNet과 BiFPN이라는
인공 신경망을 통해 이미지의 반복적 특징을 추출하고, 데이터를 합성한다. 여기에 쿼리 기반
어텐션 신경망을 더해, 이미지 인코딩으로 3차원 위치 정보를 얻어 규정된 쿼리로 맵핑하면 실시간으로 공간상에
3차원 점유정보가 담긴
벡터
네트워크[23]가 생성된다. 이를 통해 객체 구분이 가능해지고, 점유 확률을 예측하여 주행의 기반을 만들어내는 행위가 가능해진다. 여기서 카메라의 태생적 한계를 보조하기 위해 NeRF로 RGB와 3차원 이미지를
렌더링으로 재구성하여 감시하는 시스템을 더하여 안정성을 높인다.
|
차선 네트워크 |
앞선 점유 네트워크를 기반으로 차선 네트워크와 객체 네트워크를 생성할 수 있는데, 우선 차선 네트워크는 점유 네트워크에다 지도 데이터를 더해 차선 연결을 부호화한 특수 언어를 생성한다. 격자점상으로 가능한 모든 곳에 좌표를 생성하고 여러 좌표들을 이어서 선을 만들어 차선을 생성한다.
|
객체 네트워크 |
객체 네트워크는 점유 네트워크에다 속도, 가속도, 위치 등의 운동 데이터까지 처리하여 타객체의 경로를 예측하는 데 쓰인다. 언급한 네트워크 외에도 수 십 가지 이상의 짜잘한 네트워크가 인공 신경망을 통해 생성된다.
3.1.2. 경로 계획
|
경로 계획 |
앞선 네트워크들을 기반으로, 가벼운 쿼리 신경망을 추가하여 최종적인 최적화 신경망을 구축한다. 벡터 공간 상에 수 백가지 후보 경로중에 하나를 선택하고 액추에이터를 제어하여 물체감지, 신호감지, 차선변경 등의 기능이 동작 가능해지면, 비로소
ADAS와
자율주행을 사용할 수 있게 된다.[24]
이러한 모든 추론 과정은 개별 차량에 내재된 FSD칩[25]을 필두로 구성된 FSD컴퓨터를 통해 실행된다. 장기적으로는 완전자율주행을 지향하기 때문에 자체 데이터센터에서 보관되고 상시로 슈퍼컴퓨터 학습되고 있는 학습 플랫폼의 결과물을
OTA를 통해 업그레이드 해준다. 하드웨어의 업그레이드가 더 필요하게 된다면, FSD 패키지를 구매한 사용자의 경우 자율주행 레벨 5가 가능할 때까지 무료로 업그레이드해 줄 것을 약속하고 있다.[26]3.1.3. 하드웨어
HW0 | HW1 | HW2 | HW2.5 | HW3 | 위치/기타 | ||
출시 | 2012년 | 2014년 | 2016년 10월 | 2017년 8월 | 2019년 4월 | ||
판매차량수[27] | 45,624 | 132,538 | 61,004 | 356,168 | 1,740,553[28] | ||
센서 | |||||||
전방카메라 | 없음 | 1개(흑백) | 3개(광각 60m, 주 150m, 망원 250m) | 전면유리상단 | |||
후방카메라 | 없음 | 1개[29] | 1개[30] 50m | 후면번호판위 | |||
측전방카메라 | 없음 | 좌, 우 각각 80m | B필러 | ||||
측후방카메라 | 없음 | 좌, 우 각각 100m | 전방펜더 리피터 | ||||
내부 카메라 | 없음 | 1개[31] | 룸미러 위 | ||||
|
없음 | 12개 5m | 12개 8m | 전후 범퍼 | |||
|
없음 | 보쉬 160m | 컨티넨탈 170m | 전면범퍼[34] | |||
컴퓨터 | |||||||
플랫폼 | 없음 | 모빌아이 EyeQ3 | 엔비디아 드라이브 PX 2 | 테슬라 FSD | 글러브 박스 뒤편 | ||
노드 수 | 1 | 2 | |||||
RAM | 256 MB | 6 GB | 8 GB | 8 GB x 2 | |||
초당 프레임 처리 | 36 | 110 | 110 | 2300 | |||
업그레이드 | 불가 | FSD구매자 HW3으로 업글 | |||||
세부 기능 | |||||||
운전상황 시각화 | X | X | O | O | O | ||
(비상) 차로 이탈 방지 | X | X | O | O | O | ||
교통 인식 크루즈 컨트롤 | X | O | O | O | O | ||
오토스티어 | X | O | O | O | O | ||
자동 차로 변경 | X | O[수동] | O | O | O | ||
오토파크 | X | X | O | O | O | 직렬 평행 | |
차량 호출 | X | X | O | O | O | ||
내비게이션 온 오토파일럿 | X | X | O | O | O | ||
스마트 서몬 | X | X | O | O | O | ||
스마트 오토파크 | X | X | ? | O | O | 미출시 | |
빨간불/일단멈춤 경고 | X | X | X | O[s] | O | ||
교통 요소 인식/시각화 | X | X | O[t] | O[38] | |||
신호등/멈춤 제어[39] | X | X | X | X | O | 2020년 4월 출시[40] | |
녹색 신호 통과 | X | X | X | X | O | 2020년 6월 출시[41] | |
시내 주행[42] | X | X | X | X | O | 공개베타 | |
관련 편의기능 | |||||||
센트리 모드 | X | X | O[녹화없음] | O | O | ||
블랙박스 | X | X | X | O | O | 전후좌우4개채널 |
FSD 구매자, '향상된 오토파일럿'[EA] 구매자, 2019년 3월 이후 모든 구매자에게 제공 | |
FSD 구매자와 '향상된 오토파일럿'[EA] 구매자에게 제공 | |
FSD 구매자에게만 제공[46] |
3.1.3.1. HW2.5
2017년 8월 이후 생산된 모델 S, 모델 X와 모든 2019년 4월 이전 생산된 모델 3 자동차들은 2개의 메인칩셋이 들어간 엔비디아 드라이브 PX 2 플랫폼을 사용한 HW2.5가 장착되어 있다. 성능의 제한으로 인해 카메라들의 해상도를 절반만 사용하고 있으며, FSD 옵션을 구입한 차주들에게는 서비스 센터 혹은 방문없이 모바일 서비스를[47] 통해 무료로 하드웨어 업그레이드를 해준다[48]. HW3.0 업그레이드는 글러브 박스부분을 통해 간단한 보드 교체로 가능하다. 2019년 9월 중순부터 FSD를 구매한 차주의 모델 S, 모델 X들이 HW3.0로 업그레이드가 시작됐다.3.1.3.2. HW3.0
2016년 2월부터 짐 켈러와 피트 배넌이 이끄는 팀에서 자체 FSD칩 설계에 돌입한 이래로 3년만인 2019년 4월 10일, 모델3를 시작으로 엔비디아 플랫폼에서 벗어나 FSD칩을 기반으로 하는 FSD컴퓨터를 탑재하기 시작했다. 14nm의 비교적 구식 공정으로 생산됨에도 HW2.5대비 21배 정도 빠른 프레임 처리 성능을 보인다고 한다.[49][50]
|
FSD컴퓨터 구조 |
하나가 고장나도 안정적인 주행이 가능하도록 FSD컴퓨터에는 운영체제가 별개로 작동하는 두 개의 FSD칩을 탑재하는데, 하나의 FSD칩은 한 개의 ARM Cortex A-72 CPU가 2.26GHz의 클럭 스피드로 동작하며, ReLU 함수 기반의 NPU 두 개가 도합 144W 소비전력과 72TOPS로 전처리를 위한 알고리즘을 추론 연산한다.[51]
그 외에 후처리를 위한 한 개의 GPU[52], 안전시스템[53], 보안시스템[54], 카메라직렬인터페이스[55], 비디오인코더, ISP[56], LPDDR4 등 9개 요소로 구성되어 있다. NPU부터 GPU, RAM까지 전부 전성비와 낮은 레이턴시를 우선시한 모습을 옅볼 수 있다.
2020년 판매되고 있는 테슬라 모델 Y의 칩의 부품명은 HW3.1로 표기되고 있으나, 기능의 차이는 없고 네트워크 포트만 다른 것으로 보여지고 있다.
3.1.3.3. HW4.0
정확한 버전명이 공개되지 않은 다음 세대의 FSD 칩은 2021년 이후로 계획되고 있으며 HW3.0보다 약 3배가량 더 낫다고 한다.[at]테슬라 커뮤니티에서 교환되는 의견들을 종합하면, 제작 비용 절감, 사용 전력량 감축 등 새로운 기능의 추가보다는 성능의 증가로 예측하고 있다.
2020년 8월 브로드컴과 테슬라가 함께 디자인한 칩을 TSMC의 7nm 공정으로 2020년 4분기에 2000개의 웨이퍼를 시험 생산하고 2021년 4분기에 대량 생산하는 일정이 있다고 한다.[58]
2022년 3월 테슬라의 SW정보를 분석하는 트위터 사용자 "greentheonly"에 따르면 출시된 FSD Beta 10.11 소프트웨어 HW4.0을 지칭하는 코드를 발견했다고 한다.[59] 관련된 트윗에언급된 정보에 따르면 카메라는 1.2메가픽셀에서 5.4메가픽셀(Sony IMG 490)로 확장되고 led flicker mitigation등의 개선, 확장된 해상도와 화각으로 전방 카메라는 3개에서 2개로 줄고, 메모리(RAM)과 컴퓨팅파워가 확장될 것이라고 한다.
테슬라의 HW4.0 의 주요 CPU는 여전히 엑시노스를 사용한다. 기존에 알려진 사항보다는 성능 향상도가 낮지만, 해당 엑시노스는 과거 12개의 코어를 사용하던 것에서 20개의 코어로 늘어났으며 최대 2.35GHz 클럭으로 실행되며 아이들시 1.37GHz 클럭으로 실행된다. TRIP 코어 수가 2개에서 3개로 증가 했으며 최대 2.2GHz 클럭으로 실행된다. 보드당 2개의 SoC가 있으므로 최대 2.2GHz x2가 제공된다. 또, 테슬라는 HW4 인포테인먼트 시스템을 단순화하기 위해 GPU 도터보드를 제거하면서 전체적으로 더 얇게 구현한 것으로 알려졌다. 카메라의 경우 현재 사용되는 8개의 카메라의 수보다 더 많은 양의 카메라인 12개의 카메라 장착이 될 것이며, 앞 범퍼와 뒷 범퍼에도 달려 있을 예정이다. # # #
더불어 레이더 센서가 통합이 됐으며 이 통합된 레이더에는 새로운 레이더가 장착 것으로 보인다. 과거 일론 머스크는 "초고해상도 레이더가 순수한 비전보다 낫겠지만 그러한 레이더는 존재하지 않습니다. 내 말은 고해상도 레이더를 사용한 비전이 순수한 비전보다 낫다"라면서 초고해상도 레이더가 있고 그것이 유용하다면 쓸 것이라고 이야기를 했고, 기존의 2배 이상의 효율을 가진 4D 레이더가 들어갈 것으로 보인다. 하지만, 이것을 도입한다고 기존의 레이더 장치의 재 활성화는 그리 가능성이 없다. 2021년의 레이더 제거 조치는 대봉쇄로 인해 부품 수급에 차질이 생기면서 결단한 조치였다고 한다. 머스크는 현재 레이더로 얻을 수 있는 데이터의 퀄리티가 너무 심하게 떨어지기 때문에 '피닉스 프로그램'이라는 팀으로 레이더 자체의 성능 개선이 가능한지 직접 테스트하고 있으며 초고해상도 레이더가 나오지 않는 이상 카메라의 데이터로만 성능을 개선시키는 방식을 선호한다고 밝혔다.
해당 HW4.0은 모델 S나 X에 먼저 선보일 것으로 보인다. #
2021년 9월 삼성의 7nm 공정을 통해서 HW4.0용 반도체를 위탁생산을 수주했다는 뉴스가 나왔다. # 다만 2022년 11월에는 TSMC 5nm 공정으로 생산할 것이라는 소식이 들리면서 세부 양산 계획은 오리무중에 빠지게 됐다. # 2023년 5월, 일론 머스크와 이재용 회장이 FSD칩 관련해서 만남을 가졌으나, 여전히 공정 업체는 밝혀지지 않고 있는 상황이다.
2023년 8월에 공개한 모델3 페이스리프트 모델에서는 범퍼에 전면 카메라 한 대를 추가했다. 레이더와 초음파센서 제거 이후 범퍼 앞 좁은 부분이 사각지대로 변하며 말이 많았는데, 이를 수용하고 개선한 것.
3.2. 학습 플랫폼
3.2.1. 데이터센터
데이터가 상시에 나갔다 들어오기에 용이해야 하기 때문에 비디오 캐시에 분산 저장하고 파이썬으로 인스턴스화해서 이를 일일이 추적한다.3.2.2. 슈퍼컴퓨터
2022년 하반기 기준으로 CUDA를 쓰면서 NVIDIA의 A100과 H100를 비롯해서 14,000개 이상의 GPU를 학습에 사용하고 있다. 슈퍼컴퓨터 3대를 돌리고 있으며, GPU 4,000개는 자동라벨링, 10,000개는 인공 신경망 훈련을 위해 쓰고 있다. 또한 1,000개 이상의 CPU를 보유하고 있다.효율적이고 강력한 딥러닝 모델 구축을 위해서는 최적화된 코드, 많은 양의 데이터 등이 통상적으로 거론되지만, 테슬라는 압축과 높은 퀄리티를 통한 데이터의 효율성을 가장 중요한 요소로 평가한다. 현재까지는 라벨링을 테슬라 직원들이 직접 경계박스를 그려가며 직접 진행하지만, 장기적으로는 라벨링 자동화를 추구한다. FSD가 잘못 운전하여 탑승자가 개입한 순간의 데이터, 주행 전체가 아니라 차선 변경이 일어난 순간의 데이터 등의 특정 시점의 데이터를 위주로 전처리 과정을 거쳐 효율적이고 퀄리티가 높은 데이터를 뽑아내는 방식이다. 이를 자사 모델에 계속 학습시켜 장기적으로 자동 라벨링을 도입하기에 용이해진다. 또한 트랜스포머 방식을 도입하고 라이다, 레이더, 초음파센서 등 데이터 포맷이 달라 전처리가 힘든 센서들을 과감하게 제외하여 효율성을 극대화시킨다. 조만간 출시될 HW4.0에서는 화각과 해상도의 성능 향상으로 인해 전방 카메라도 2개로 줄인다는 루머가 있다. 테슬라가 얼마나 효율성에 집착하는 지 알 수 있는 부분.
여기에 더해 언리얼 엔진으로 라벨링 하기 힘든 상황을 구현하고 매개변수를 바꿔가며 시뮬레이션을 하고 있다.
2024년 1분기 기준 자본적 지출(CapEx) 28억 달러 중 무려 10억 달러 가량을 인공지능 인프라 투자에 사용하고 있다고 밝혔다. # H100 치환 기준 GPU는 직전 분기 15,000대 수준에서 35,000대 수준으로 2배 이상 급등했다. 이 중 25% 가량이 도조 기반 컴퓨팅이다. 실적 발표 이후 컨퍼런스 콜에서는 연말까지 85,000대로 늘리는 것을 계획하고 있다고 언급했다.[60]
2024년 한 해동안 AI 관련 지출은 100억 달러 수준에 이를 전망이다. # 절반에 달하는 50억 달러는 FSD 컴퓨터와 도조, 센서 등 내부 AI 관련 지출이며 나머지 절반은 외부 지출이다. 외부 지출 중 과반 이상에 달하는 30~40억 달러는 H100 50,000대 등 엔비디아 하드웨어 지출로 쓰인다.
3.2.2.1. Dojo
상술한대로 현재 엔비디아 플랫폼을 기반으로 딥러닝 학습을 진행하고 있지만, 장기적으로는 PyTorch 생태계를 기반으로 자체 설계한 D1칩[61]을 통해 Dojo라는 자체 슈퍼컴퓨터 플랫폼을 구축하여 비중을 늘릴 예정이다. 부지는 버팔로에 위치한 기가 뉴욕으로 결정되었다.성능 자체는 여전히 엔비디아의 제품이 ASIC 기반 인공지능 칩보다 강력하지만, 여러 문제가 존재한다. 우선 업계 수요는 늘어나는 반면 제대로된 범용 칩셋을 공급하는 업체가 사실상 엔비디아 한 곳뿐이기 때문에 칩셋을 수급받기 매우 힘들다.[62] 이렇듯 수요와 공급 불균형이 극심하기 때문에 단일 공급 업체인 엔비디아에게 가격 결정력이 쏠리는 등 슈퍼을 취급을 받으며 가격이 매우 높다.
또한 기술적으로는 전력 효율성이 떨어져 유지비용이 비싸고[63], 레이턴시로 인한 병목현상이 극심한 편이다.[64] 애초에 엔비디아 GPGPU 제품은 그래픽 처리를 위한 용도에서 CUDA를 기반으로 빠르게 생태계를 장악하며 단순 용도 변경을 한 것에 불과하기 때문에 자율주행 개선을 위한 딥러닝 분야의 최적화가 부족하기 때문이다. 엔비디아는 2020년대에 들어서도 최적화보다는 여전히 성능 향상에 포커싱을 두며 범용 시장을 공략하고 있다.
|
테슬라 컴퓨팅자원 마스터플랜 |
D1 이후에는 10배 이상의 속도를 내는 칩셋도 개발 예정이라고 한다. 장기적으로는 2024년까지 테슬라의 컴퓨팅 자원이 100EFLOPS의 연산력으로 픽셀데이터 외에도 범용적 데이터 처리가 가능하도록 만드는 것이 목표라고 한다. 병목 현상이 없다는 전제 하에 1조 개의 매개변수를 고작 14시간만에 처리 가능한 성능이며, 이는 2022년부터 가장 강력한 슈퍼컴퓨터 프론티어의 1.1EFLOPS보다도 10배 빠른 속도인 것이다.[66] 이렇게 목표가 원대한 만큼, 과도한 약속팔이일뿐더러 실현이 불가능하다는 우려가 생기고 있다. 10년 가까이 가속기에 투자해오며 ASIC에서 가장 좋은 성과를 내온 구글조차 달성하기엔 거리가 있던 속도이기 때문이다.
|
D1칩과 Dojo v1의 구조 |
칩: D1 칩은 500억 개
트랜지스터 기반의 354개의 코어(노드)로 구성되어 645mm2의 공간 안에 362 TFLOPS의 속도를 낸다.
시스템: 반도체 패키징 기술 FOWLP(Fan Out wafer level Package)를 적용시켜 만든 Computer Plan이라고 불리는 플레이트에 D1칩 25개를 탑재한 모듈 Training Tile의 연산 성능은 9P FLOPS수준이며 대역폭은 9T Byte/s 4개 모듈을 합친 36T Byte/s이며 당연하게 파워와 냉각기가 일체화로 탑재되어 있다. 6개의 트레이닝 타일을 조합하여 트레이를 구축한다.
클러스터: 최종적으로 2개의 트레이를 조합한 캐비넷, 10개의 캐비넷을 조합한 ExaPOD을 통해 3,000개의 D1칩으로 구성된 슈퍼컴퓨터를 사용한다.
소프트웨어:
엔비디아 플랫폼을 쓰지 않기 때문에,
CUDA가 아니라
PyTorch 확장
인터페이스를 기반으로 DPU를 구축해 딥러닝을 처리시킬 예정이다.
컴파일러,
드라이버도 전부 자체적으로 제작하여 Dojo 슈퍼컴퓨터에 최적화된 전용 소프트웨어를 구축할 예정이다.
4. 관련 인물
- 스털링 앤더슨 (오토파일럿 디렉터 / 2015~2016년): 퇴사 후 오로라를 창업한다. 오로라의 자율주행 자동차 개발 방식이 테슬라와 큰 차이가 있는 것으로 보아, 개발 방식 충돌로 인한 퇴사로 추정된다. 그가 재임하는동안 조지 호츠의 comma.ai를 1,200만 달러에 인수하며 모빌아이 플랫폼에서 벗어나려고 시도한 적이 있다고 한다.
- 짐 켈러 (오토파일럿HW VP / 2016~2018년): 반도체 업계의 살아있는 전설답게 엔비디아 칩으로부터 자립하고 FSD칩을 개발하는 과정을 진두지휘했다. 다만 FSD칩 양산 전에 퇴사했다.
- 크리스 레트너 (오토파일럿SW VP / 2017년): 입사 전 구글에서 텐서플로우 개발에 참여했다. 테슬라에서는 딱히 알려진 정보가 없는 편.
- 안드레 카파시 (인공지능 디렉터 / 2017~2022년): 레이더, 초음파센서 등 불필요하다고 생각되는 센서들을 줄여 나가면서 데이터 전처리 과정을 용이하게 만들고 초기 인공 신경망 네트워크를 구상했다. 테슬라가 크루즈, 웨이모 등 고정밀 지도 방식을 택하는 타사와 다른 노선을 취하고 독자적인 개발 방식을 택하는 과정에서 크게 기여했다.
- 피트 배넌 (오토파일럿HW VP / 2018년~ ): 2016년 2월 입사. Apple Silicon에서 ARM 아키텍처를 기반으로 괄목할만한 전성비와 성능을 선보였던 엔지니어이다. 짐 켈러와 함께 FSD칩 자체 개발 과정을 총괄했다.
- 밀란 코박 (오토파일럿SWE 디렉터): Dojo 프로젝트를 이끌고 있다.
- 아쇼크 엘루스와미 (오토파일럿SW 디렉터 / 2019년~ ): 2014년 1월 입사. 딥러닝 모델을 통한 네트워크 구축 업무를 수행한다.
5. 기능 개선 및 개발
5.1. 기능 개선
자세한 완전자율주행 옵션의 업데이트에 대한 정보는 테슬라 소프트웨어에서 확인할 수 있다. 완전자율주행 옵션이 개선되는 부분에 대해서는 정확한 소개가 생략되는 경우가 많다. 특히 사고가 난 경우에 대한 분석을 통해 같은 사고가 반복되지 않도록 기능을 개선하고 있으며, 특히 2018년 말부터 1년간 오토파일럿 내비게이션 기능에 대해서 비약적인 개선이 이루어졌으며, 2019년 3분기에는 스마트 호출 기능에 대한 개선이 집중되어 9월에 처음으로 일반 공개됐다. 2019년 4분기에는 시내 완전자율주행을 위한 도로 표지와 신호 인식기능이 추가됐다. 2020년 4월에는 모든 교차로, 횡단보도와 정지표지를 인식하여 자율 정차하는 기능인 "신호등 및 정지 표지판 제어"가 출시됐으며, 2020년 6월에는 이 기능이 선행 차량이 있는 경우 녹색 신호를 인식하여 운전자의 입력 없이 통과하는 기능을 출시했며, 2020년 10월에는 선행 차량 조건없이 통과하는 기능이 출시됐다. 2020년 말, 초기체험프로그램(Early Access Program; FSD옵션을 초기 구매한 사용자들) 사용자들이 FSD 베타(시내에서 자동 주행 포함)를 체험할 수 있었으며, 2021년 9월부터는 FSD 옵션 구매 일반 사용자중 일정 수준이상의 안전 점수를 획득한 차주들에게 FSD 베타 기능을 체험할 수 있게 해주고 있다.5.2. 완전자율주행 베타 프로그램
"완전자율주행 베타 프로그램"(Full self driving capability Beta Program)이란 자율주행 레벨 5에 도달하기 위한 모든 기능을 갖추었으나 주변 상황에 대한 통제가 인간 이상의 정확도를 가지지 못 하는 상태로 체험 버전으로서 출시되는 것을 의미한다. 주변 상황을 통제하는 기능이 없는 것은 아니나, 예외 상황의 처리가 인간만큼 능숙하지 않기 때문에 주행 기능을 인간이 관찰, 감독해야 한다. 따라서 여전히 "자율주행 레벨 2"의 등급으로 분류된다.이후 운전자들의 예외 상황에 대한 반응과 수집되는 데이터들을 딥러닝을 통해 인공지능을 학습시켜서 정확도를 점점 높여가면서 인간보다 더 정확한 예외 상황에 대한 대처를 하는 것이 증명될 수 있을 때 비로소 인간의 관리 감독이 없는 자율주행 레벨 5에 도달할 수 있다. 즉 "완전자율주행 베타 프로그램"은 자율주행 레벨 5에 도달하기 위한 딥러닝 데이터 수집을 위한 기반 기능을 모두 갖춘 것으로 볼 수 있다.
5.3. FSD 레벨 3/4/5 도달
완전자율주행 옵션은 자율주행 기능 완성 이후 운전자의 반응 데이터를 활용하여, 머신러닝/딥러닝을 하여 자율주행의 정확도를 점점 개선하여 결국에 운전자의 관찰과 감독이 필요가 없어지며[67] 완성될 것(2020년 말 이후)으로 보았으며, 2020년이 됐을 때 일부 오토파일럿 이용자에게 FSD 베타 버젼을 공개 했다.[68][69]2020년 7월에 중국에서 열린 2020 세계 인공 지능 컨퍼런스에서 일론 머스크는 연말까지 "완전자율주행 옵션 - 기능 완성"이 가능할 것으로 언급했으며[70] 긴 설명 중에 HW3.0의 두개의 NPU(뉴럴 프로세서 유닛) 코어 중, 그 동안 한 개의 코어 이상의 파워가 필요하지 않다가 두번째 코어의 파워를 활용하기 시작한 지 몇개월 되지 않았다(교통신호 적색신호 인식 정지 기능 출시 이후로 보인다)는 설명을 하며, 적어도 1년 이상은 있어야 NPU 코어 두 개의 모든 파워를 사용하게 될 것이란 언급을 했다.[wa] FSD 3/4/5 도달에 대한 테슬라 내부적 일정(2021년 중반 이후)에 대한 힌트를 얻을 수 있는 언급으로 볼 수 있다.
자율주행을 위한 각 기능의 완성은 "긴 꼬리 문제"(Long tail problem)으로 인식되고 있다. 90%(몸통)의 정확도에 도달하는 것에 비해서 99%(꼬리 처음부분)의 정확도, 99.9%(꼬리의 중간부분)의 정확도에 도달하는 것이 갈수록 더 어려워지며 인간 운전자의 정확도를 넘어서 몇 배 이상 안전한 수준까지 도달하여 각국 정부의 신뢰를 얻을 수 있는 완벽한 정확도를 도달하는 것은 더 많은 수고, 노력, 비용이 요구되는 어려운 문제로 인식되고 있다.
현재 진행상황으로는 내부에서 레벨4수준을 시도중인 것으로 보인다. 2023년 6월 테슬라 소프트웨어를 전문적으로 해킹하는 화이트해커가 공개한 사항으로 숨겨진 비밀 모드가 있으며 이를 사용시 핸들에 손을 얹거나 전면 주시등의 필요성이 사라진다. # #
5.4. 개발 특징
- 라이다 미사용 - 라이다 장치 등에 의존하지 않아 다른 자율주행차에 의한 간섭이나 악천후에 의한 영향이 줄어 들고 더 저렴한 가격으로 더 많은 자동차에 시스템이 쉽게 적용될 수 있다. 주변 환경을 3차원으로 알아 내는 기술로서, 라이다가 아무리 대량생산으로 가격이 낮추어져도 다중 카메라를 사용하는 것이 비용면에서 훨씬 저렴할 수밖에 없다. 초당 10회이상의 회전을 해야 하는 구조로서 물리적인 고장 가능성이 카메라에 비해서 높은 것도 내구성 있는 시스템을 구축하는데 장애가 될 수 있는 요소이기도 하다. 다중 카메라를 사용하는 방법과 라이다를 사용하는 방법 간에 큰 차이가 나지 않는다는 연구 결과도 있다.[72] 라이다에 대해서 일론 머스크는 이미 2009년에 나사의 우주왕복선에 드래곤아이(DragonEye)라는 이름의 라이다 제품을 납품하여 10년 이상의 경험을 갖고 있으며 여전히 스페이스X의 우주선에서 사용되고 있다. 이런 경험을 바탕으로 라이다를 기반으로 자율주행 개발을 추구하는 회사는 실패할 수밖에 없다고 공언하고 있다.
- 레이더 제거: 테슬라는 2021년 중반부터 레이더를 장착하지 않은 모델3, 모델Y를 생산하기 시작했고, 이후 테슬라 소프트웨어 업데이트를 통해 기존 차량의 레이더도 사용하지 않고 오직 카메라만을 사용해 오토파일럿과 FSD베타 기능을 제공하고 있다.[73] 많은 우려가 있었으나 2022년 5월에 최고속력을 85 mph(137 kph)로 상향하는 등, 레이더 없는 개발을 성공적으로 진행하고 있다.
- 데이터의 질과 양 - 안드레 카파시의 주도하에 특정 상황 라벨링, 데이터 압축, 카메라만으로 축적한 데이터 등을 통해 데이터의 집적도와 효율성, 정확성을 높인다. 통상적으로 딥러닝을 이용할 경우, 데이터의 양이 얼마나 많은지가 매우 중요한 역할을 한다고 알려져 있는데, 이미 판매된 자사 차량 운전자들로부터 크라우드소싱으로 데이터를 수집할 수 있는 시스템을 구축했기 때문에 양은 확보가 되어 있다.[74] 따라서 질 높은 데이터 수집에 집중하고 있다.
- 실도로에서 데이터 수집 - 우버나 웨이모 등 타 자율주행 회사의 개발 방법을 보면, 내부적으로 어느 정도 완성된 기능을 제한된 지역에 소수의 자동차에 적용해 공개된 장소에서 테스트를 진행하고 있다. 가령 우버의 경우, 아직 완성되지 않은 자율주행 기능을 가지고 애리조나에서 테스트를 진행했는데, 운전자는 완전히 자율주행 기능을 믿도록 지시 받고 수동으로 전환하는 절차를 가지지 않고 있었다. 자율주행 자동차는 무단 횡단중인 사람을 발견하지 못해 사망하게 하는 사건이 발생했다. 수많은 사용자의 데이터를 수집하지 않고 내부 테스트만 진행한 채로 개발을 진행해 "자전거를 옆에서 잡고 걸어서 야간 무단횡단"과 같은 매우 예외적인 상황(edge case)들이 여러 개가 동시에 겹치는 상황(corner case)에 대한 경험과 데이터를 가지고 있지 않았고, 사람이 수동으로 전환하는 절차를 가지지 않고 있어서 생긴 문제로 볼 수 있다. 이에 반해서 테슬라는 사용자들에게 직접 자율주행 기능을 활용하고 대신 이를 감독하여 오류가 발생하면 기능을 중단시키도록 하는 방식을 사용하고 있다. 이런 방법은 더 많은 사용자들을 대상으로 데이터를 수집할 수 있어 미리 상상하기 힘든 실제의 예외 상황들에 대한 자료 수집이 가능할 수도 있는 방식이며, 사용자가 개입한 예외 상황을 다시 뉴럴넷의 학습 데이터로 이용하여 자율주행을 개선하는데 활용된다. 2020년 8월에 출시된 기능은 테슬라 자동차가 녹색 신호를 인식하여 알림 소리를 내면 운전자가 가속 페달을 밟는지 안 밟는지를 측정하여 녹색 신호 인식 알고리즘에 대한 딥러링 레이블링 데이터를 수집함으로써 정확도를 올리는 방식을 사용하여 10월에 운전자의 입력없이 출발하는 기능을 출시했다.
- 이에 대해서 테슬라가 사용자를 대상으로 베타 테스트를 진행한다는 비난을 하는 의견들도 있다. 그런 이유로 테슬라 자동차의 오토파일럿 옵션, 완전자율주행 옵션의 사용을 꺼리는 사람들도 존재한다. 그러나 일론 머스크는 스페이스X, 보링 컴퍼니, 하이퍼루프등의 미래 기술등에 대한 소개를 통한 트위터의 활동을 통해 열광적인 팬덤을 형성하여 자발적으로 테스트에 참여하겠다고 나서는 사람들이 매우 많다. 예를 들어서 뉘르부르크링에서의 차기 테슬라 모델 S 프로토타입(플레이드 드라이브체인)을 테스트하겠다고 하자 F1 챔피언인 니코 로즈버그는 스스로 테스트 드라이버를 자청하기도 했다. 이런 수많은 테슬라 팬덤의 지원과 자발적인 참여로 인해서 광대한 데이터 수집이 머신러닝을 통한 자율주행 기술의 개발에 큰 도움을 받고 있으며 이런 부분을 비판적인 측면보다는 긍정적인 측면으로 볼 수도 있다. 결국 자율주행 기능의 개발은 전세계적으로 1년에 백만명이상의 교통사고 사망자의 목숨을 구하고 그로 인한 재산 피해를 줄일 수 있는 결과로 연결되기 때문이다.
- 이런 배경으로 누적 판매량 약 120만대(2020년 3분기)의 테슬라 자동차 중 적지 않은 비율의 자동차에서 데이터를 수집할 수 있게 되어, 예외상황(edge case)이 여러 개 겹치는 극단적인 상황(corner case)에 대한 데이터를 수집할 수 있게 된다. 가령 자동차와 자전거는 인식하더라도 자전거를 뒤에 달고 가는 자동차, 대형트럭은 인식하더라도 대형트럭이 다른 대형트럭 5대를 업고 가는 형태, 우체통과 소화전은 인식하나 우체통 할로윈 옷을 입고 도로에 누워 있는 키가 작은 어린이와 같이 예외상황이 여러 개 겹치는 상황에 대한 데이터를 수집하는 것이 연구실에서 보다 훨씬 수월하게 되는 것이다. 테슬라의 설정에는 이런 데이터를 수집하는데 동의할지를 선택할 수 있는 옵션이 있고, 테슬라 측에서 특정 조건을 수집하라는 명령을 설정하면 각 차주의 테슬라 자동차가 해당 조건에 만족하는 상황을 찾아서 데이터를 테슬라에 전송하고 있다고 한다. 또한 오래 전부터 테슬라 자동차를 운전해 온 차주들 중 완전자율주행 옵션을 먼저 구매한 사람들에게 "조기 체험 프로그램"[EAP]에 신청할 수 있게 하여, 정보의 외부 유출 금지 서약을 받고 개발중인 기능을 먼저 체험해 보고 평가하고 피드백을 제출할 수 있도록 하고 있다.
6. 평가 및 안전도
6.1. 기능 비교 리뷰
2020년 미국 자동차 잡지인 CarAndDriver가 현재 구매 가능한 운전보조기능을 비교한 아래 표를 점검해 보면 당 시점 구매 가능한 운전보조기능의 여러가지 공통 항목을 테스트한 결과, 테슬라의 오토파일럿이 가장 정확하게 기능이 제공되고 있음을 알 수 있다. [76]항목 | 테슬라 오토파일럿[77] | 캐딜락 슈퍼크루즈 | Comma.ai | |||
낮 | 밤 | 낮 | 밤 | 낮 | 밤 | |
왼쪽 90도 고속도로 커브 | o | o | o | o | e | e |
왼쪽 커브 + 왼쪽 차로 확장 | e | x | o | x | e | e |
오른쪽 90도 고속도로 커브 | o | o | o | o | e | e |
클로버잎 회전 | o | x | x | x | x | x |
2차로 왼-오른-왼 조합 | o | o | x | x | x | x |
상대적 직선인 2차로 | o | o | x | x | e | e |
업데이트 | Wi-Fi[78] | 새차구매[79] | 가능 | |||
실도로 데이터[80] | 22억마일 | 미공개 | 1400만마일 | |||
사용가능차량수[81] | 70만대 | 4천대 | 미공개 |
e ... 느려지거나 오류
x ... 운전자가 수동으로 전환
6.2. 전문가들의 의견
MIT의 인공지능는 연구자인 Lex Fridman 교수에 따르면 딥러닝에 있어서 가장 중요한 것으로 취급되는 요소는 데이터의 양으로서, 테슬라의 딥러닝이 케이크 그 자체라면, 웨이모의 딥러닝은 케이크 위의 아이싱(장식)으로 표현했다.6.3. 자율주행 관련 기능 현황
자율주행 기능의 완성을 위해 여러 회사들이 ADAS 기능들을 보강해 가고 있다. 다음은 기본적인 기능에서부터 완전자율주행까지 각 회사들이 실제로 판매중인 기능들의 현황을 정리한다.- 속력유지(Cruise Control)
- 1900년대 영국 자동차 회사인 윌슨필처(Wilson-Pilcher)가 처음으로 사용한 이래 대부분의 자동차의 기본 기능으로 자리 잡았다.
- 적응 속력 유지(Adaptive Cruise Control)
- 레벨 1 자율주행에 속하는 기능으로서 앞선 자동차의 속력등에 따라서 설정된 속력 이하로 감속하는 기능. 이 기능자체도 여러가지 종류가 있으며 1992년 미츠비시가 처음 개발한 이후에 토요타, 메르세데스, 재규어, 닛산 등이 이 기능을 개발해 2010년대 초에는 많은 고급차들의 추가 옵션으로, 2015년 중반 이후에는 볼보, 토요타 등은 모든 차량에 기본 옵션으로 제공하고 있다. 테슬라는 "트래픽 어웨어 크루즈 컨트롤"(Traffic Aware Cruise Control)란 이름으로 기본 기능으로서 제공된다.
- 차로 유지(Lane Departure)
-
2000년 메르세데스 트럭과 닛산에서 개발된 이래로 많은 자동차에서 이 기능이 제공되고 있다. 1단계로 차로이탈시 경고만 주는 시스템(차로 유지 경고), 2단계로 차로 이탈시 운전자의 반응이 없으면 조향을 간섭하는 시스템(차로 유지 보조), 3단계로 차로 가운대로 조향을 유지하는 시스템(차로 중앙 보조)등으로 나뉘고 있다.
2020년 기준으로 출시되는 자율주행 지향 시스템들중에서는 테슬라의 오토파일럿이 가장 부드러운 "차로 중앙 보조" 기능을 보여주는 가운데 다른 회사들의 기능은 차로 사이를 탁구공처럼 왔다 갔다 하거나, 급격한 커브를 감당하지 못 하거나, 커브시 계단식으로 부드럽지 못한 조향을 보이고 있다.
- 차로 변경(Lane Change)
- 차로 유지 기능을 넘어서 옆차로으로 자동으로 조향하여 차로를 변경하는 기능이다. 옆차로에 다른 자동차가 있는지만 경고만해 주는 기능, 다른 자동차의 유무를 확인하여 차로를 변경 조향하는 기능은 2017년 테슬라가 처음으로 출시하여 고속도로와 시내 도로에서 차로를 변경할 수 있다. 2020년 캐딜락 슈퍼크루즈에는 정해진 미국내의 일부 고속도로에서만 차로 변경이 가능한 기능을 출시했다. 그리고 차로 변경 판단까지 스스로 하는 그 다음단계의 기능은 테슬라 오토파일럿에서 "오토파일럿 내비게이션"이란 기능으로 2018년 유일하게 출시되어 운전자들의 운전 데이터를 수집하여 딥러닝을 활용하여 학습시키며 지속적으로 정확도를 개선해 가고 있다. 시내 주행 자동 차로 변경은 2020년 말 출시 예정되어 있다.
- 자동주차
- 직렬 평행 주차등 자동 주차 기능은 많은 자동차회사에서 제공되고 있다. 많은 경우 평행주차가 제공되며 테슬라처럼 직렬 주차까지 제공되는 경우는 흔하지 않다.
- 무인 이동
- 주차상태에서 무인으로 앞, 뒤로 전진하는 기능은 테슬라와 현대에서 제공하고 있고, 주차장에서 차주에게 무인으로 운전하여 기능은 오직 테슬라에서만 제공되고 있다.
- 그 이상
- 2020년 시점에서 "차로 변경 판단"까지 하는 기능보다 어려운 기능들은 오직 테슬라 오토파일럿에서만 경험해 볼 수 있다. 고속도로 진입로에서 기존 차로으로 합류, 진출로로 빠져나오는 기능, 나들목에서 자동으로 차로를 선택하여 다른 고속도로로 연결하는 기능등 "오토파일럿 내비게이션"의 기능은 오직 테슬라에서만 체험할 수 있다.더불어 타워 주차장에서 자율주행을 통해 빠져나가는 것도 가능하다.
- 교차로 통과
- 녹색신호가 계속 유지되는 상태에서는 일반 교차로를 직선으로 통과할 수 있고, 회전 교차로 주행 기능또한 업데이트가 되어 가능하다. 23년 기준 신호 확인 후 교차로에서 비보호 좌회전까지 할 수 있다.
- 신호등 및 정지 표지판 제어
-
2020년 4월 출시된 "신호등 및 정지 표지판 제어"는 모든 교차로, 횡단보도와 정지표지판에서 정차를 시도하고 운전자가 가속을 하면 통과하는 베타 기능으로 출시됐다. 기능을 활성화하면 시내 주행 최고 속력이 기존 5마일 이상 유지가 가능하던 것에서 정확하게 제한 속력으로만 운행된다. 교차로를 통과할 때마다 멈추려고 하면서 운전자의 입력을 받는다. 이로써 자율주행의 판단에 대한 인간의 평가를 입력하여 머신러닝 레이블링 데이터를 수집하며, 2020년 6월에는 녹색 신호를 인식하여 운전자의 입력 없이 교차로를 직진 통과하는 기능을 출시했다. 이후 더 많은 데이터를 수집하면 좀 더 현실성 있는 기능으로 개선되어 갈 것으로 예상할 수 있다. 2020년 7월에는 속력제한에서 5마일 초과 운행이 가능하게 허용됐다. 2020년 8월에는 그간 수집한 데이터로 녹색 신호시 알림 소리를 내고 운전자가 승인하는 방식으로 딥러닝 레이블 데이터를 수집했고, 2020년 10월에는 이런 딥러닝 레이블 데이터를 기반으로 선행 차량이 없는 상황에서 교차로를 통과하는 기능이 출시됐다.
안드레 카파시의 설명을 보면, 정지표지를 공사 요원이 들고 있거나 내리는 경우, 학교 버스의 정지 신호판이 펼쳐진 경우/접혀진 경우(미국등의 학교 버스에는 정지 신호판이 부탁되어 있어 정차하여 어린이가 탑승 하차시 정지표지를 펼치며, 이런 신호는 일단 멈춤 신호와 동일한 교통 표지로서의 역할을 한다.), 나무 등으로 가려진 정지표지, 등등 정지표지 기능을 완벽하게 구현하기 위해서는 어느 정도의 경험을 갖춘 어른들이나 판단할 수 있는 매우 복잡한 판단을 필요로 한다. 즉 지능이 있는 인간 어린이들조차도 경험이 부족하여 그런 상황에서 정확한 판단을 하기가 어렵다. 따라서 이런 복합적인 경험이 필요한 상황과 예외 상황에 대한 데이터를 매우 많이 수집하기 전까지 정지 신호를 준수하는 기능을 인간보다 더 정확하게 수행한다고 선언하기는 어렵기 때문에 테슬라는 더 많은 데이터를 수집하려는 노력을 하고 있다. 2020년 5월에 출시된 "자율정지"기능은 정지표지판을 들고 있는 공사요원이 활성화(신호판을 운전자 쪽으로 세워서 보여줌)/비활성화(신호판을 비스듬이 세워져 운전자에게 정지를 강제하지 않는 것으로 판단되는 경우)했는지 조차 인식하는 기능을 보여주고 있어 테슬라가 얼마나 많은 데이터를 통해서 딥러닝을 수행했는 지를 경험할 수 있다. 이 하나의 단순한 기능("자율정지")을 구현하기 위한 이런 노력을 보아도 자율주행 기능은 대량의 데이터를 수집한 딥러닝 기법이 아닌 다른 개발 방법으로는 도달이 쉽지 않다는 것 이해할 수 있다.
6.4. 테슬라 능동형 안전 기능
테슬라의 능동형 안전 기능(Active Safety Feature)은 비상 정차(automated emergency braking), 차로 이탈 방지 보조(lane departure assitant), 충돌 방지 조향(Collision Avoidance) 등으로 이루어져 있다.인공지능 디렉터인 안드레 카패시(Andrej Karpathy)에 따르면, 테슬라 자동차의 안전 기능은 아래 비디오에 나오는 것과 같이 운전자 부주의로 인한 보행자 추돌 위험 상황에서 하루 수십-수백 회 가량 사고를 막아 주고 있다고 한다.[82]
이런 상황의 비디오 데이터까지 수집하여(차주가 허용할 경우), 맞게 처리한 "긍정학습"시키는 데 활용하고, 실제로 사고가 발생된 경우는 "부정학습"으로 활용하여 인공지능을 지속적으로 훈련을 시키고 있다고 한다. 또한 테슬라 커뮤니티에서 보면, 도로에 있는 동물을 보고 차로를 우회하여 피하거나, 차로를 갑자기 침범하여 넘어오는 자동차를 자동으로 피하는 경우에 대한 보고를 접할 수 있다.
이러한 자동 비상 정지, 차로 이탈 방지, 능동 회피 조향 등의 안전 기능은 다른 제조사의 자동차들에서도 흔히 제공되는 기능이다. 그러나 일반적으로 이런 기능들이 처음 구매 이후 거의 개선이 이루어지지 않는 것과 달리, 테슬라는 수많은 데이터를 매일 수집하고 딥러닝으로 학습시켜 인공지능을 지속적으로 발전시킴으로써 인간보다 더 정확한 비상 안전 능력을 갖출 때까지 기능의 개선을 지속하는 것을 목표로 하고 있다.
6.5. 안전 보고서
테슬라는 분기별로 안전 보고서를 공개하고 있다.[83]10만km 주행시 사고 확률[84] | ||||
기간 | 테슬라 오토파일럿 | 테슬라 수동운전 | 미국 전체 자동차[85] | |
안전기능활성 | 안전기능비활성 | |||
2018년 3분기 |
1.86%
|
3.24%
|
3.08%
|
12.63%
|
2018년 4분기 |
2.14%
|
3.93%
|
4.97%
|
14.25%
|
2019년 1분기 |
2.17%
|
3.53%
|
4.93%
|
14.25%
|
2019년 2분기 |
1.90%
|
2.84%
|
4.41%
|
12.48%
|
2019년 3분기 |
1.43%
|
2.30%
|
3.41%
|
12.48%
|
2019년 4분기 |
2.02%
|
2.96%
|
3.79%
|
12.98%
|
2020년 1분기 |
1.33%
|
3.12%
|
4.38%
|
12.98%
|
2020년 2분기 |
1.37%
|
2.74%
|
3.98%
|
12.97%
|
위 표의 데이터에 따르면[86], 미국 전체 자동차보다 오토파일럿을 사용하여 운전하면 9.5배, 오토파일럿 없이 안전기능만 활성화하여 운전하면 4.7배, 안전기능도 비활성화한 테슬라 자동차만 운행해도 약 3.3배 안전하다는 주장을 하고 있다.[87]
또한 일반적으로 1년동안 전세계적으로 백만명(미국은 3만4천명, 한국은 3349명)이 넘는 사람들이 인간 운전자의 부주의로 인해 사망하고 있다. 테슬라 오토파일럿을 사용해도 사고를 100% 피할 수 있는 것은 아니며, 테슬라 오토파일럿이 위험하다는 의견들도 있으나, 이런 통계 자료를 근거로 테슬라는 테슬라 오토파일럿이 교통사고 횟수를 줄여 주고 있다고 주장하고 있다.
다만 테슬라의 오토파일럿 데이터와 수동 주행 및 전체차량 데이터를 직접 비교하는 방법은 주행 환경부터 전혀 다르기 때문에[88] 통계학적으로는 타당성이 매우 떨어진다.
6.6. 사건/사고
현재까지 총 8건의 테슬라 오토파일럿 관련 사고를 정리하면 다음과 같다.[89]- 2016년 1월 20일 중국 한단에서, 모델 S 운전자가 1차로에 걸쳐진 채로 멈추어져 있는 트럭을 들이 받아 사망했다. 따르던 앞차가 트럭을 피해 차로를 변경했으나 테슬라는 그대로 충돌했다. 운전자의 아버지는 오토파일럿이 사용 중이었을 것으로 믿고 있다고 주장했으나, 오토파일럿이 사용 중이었다는 증거를 찾지 못했다고 한다.
- 2016년 5월 7일 미국 플로리다에서 모델 S가 오토파일럿 기능이 켜진 상태에서 교차로를 지나던 트레일러 트럭과 충돌하여 운전자가 사망한 사건이 발생됐다. 오토파일럿은 밝은 색깔의 트럭을 하늘과 혼동한 것으로 보이며, 운전자는 자동차 안에서 해리포터 영화를 시청하여 운전에 집중하지 않았던 것으로 결론내려졌다. 모든 테슬라 자동차가 총 2억8백만km를 운행한 이후 첫번째로 발생된 오토파일럿 관련 사망사건으로 기록됐다.
- 2018년 1월 22일 미국 캘리포니아에서 모델 S가 고속도로 비상 도로에 정차한 소방차를 시속 80km 속도로 들이 받았으나 운전자는 무사했다. 운전자는 운전중 베이글과 커피를 마시면서 운전에 집중하지 않고 있었으며, 테슬라는 앞차를 따라 진행하고 있었으며 충돌 3-4초 전 앞차가 소방차를 피해서 차로를 변경했으나 테슬라는 차로 변경없이 그대로 진행했고, 충돌 0.5초 전에 충돌 경고음을 울렸으나, 자동 비상 정지 시스템은 작동하지 않았으며 운전자도 역시 아무런 반응을 하지 않았다. 오랜 조사 결과 미국 교통 안전국은 운전자가 운전에 집중하지 않고 자동차의 첨단 ADAS 시스템에 모든 것을 맡기어서 생긴 사고로 결론을 내렸다. 또한 오토파일럿이 운전자가 집중하지 않도록 허용한 것도 잘못임을 지적했다. 이 사건 이후 테슬라 오토파일럿은 운전자가 운전대를 일정시간 이상 잡지 않으면 경고음을 울리고 수동전환을 강제하는 기능을 추가했다.[90]
- 2018년 3월 23일, 캘리포니아 마운틴뷰에서 오토파일럿이 사용중이던 모델 X가 콘크리트로 된 바리케이드에 충돌했고 뒤따르던 2대의 자동차가 추돌하면서 화재가 발생했으며 운전자는 화염 발생 전에 차 밖으로 이동됐으나 사망했다. 사고 6초 전부터 운전자의 손이 운전대에서 떨어져 있었던 것으로 기록되어 있었으며 충돌까지 아무런 운전자의 동작은 없었던 것으로 기록됐다. 고속도로의 바리케이드에 설치되어 있던 충격 흡수 장치는 사고가 나기 열흘 전에 다른 차량이 시속 121km로 충돌하는 사건이 있었고 운전자는 작은 부상만 입었기 때문에 모델 X의 사망사고는 고속도로 관리 기관 측의 과실이 큰 것으로 결론이 내려졌다. 그러나 다른 운전자가 비슷한 상황에서 오토파일럿이 오작동할 수 있음을 시연해 보였고 이후에 그런 오작동은 소프트웨어 업데이트를 통해 차츰 개선되고 있다. 사고 당시 운전자가 비디오 게임을 하고 있었다고 한다. [91]
- 2018년 5월 11일, 미국 유타주에서 빨간 신호에 정차해 있던 소방차를 오토파일럿 작동중이던 모델 S가 약 시속 97km로 충돌했다. 증인에 의하면 운전자는 브레이크나 사고를 피하려는 동작을 하지 않았다고 한다. 발만 다치고 무사했던 운전자는 사고 당시 핸드폰을 사용하고 있었음을 시인했고 경찰은 운전자에게 교통위반 티켓을 발부했다. 이 사고 역시 앞 따르던 자동차가 차로를 갑자기 바꾼 상황에 해당된다.
- 2019년 3월 1일, 미국 플로리다에서 좌회전 하던 트레일러의 측면 하단부를 오토파일럿중이던 모델 3가 충돌하여 운전자가 사망했다. 운전자는 충돌 10초 전에 오토파일럿을 시작하고 충돌 8초 전부터 운전대에 손을 올리지 않았다. 조사 결과 충돌 순간에 테슬라와 운전자가 모두 충돌을 회피하려는 움직임이 있었다고 한다.
- 2019년 8월 10일, 러시아 모스크바에서 모델 3가 차로에서 벗어난 채로 주차된 견인트럭과 시속 100km로 충돌했다. 운전자고 동승자는 사고후 차에서 무사히 빠져나왔고 상당한 시간이 지난 후 자동차에서 화재가 발생했다. 운전자는 다리가 부러졌고 동승 어린이는 찰과상을 입었다. 운전자는 핸들을 잡고 있었지만, 집중하지 않았다고 한다.
- 2020년 6월 1일, 대만의 고속도로에서 사고로 길을 가로막고 정차 중인 대형 트럭을 오토파일럿 사용 중인 테슬라가 충돌하는 사고가 발생했다. 운전자는 다치지 않았으나, 운전자도 전방을 주시하지 않았고 트럭을 뒤늦게 목격하여 정차를 시도했을 때는 이미 늦은 상황이었다고 한다.
6.6.1. 부주의한 운전
다음은 오토파일럿 기능의 오작동이 아닌, 운전자의 부주의한 기능 활용 뉴스이다.-
2020년 9월 17일 영국 가디언은 캐나다 왕립 기마경찰대(RCMP)가 앨버타 주 포노카 인근 고속도로에서 모델 S를
자율주행 모드로 바꿔 놓고 잠든 20대 남성을 기소했다고 보도했다. 적발 당시 운전자는 동승객과 함께 앞좌석을 뒤로 젖힌 채 잠든 상태였던 것으로 전해진다. 차는 시속 140㎞가 넘는 속도로 주행하고 있었다. 캐나다 고속도로 대부분의 제한속도는 시속 110km다. 이 운전자는 과속과 난폭 운전 혐의로 기소됐고 피로할 때 운전을 했다는 이유로 24시간 면허 정지도 함께 받았다.
해당 기사 - 비슷한 사례로 미국에서 남성 4명이 반자율주행을 켜 놓고 운전석엔 아무도 없는 채로 술을 마시며 파티를 벌인 영상들을 틱톡에 올려 큰 비난을 받은 적이 있다. # 다행히 둘 모두 사고없이 무사했다.
- 상술한 예시 말고도 FSD만 믿고 차에서 아예 잠을 자거나 운전을 안하고 노는 사례가 아주 빈번하다. 심지어 성관계를 하는 사람들도 있거나 유튜버들이 테슬라에서 24시간을 보내는 챌린지를 하기도 한다. #
- 계속해서 오토파일럿을 사용하는 운전자의 부주의한 운전이 보고 됨에 따라, 미국 도로교통안전국(NHTSA)에서 이를 리콜하라고 지적했고, 2024년 봄 업데이트를 통해 모든 테슬라의 오토파일럿 기능 작동 중 더 많이 경고를 띄우고, 카메라로 운전자의 모습을 감시하여 부주의 한 운전습관 발생 시 경고를 띄우도록 변경되었다. 하지만 여전히 치터[92]를 사용해서 오토파일럿 사용 중 드라마 시청을 하는 사진을 찍어 올리는 등 부주의한 운전자가 정말 많다. 대한민국은 FSD 미출시 국가인데다, 오토파일럿 버전도 미국과 달라서 수준이 한참 떨어지는 오토파일럿 기능인데도 불구하고 목숨을 걸고 타인의 안전까지 위협하는 운전자들때문에 이런 불편한 기능이 생겼음에도 여전히 치터를 달고 반성하는 모습이 없는 운전자에게는 따끔한 잔소리를 해주자.
7. 특징
7.1. 기능
현재 적용된 기능은 크게 차로유지, 속도 유지, 차로 변경으로 요약된다.차로유지 - 타 회사 제품에서도 차로 유지 기능과 마찬가지로 오토파일럿도 차로유지기능을 가지고 있다. 그러나 급한 커브에서 조향이 안되어 차로를 이탈하는 경우가 있으므로 항상 전방을 주시해야 한다. 미국보다 고속도로에서도 커브가 많은 한국 고속도로에서 오토파일럿의 차로이탈 사례가 여러 차례 보고되고 있으므로 운전자는 전방주시를 해야 한다.
속도 유지 - 속도 유지에 있어서 출발 시 앞차에 더 바짝 붙는 경향이 있었으나, 2020년 무렵에는 이런 문제가 개선되어 선행 차량과의 간격유지를 잘 수행하는 편이다. 다만 팬텀 브레이킹(Phantom Braking)이라고 불리는 버그가 존재하고 있다. 전방에 도로 구조물이 있거나 하는 경우에, 레이더 센서의 수직 해상도 문제로 도로상 장애물이 있는지에 대한 정확한 판단을 하지 못하여 사고 예방 차원에서 제동 동작을 하는 문제이다. 최근에 테슬라 시스템을 분석하여 관찰하는 사용자(greentheonly)에 따르면, 레이더 센서가 이런 구조물에 접근할 때 해상도등의 문제로 반사되어 장애물이 존재할 가능성이 높아지는 것을 시연해 보였다. 결국 이 문제의 완전한 해결은 전방의 시야에 대한 정확한 분석으로 장애물 유무에 대한 판단 능력을 높이는 방법밖에 없을 것으로 보인다. 특히 후방에 차간 간격을 매우 좁게 유지하는 차량이 따라오고 있을 때 사고의 위험이 존재하게 되어 불편함을 호소하는 사용자들이 있다. 한편 레이더를 사용하지 않는 Tesla Vision만을 사용하는 차량의 경우 이 문제가 발생하지 않는다는 보고도 있다.
자동 비상 제동(automated emergency braking) - 2020년 대만에서의 사고를 비롯하여, 전방에 장애물이 있을 때 테슬라 자동차의 자동 비상 제동이 너무 늦거나 충분하지 않게 작동한다는 지적이 있다. 앞으로 개선돼야 할 점이나, 해당 사고 등에서 테슬라 자동차의 "전방 충돌 경고 기능"이 "끔, 둔감, 보통, 민감"중 어떤 설정으로 되어 있는지는 명시되지 않았다. 따라서 이런 문제를 우려한다면 항상 전방을 주시해야 하고, 테슬라 소프트웨어 설정에서 "전방 충돌 경고 기능"을 "민감"으로 설정하는 것이 바람직하다.
차로 변경 - 변경하여 들어갈 차로 공간을 평가하여 차로를 변경하는 것은 사람이 사각지대를 확인하면서 변경하는 것보다 훨씬 안전함을 느낄 수 있다. 차로 변경 신호만 넣으면 옆 차로의 상황을 미리 확인하여 필요할 경우 속도를 줄이거나 가속하여 신속하게 끼어들기를 시도한다. 다른 차가 그 공간에 접근해 오기 때문에 차로 변경이 위험할 경우, 빨간색으로 차로를 시각화하여, 사람이 가끔 실수를 저지르는 것보다 훨씬 안전하고 탁월한 성능을 보인다. 단, 일부 구간에서 차로 변경시 변경할 차로의 공간 확인이 확실하지 않아서 사고 예방 차원에서 원래 차로로 되돌아 오는 문제가 보고되고 있다.
고속도로 자율주행 - 내비게이션 오토파일럿은 2018년 처음 출시 이후 15개월 동안 개선되어 2019년 말에 한국에서도 출시했다. 운전자가 핸들에 손을 올리며 전방을 주시하는 것을 전제로, 오토파일럿이 직접 판단하여 차로를 변경하여 고속도로 진입로부터 시작하여, 앞차의 거리에 따라 필요한 가속을 하거나 감속을 하고, 전용차로를 식별하며 차로도 변경하고, 전용차로도 식별하고, 고속도로 진출로까지 진행할 수 있는 편리한 기능이다. 다만 아직 정체길에 적용하기는 어려우며, 또한 진출로로 나갈 경우 감속을 하지 않는 오류도 있기에(개선될 예정) 위에 언급한 대로 운전자는 항상 개입할 준비를 해야 한다.
주차장 무인 운행 - 스마트 차량 호출의 경우는 데모로서 재미있게 볼 수 있지만 복잡한 상황에서는 이용하지 않는 것이 바람직하다.(2019년말 2019.40.50.7 v10.2 기준)
도로 사물 인식 - 도로 표지, 도로 신호등, 도로 장애물등을 인식하는 기능이 2019년 말에 출시되어, 고속도로뿐만 아니라 국도에서도 운전보조기능으로 운전자의 편의를 도울 수 있게 됐다. 다만 특정 지역 혹은 구간에서 운전자가 운전을 하는것에 대해서 차량에 맡기고 사고 책임을 테슬라에서 지도록 하는 "자율주행 레벨 3"나 "자율주행 레벨 4"는 아니다. 사고 책임이 운전자에게 있는 방식으로서 운전편의를 돕는 것이므로 현재 자율주행 2단계인 운행보조 기능으로 분류되고 있다.
신호등 및 정지 표지판 제어(Traffic Light and Stop Sign Control / Beta) - 안드레 카패시의 설명처럼 일상적인 정지 신호뿐만 아니라, 공사 구간에서 정지표지를 수신호로 하고 있는 공사 요원의 신호를 인식하며, 미국의 학교 버스에 달려 있는 정지표지가 펼쳐져 있는지 접혀져 있는지를 인식, 또 나무 가지 등에 의해서 가려진 신호판을 인식하는 등 상당한 발전을 보이고 있다. 정지표지를 실수로 지나치려고 할 경우 자동으로 정지하는 기능도 지속적으로 발전되고 있다. 7월 기준(2020.28.x)으로 정지하는 수준이 인간 운전자보다 너무 빨리 감속을 하는 경향이 있다.
신호등 및 정지 표지판 제어 녹색신호 인식 - 2020년 6월 출시된 녹색신호 인식 기능은 이전에 정지선이 빨간색으로만 표시되던 것이 선행차량이 있고 녹색신호가 있으면 정지선이 녹색으로 변경되면서 운전자의 입력없이 진행된다. 이미 몇년 동안 오토파일럿은 선행 차량이 있으면 그를 따라서 교차로를 통과하고 있어 왔었으나, 교통 신호가 녹색인지 적색인지에 대한 인식이 없던 것이 교통신호를 확인하는 것이 차이점이다. 선행차량이 없는 경우 속도를 교차로에 접근할 때 약간씩 줄이며 운전자가 가속 페달을 밟으면 다시 정상 속도로 운행한다. 상당히 부드러운 동작을 하여 기본 설정으로 두고 사용하기에 큰 불편이 없는 상태이다.
정차중인 차량 회피 - 도로에서 주행시 주차 혹은 정차를 한 차량을 피하기 위한 회피 동작을 한며 회피를 할 때 필요시 중앙선을 넘어서며 해당 정차중인 차량에서 문이 열려 있는지의 여부또한 확인하여 회피를 한다. 해당 기능을 통해 반대차선에서 오는 차량또한 확인하여 양보운전을 한다.
업데이트 - OTA 업데이트를 통해 개선된 기능을 적용받을 수 있는 것은 테슬라 차량의 큰 장점이다. 실제로 어러 차례의 업데이트로 자동차 기능제어 프로그램과 오토파일럿의 향상이 있었다. 앞으로도 업데이트를 통해 개선되는 사항은 모든 테슬라 구매차량들이 누릴 수 있다.
7.2. 오토파일럿 사용원칙
테슬라 오토파일럿은 현재 자율주행 2단계로 주행보조기능을 수행하고 있다. 그러므로 운전자들은 오토파일럿의 기능을 조작편의와 장시간 운전 피로감의 경감을 위한 목적으로 활용해야 하며, 오토파일럿 작동 중에도 반드시 운전자는 핸들을 잡고 전방주시의무를 이행해야 한다. 오토파일럿은 대체로 차로유지와 전방차량과의 거리조정에서 다른 자동차 회사의 2단계 주행보조기능보다 상대적으로 스마트한 조정 능력을 보이는 장점이 있으므로 고속도로 등 예측가능한 운전상황에서 운전자의 편리한 운전을 도와줄 수 있다. 오토파일럿은 업데이트를 통해 차로유지, 거리조정 등에 전보다 반응이 부드러워졌다는 평을 얻고 있다.2020년 6월 ( 테슬라 소프트웨어 2020.24.6.1 / v10.2 기준) 아래에 있는 원칙은 꼭 준수해야 한다. 특히 1.전방주시, 2.핸들잡기, 이 두개는 절대 원칙으로 이를 꼭 수행하면서 운전해야 사고없이 오토파일럿을 안전하게 사용할 수 있다. 밑에 서술된 일부 기능문제 또는 오류 등은 테슬라에서 연구되고 있으며 기능향상이 있을 경우 업데이트로 추가됐고 또 될 예정이다.
- 항상 전방주시한다.
- 최소 한손은 항상 핸들을 잡고 있어야 한다.
- 다음과 같은 상황에서는 문제시 수동운전으로 전환할 준비를 한다.
- 고속도로 주행시 바리케이드가 중단되거나 Y자로 분리되는 구간
- 차로 페인트가 닳아서 명확하지 않은 경우[93]
- 시내 주행 시 교차로에서 교차로가 너무 길거나[94], 차로의 위치가 크게 바뀌는 경우(잘못된 차로으로 진입할 수 있다.)
- 불가피하게 앞차를 좁은 간격으로 붙어야 하는 경우 앞차가 갑자기 차로 변경을 하면 전방에 장애물이 있는지 확인하여 수동으로 전환하도록 한다.
- 시내 주행 시 좌회전 전용차로으로 잘못 진입할 수 있다.
- 차로가 명확하고 교차로 등 끊김이 없는 경우는 긴장을 풀어도 된다.(핸들은 여전히 잡고)
- 핸들을 너무 약하게 잡고 있어서 센서가 핸들을 잡고 있지 않다고 경고를 주면 볼륨휠을 올렸다 내리면 된다. 혹은 한쪽 방향으로 핸들에 약한 힘을 가한다.
- 오토파일럿 인공지능은 아직은 도로 에티켓이 따로 없다.
- 변경할 차로 멀리에서 빠른 속도로 접근하는 자동차가 있어도 차로를 바꾼다(V10.0에서 많이 개선됨)
- 다른 운전자는 인공지능이 운전하는 것인지 모르므로 운전자에게 화를 내게 된다. 필요하다면 미리 수동으로 전환하여 에티켓을 지킬 수 있다.
- 다음 문제는 최근 업데이트로 해결된 것으로 보이나 과거 문제가 있었던 부분이므로 계속 참고하여 주의할 필요가 있다.
- 밝은 계통의 한가지 색으로 칠해져 있는 대형 차량이 주변에 있는 경우(하늘로 오인식할 가능성)
- 육교나 도로위 구조물이 전방에 있을때 고스트 브레이크(Phantom Breaking - 장애물 가능성이 있어서 급감속, 급정지) 현상이 있을 수 있다.
다만 폭우가 내리거나 짙은 안개 등의 상황에서는 작동에 오류 또는 제약이 생길 수 있으므로 운전의 책임은 어디까지나 운전자에게 있다는 마음으로 오토파일럿을 보조기능으로 인식하며 상황을 감시하고, 기능을 감독하며 안전하게 이용해야 한다. 물론 폭우나 짙은 안개 상황에서도 차로 이탈 등은 여전히 작동을 하며 이는 사용자에게 편의를 가져다 준다.
밤길 오토파일럿 회피 기동 영상
8. FSD베타 개선 이력
===# V1 ~ V8 #===- 2020년 10월 20일, 새로 작성된 자율 주행용 프로그램(FSD 베타 v1)이 "조기 체험 프로그램"[EAP]을 통하거나 혹은 제한된 운전자("전문적이며 조심스럽게 운전하는")들에게 처음으로 일부 사용자들에게 출시됐다.[96]
- 2020년 10월 20일 - V1(SW:2020.40.8.10) 출시
- 2020년 10월 24일 - V2(SW:2020.40.8.11) 출시
- 2020년 10월 31일 - V3(SW:2020.40.8.12) 출시
- 2020년 11월 14일 - V4(SW:2020.44.10.2) 출시
- 2020년 11월 25일 - V5(SW:2020.44.15.3) 출시
- 2020년 12월 8일 - V6 출시
- 2020년 12월 19일 - V7 출시
- 2021년 1월 27일 - V8 출시
- 2021년 3월 3일 - V8.1 출시
회전교차로 운전
-
2020년 7월 10일 - V9.0(SW: 2021.4.18.12) 출시
-몇개월에 걸친 레이더 기능 제거 작업 후 순수 카메라를 이용해서만 주행하는 버전으로 출시
-자동차의 마음(Mind of the car) 표시 - 자동차가 운행하려는 방향을 점선으로 표시
-다른 자동차를 3D 모델로 시각화 - 2020년 8월 1일 - V9.1(SW: 2021.4.18.13) 출시
-
2020년 8월 15일 - V9.2(SW: 2021.12.25.15) 출시
Clear-to-go boost through turns on minor-to-major roads (plan to expand to all roads in V9.3).
Improved peek behavior where we are smarter about when to go around the lead vehicle by reasoning about the causes for lead vehicles being slow.
v1 of the Multi-model predictions for where other vehicles expected to drive. This is only partially consumed for now.
New Lanes network with 50k more clips (almost double) from the new auto-labeling pipeline.
New VRU velocity model with 12% improvement to velocity and better VRU clear-to-go performance. This is the first model trained with “Quantization-Aware-Training," an improved technique to mitigate intr8 quantization.
Enabled Inter-SoC synchronous compute scheduling between vision and vector space processes. Planner in the loop is happening in v10.
Shadow mode for new crossing/merging targets network will help you improve VRU control. - 2020년 8월 29일 - V9.3 출시
- 2020년 9월 12일 - V9.4 출시
- 2020년 9월 11일 - v10.0(SW: 2021.24.15), v10.0.1(SW: 2021.24.16) 출시
-
2020년 9월 25일 FSD 베타 테스트 요청 "버튼" 기능 출시
- "FSD 베타"를 체험하길 원하는 일반 사용자들에게 FSD 베타 체험 요청할 수 있는 기능. "안전운전" 테스트를 통해 다섯가지 안전한 운전요소를 점수화하여 높은 안전 점수를 받은 사람들에게 FSD 베타를 체험할 수 있도록 하기 위해 출시.
- 약 15만명이 신청한 것으로 알려짐. - 2020년 9월 26일 - v10.1(SW:2021.24.17) 출시
-
2020년 10월 11일 - v10.2(SW:2021.32.25) 출시
- "버튼" 요청으로 "안전운전" 테스트에서 100점을(100마일이상, 7일이상) 획득한 약 천여명의 테슬라 차주에게 FSD 베타가 추가적으로 배포됨.
- 더 이상 비공개서약(NDA;non-disclosure agreement)을 요구하지 않음. 자유롭게 미디어 소셜 네트워크등에 공개 가능
- 실내 카메라로 운전자 안전 운행 관찰(실내 카메라없는 구차량 제외) - 2020년 10월 24일 - v10.3(SW: 2021.36.5.2), v10.3.1(SW: 2021.36.5.3)
- 2020년 11월 6일 - v10.4 (SW: 2021.36.8.5)
- 2020년 11월 22일 - v10.5 (SW: 2021.36.8.8)
- 2020년 12월 4일 - v10.6(SW:2021.36.8.9), v10.6.1
- 2020년 12월 20일 - v10.7
- 2020년 12월 24일 - v10.8, v10.8.1
- 2022년 1월 17일 - v10.9(SW:2021.44.30.10)
- 2022년 2월 1일 - v10.10
- 2022년 2월 18일 - v10.10.1, v10.10.2
- 2022년 3월 13일 - v10.11
비보호좌회전시 전방으로 살짝 전진하면서 시야 확보
베타 프로필(컴포트, 보통, 어써티브)
"안전운전" 테스트에서 99점을 획득한 테슬라 차주들로 확대
기술적이고 상세한 릴리즈 노트와 함께 배포
Added FSD Profiles that allow drivers to control behaviors like rolling stops, exiting passing lanes, speed-based lane changes, following distance and yellow light headway.
Added planning capability to drive along oncoming lanes to maneuver around path blockage.
Improved creeping speed by linking speed to visibility network estimation and distance to encroachment point of crossing lanes.
Improved crossing object velocity estimation by 20% and yaw estimation by 25% by upreving surround video vehicle network with more data. Also increased system frame rate by +1.7 frames per second.
Improved vehicle semantic detections (e.g. brake lights, turn indicators, hazards) by adding +25k video clips to the training data set.
Improved static obstacle control by upreving the generalized static object network with 6k more video clips (+5.6% precision, +2.5% recall)
Allowed more acceleration when merging from on-ramps onto major roads and when lane changing from slow to fast lanes.
Reduced false slowdowns and improved offsetting for pedestrians by improving the model of interaction between pedestrians and the static world.
Improved turning profile for unprotected turns by allowing ego to cross over lane lines more naturally, when safe to do so.
Improved speed profile for boosting onto high speed roads by enforcing stricter longitudinal and lateral acceleration limits required to beat the crossing object.
과속방지턱인식및 감속
Improved handling when driving off navigation route by allowing better recovery, when safe to do so.
Improved handling and detection of high-speed objects when crossing high-speed roads. Enabled faster acceleration across high-speed roads.
Improved speed through narrow spaces surrounded by high obstacles.
Improved static obstacle control by upreving the generalized static object network with hyperparameter tuning and improvements for oversampling strategies (+1.5% precision, +7.0% recall).
Improved VRU (vulnerable road user) detection (e.g. pedestrians, bicyclists, motorcyclists) by adding data from next generation autolabeler (precision +35%, recall +20%).
Improved emergency vehicle detection network by adding new data and improved training regime (pass rate +5.8%).
Improved VRU control relevance attribute by adding navigation route as input to object detection network (accuracy +1.1%).
Press the “Video Record” button on the top bar UI to share your feedback. When pressed, your vehicle’s external cameras will share a short VIN-associated Autopilot snapshot with the Tesla engineering team to help make improvements to FSD. You will not be able to view the clip.
Improved VRU (pedestrians, bicyclists, motorcycles) crossing velocity error by 20% from improved quality in our auto-labeling.
Improved static world predictions (road lines, edges, and lane connectivity) by up to 13% using a new static world auto-labeler and adding 165K auto-labeled videos.
Improved cone and sign detections by upreving the generalized static object network with 15K more video clips and adjusting oversampling and overweighting strategies (+4.5% precision, +10.4% recall).
Improved cut-in detection network by 5.5% to help reduce falso slowdowns.
Enabled “emergency collision avoidance maneuvering” in shadow mode.
Enabled bahevior to lane change away from merges when safe to do so.
Improved merge object detection recall by using multi-modal object prediction at intersection.
Improved control for merges by increasing smoothness of arrival time constraints and considering possible merging objects beyond visibility.
Improved land changes by allowing larger deceleration limit in short-deadline situations.
Improved lateral control for creeping forward to get more visibility.
Improved modeling of road bounderies on high curvature roads for finer maneuvers.
Improved logic to stay on-route and avoid unnecessary detours/rerouting.
Improved object detection network architecture for non-VRUs (e.g. cars, trucks, buses). 7% higher recall, 16% lower depth error, and 21% lower velocity errror for crossing vehicles.
New visibility network with 18.5% less mean relative error.
New general static object network with 17% precision improvements in high curvature and nighttime cases.
Improved stopping position at unprotected left turns while yielding to oncoming objects, using object predictions beyond the crossing point.
Allow more room for longitudinal alignment during merges by incorporating modelling of merge region end.
Improved comfort when offsetting for objects that are cutting out of your lane.
Improved object attributes network to reduce false cut-in slowdowns by 50% and lane assignment error by 19%.
Improved photon-to-control vehicle response latency by 20% on average.
Expanded use of regenerative braking in Autopilot down to 0mph for smoother stops and improved energy efficiency.
Improved VRU (pedestrians, bicyclists, motorcycles, animals) lateral velocity error by 4.9% by adding more auto-labeled and simulated training examples to the dataset.
Reduced false slowdowns for crossing objects by improved velocity estimates for objects at the end of visibility.
Reduced false slowdowns by adding geometric checks to cross-validate lane assignment of objects.
Improved speed profile for unprotected left turns when visibility is low.
Added more natural behavior to bias over bike lanes during right turns.
Improved comfort when yielding to jaywalkers by better modelling of stopping region with soft and hard deadlines.
Improved smoothness for merge control with better modelling of merge point and ghost objects positioned at the edge of visibility.
Improved overall comfort by enforcing stricter lateral jerk bounds in trajectory optimizer
Improved short deadline lane changes through richer trajectory modeling
Improved integration between lead vehicle overtake and lane change gap selection
Updated trajectory line visualization
v10.7에 크리스마스 선물기능(라이트쇼등) 포함
내부 직원, EAP 초기 프로그램 사용자들에게만 제한 배포
Improved intersection extents and right of way assignment by updating modeling of intersection areas from dense rasters (“bag of points”) to sparse instances. Increased intersection region IOU by 4.2%. The sparse intersection network is the first model deployed with an auto-regressive architecture that runs natively with low latency on the TRIP AI accelerator chip, through innovations in the AI compiler stack.
Upgraded generalized static object network to use 10-bit photon count streams rather than 8-bit ISP tonemapped images by adding 10-bit inference support in the AI compiler stack. Improved overall recall by 3.9% and precision by 1.7%.
Made unprotected left turns across oncoming lanes more natural by proceeding straight into intersection while yielding, before initiating the turn.
Improved lane preference and topology estimation by 1.2% with a network update and a new format for navigation clues.
Improved short deadline lane changes with better modeling of necessary deceleration for maneuvers beyond the lane change.
Improved future paths for objects not confined to lane geometry by better modeling of their kinematics.
Made launches from a stop more calm when there is an imminent slowdown nearby.
Improved gap selection when yielding to a stream of oncoming cars on narrow roads.
내부 직원, EAP 초기 프로그램 사용자들에게만 제한 배포
롤링스탑(일단멈춤에서 완전히 멈추지 않고 진행하던 동작)기능 제거
자동차(트럭)의 길이를 가변적으로 인식하기 시작
고성능 궤적 기본요소를 사용하여 갈림길 이동과 회전 차로 선택이 부드러워집니다.
모든 FSD 프로필에서 롤링스톱(Rolling Stop) 기능이 비활성화됐습니다. 이 동작은 차량이 일단 정지 교차로를 통과할 수 있도록 허용하지만 차량 속도가 5.6mph 미만이고, 관련 물체/보행자/자전거 운전자가 감지되지 않으며, 충분한 가시성이 확보됐고, 교차로의 모든 진입로 속도 제한이 30mph 미만인 경우를 포함하여 여러 조건이 충족된 경우에만 사용됩니다.
개선된 지상 실측 궤적을 사용하여 일반화된 정적 개체 네트워크를 4% 개선했습니다.
감속 긴급도를 더 잘 나타내기 위해 일반 제약 조건과 강화 제약 조건을 모델링하여 교차로에서 마주치는 물체에 대해 정지할 때의 부드러움을 개선했습니다.
차로 변경을 다음 차로으로 변경하여 안전할 때 정적 장애물 주변으로 이동할 수 있습니다.
교차로 차량이 정지하지 않을 수 있는 이벤트에 대해 더 많은 주의를 추가하여 점멸하는 빨간색 신호등 제어에 대한 처리를 개선했습니다.
교차로 범위를 더 잘 모델링하여 교차로에서의 통행권 이해를 개선했습니다.
Smoother fork maneuvers and turn-lane selection using high fidelity trajectory primitives.
Disabled rolling-stop functionality in all FSD Profiles. This behavior used to allow the vehicle to roll through all-way-stop intersections but only when several conditions were met, including vehicle speed less than 5.6 mph, no relevant objects/pedestrians/bicyclists detected. Sufficient visibility and all entering roads at the intersection have speed limits below 30 mph.
Improved generalized static object network by 4% using improved ground truth trajectories.
Improved smoothness when stopping for crossing objects at intersections by modeling soft and hard constraints to better represent urgency of the slowdown.
Enabled lane changing into an oncoming lane to maneuver around static obstacles, when safe to do so.
Improved smoothness for merge handling by enforcing more consistency with previous cycle’s speed control decisions.
Improved handling of flashing red light traffic controls by adding more caution for events where crossing vehicles may not stop.
Improved right of way understanding at intersections with better modeling of intersection extents.
다시 전체 FSD 베타 사용자들에게 배포(약 6만여명)
트랜스포머 신경망을 이용하여 기존 래스터 방식 모델링에서 벡터 방식으로 와 그 차로의 연결성을 예측. 이를 통해 교차차로를 예측할 있으며 지도데이터 의존없이 차로를 정확하게 예측 인식할 수 있게 되어, 좀 더 정확한 주행 계획을 수립할 수 있게 되며 정확한 시각적 렌더링을 할 수 있게 됨.
VRU(vulnerable road user;보행자,자전거,스케이터등) 인식 44.9% 개선. 차세대 오토레이블러를 사용
근접 오토바이,스쿠터,휠체어,보행자의 속도 오류를 63.6%개선. 주행선으로 뛰어드는 개체 주변의 오토파일럿 주행이 개선됨.
HW4와 관련된 내용이 상용 코드에서 최초로 발견. #
변경될 차로 라인에 푸른색 하이라이트가 표시됨.
Upgraded modeling of lane geometry from dense rasters ("bag of points") to an autoregressive decoder that directly predicts and connects "vector space" lanes point by point using a transformer neural network. This enables us to predict crossing lanes, allows computationally cheaper and less error prone post-processing, and paves the way for predicting many other signals and their relationships jointly and end-to-end.
Use more accurate predictions of where vehicles are turning or merging to reduce unnecessary slowdowns for vehicles that will not cross our path.
Improved right-of-way understanding if the map is inaccurate or the car cannot follow the navigation. In particular, modeling intersection extents is now entirely based on network predictions and no longer uses map-based heuristics.
Improved the precision of VRU detections by 44.9%, dramatically reducing spurious false positive pedestrians and bicycles (especially around tar seams, skid marks, and rain drops). This was accomplished by increasing the data size of the next-gen autolabeler, training network parameters that were previously frozen, and modifying the network loss functions. We find that this decreases the incidence of VRU-related false slowdowns.
Reduced the predicted velocity error of very close-by motorcycles, scooters, wheelchairs, and pedestrians by 63.6%. To do this, we introduced a new dataset of simulated adversarial high speed VRU interactions. This update improves autopilot control around fast-moving and cutting-in VRUs.
Improved creeping profile with higher jerk when creeping starts and ends.
Improved control for nearby obstacles by predicting continuous distance to static geometry with the general static obstacle network.
Reduced vehicle "parked" attribute error rate by 17%, achieved by increasing the dataset size by 14%. Also improved brake light accuracy.
Improved clear-to-go scenario velocity error by 5% and highway scenario velocity error by 10%, achieved by tuning loss function targeted at improving performance in difficult scenarios.
Improved detection and control for open car doors.
Improved smoothness through turns by using an optimization-based approach to decide which road lines are irrelevant for control given lateral and longitudinal acceleration and jerk limits as well as vehicle kinematics.
Improved stability of the FSD Ul visualizations by optimizing ethernet data transfer pipeline by 15%.
Improved recall for vehicles directly behind ego, and improved precision for vehicle detection network.
- 2022년 3월 26일 - v10.11.1(SW: 2022.4.5.20)
- 2022년 4월 3일 - v10.11.2(SW: 2022.4.5.21)
-
2022년 5월 18일 - v10.12(SW: 2022.12.3.10)
- 내부자 제한 배포
- 각 자동차의 형상을 좀 더 정밀하게 표현(바퀴등 표현), 자동차 방향 지시등 인식, 자동차 문 열림 인식 및 우회 동작
- 비보호 좌회전 의사 결정 프레임워크 개선 - 나갈지 안 나갈지에 대한 결정을 형성하는 더 많은 기능을 추가하여 ego(테슬라 차량 스스로를 지칭)의 행동에 대한 물체의 반응에 더 나은 모델링. 이로서 안전한 범위 내의 결정을 계속 유지하며 측정값에 오차가 많아도 유연한 대처가 가능. 이 프레임워크는 중앙 안전 차로/지역을 활용하며, 교차로를 안전하게 통과하기 위해 필요한 경우 더 강한 가속을 사용.
- 시야확보 내보기 동작 개선 - 더 정확한 차로 구조와 사각 시야 지대 인식의 해상도를 높임
- 플래너 개선 - 제한 공간을 부드럽게 빠져나올때 차로에 대한 의존을 줄임.
- 횡단 차량에 대한 좌우회전 안전성 개선 - 차로 신경망의 아키텍쳐 개선으로 재현율과 교차차로의 기하학적 정확도가 크게 개선됨
- 차로 인식 개선(재현율, 기하학적 정확도) - 18만개의 비디오 클립을 훈련세트에 추가
- 시각의 구조적 정확성과 이해 개선 - 오토-레이블러에 의한 개선된 데이터와 3만개의 추가된 비디오 클립으로 "일반화된 정적 방해물 신경망"을 다시 훈련시킴
- 주차중인 차량 인식 정확성 개선 - 4만1천개의 비디오 클립을 훈련 세트에 추가. FSD베타 10.11에서 수집된 48%의 실패 케이스를 해결.
- 먼거리의 교차 물체의 인식 개선(재현율 개선) - 데이터의 품질이 향상된 오토 레이블러에 사용된 개선된 버전의 신경망들로 데이터 세트를 재생성
- 3개의 기존 신경망 제거로 초당 1.8 프레임의 시스템 프레임 레이트 증가 -
2022년 5월 20일 - v10.12.1(SW: 2022.12.3.15)
- 초기 베타테스터[og]로 배포가 확장됨. -
2022년 5월 26일 - v10.12.2(SW: 2022.12.3.20)
- 전체 베타테스터로 확장된 후, 며칠 뒤 기존 6만명의 테스트 프리트 차량 숫자를 10만대로 추가 확대 -
2022년 7월 18일 - v10.13(SW: 2022.16.3.5)
- 내부자 제한 배포 -
2022년 8월 20일 - v10.69(SW: 2022.16.3.10)
- 초기 베타테스터[og]로 배포가 확장됨.
- 버전 번호를 갑자기 69로 한 것은 의미 있는 중요한 릴리즈란 뜻으로 해석[99]
- 척쿡(Chuck Cook)[100] 스타일의 비보호 좌회전 문제(시속 97km/h의 왕복 6차선에서 중간 중립 차선에 잠시 머무른 후에 비보호 좌회전)가 90%이상 해결
- "딥 차선 안내" 모듈이 "벡터 차선 신경망"에 포함되어, 대략의 지도 정보(차선수와 차선의 연결등)와 함께하는 비디오 스트림으로 부터 기능을 추출. 이전 모델보다 차선 인식에 대해서 44% 더 낮은 오류율로 시각적으로 상황을 파악하기 전에도 자연스러운 운전이 가능해 짐. 오토파일럿 운전이 그 지역을 잘 아는 운전자만큼 능숙하게 하면서도, 도로의 변동사항에 유연하게 대처할 수 있게 해줌.
- 개선된 Occupancy Network(공간 점유 신경망). 사각형태로는 파악이 힘든 복잡한 형태의 사물에 대한 정밀한 이해가 가능. 복셀(3차원 픽셀)로 표현되는 사물의 속도(velocity)를 예측하며, UFO처럼 미리 분류되지 않은 이상한 사물이 있어도 충돌하지 않는 운행이 가능. 또한 시간적인 비디오를 사용하여 공간을 파악하므로서 일시적으로 시각이 가려져도(다른 차량 뒤편으로 차량이 운행하여 안 보이더라도, 운전자는 그 자동차의 존재를 인지하고 운전하 듯이) 공간 점유의 흐름을 파악. 의미론 기반으로 극단 데이터값을 제외하고 데이터 세트를 2.4배 확장하여 도로 차선과 신호등에 대한 이해도 개선.
- 횡단보도 근처의 잘못된 감속 개선. 자전거 운전자와 보행자의 동작을 파악하고 이해하여 활용. -
2022년 8월 30일 - v10.69.1(SW: 2022.20.10)
- 초기 베타테스터[og]로 배포후 문제가 없으면 1만명의 추가 테스터로 확장 예정
- 위험한 운전으로 인한 베타 테스터 권한 임시 제한 복원
- 순차적인 하드웨어 처리 명령에서 레이턴시(반응속도)와 지터(에러성 데이터로 부터 발생되는 노이즈로 인한 데이터 편차)를 줄임으로서, 사물을 판별한 후 브레이크를 작동하기 까지의 시간을 10%~20% 개선함[102]
- 융합되는 기반 테슬라 소프트웨어 버전이 2022.20으로 올라가면서 수집된 타이어휠 형상 데이터 리셋 기능, 시각 기반 안전 벨트 조임 시스템(안전 벨트 프리 텐셔닝) 등의 기능이 포함됨.
캐나다에도 출시(3월 27일)
FSD 베타 테스터 전체로 배포 확대
Upgraded decision making framework for unprotected left turns with better modeling of objects' response to ego's actions by adding more features that shape the go/no-go decision. This increases robustness to noisy measurements while being more sticky to decisions within a safety margin. The framework also leverages median safe regions when necessary to maneuver across large turns and accelerating harder through maneuvers when required to safely exit the intersection.
Improved creeping for visibility using more accurate lane geometry and higher resolution occlusion detection.
Reduced instances of attempting uncomfortable turns through better integration with object future predictions during lane selection.
Upgraded planner to rely less on lanes to enable maneuvering smoothly out of restricted space.
Increased safety of turns with crossing traffic by improving the architecture of the lanes neural network which greatly boosted recall and geometric accuracy of crossing lanes.
Improved the recall and geometric accuracy of all lane predictions by adding 180k video clips to the training set.
Reduced traffic control related false slowdowns through better integration with lane structure and improved behavior with respect to yellow lights.
Improved the geometric accuracy of road edge and line predictions by adding a mixing/coupling layer with the generalized static obstacle network.
Improved geometric accuracy and understanding of visibility by retraining the generalized static obstacle network with improved data from the autolabeler and by adding 30k more videos clips.
Improved recall of motorcycles, reduced velocity error of close-by pedestrians and bicyclists, and reduced heading error of pedestrians by adding new sim and autolabeled data to the training set.
Improved precision of the "is parked" attribute on vehicles by adding 41k clips to the training set. Solved 48% of failure cases captured by our telemetry of 10.11.
Improved detection recall of far-away crossing objects by regenerating the dataset with improved versions of the neural networks used in the autolabeler which increased data quality.
Improved offsetting behavior when maneuvering around cars with open doors.
Improved angular velocity and lane-centric velocity for non-VRU objects by upgrading it into network predicted tasks.
Improved comfort when lane changing behind vehicles with harsh deceleration by tighter integration between lead vehicles future motion estimate and planned lane change profile.
Increased reliance on network-predicted acceleration for all moving objects, previously only longitudinally relevant objects.
Updated nearby vehicle assets with visualization indicating when a vehicle has a door open.
Improved system frame rate +1.8 frames per second by removing three legacy neural networks.
Improved decision making for unprotected left turns using better estimation of ego's interaction with other objects through the maneuver.
Improved stopping pose while yielding for crossing objects at “Chuck Cook style” unprotected left turns by utilizing the median safety regions.
Made speed profile more comfortable when creeping for visibility, to allow for smoother stops when protecting for potentially occluded objects.
Enabled creeping for visibility at any intersection where objects might cross ego’s path, regardless of presence of traffic controls.
Improved lane position error by 5% and lane recall by 12%.
Improved lane position error of crossing and merging lanes by 22% by adding long-range skip connections and a more powerful trunk to the network architecture.
Improved pedestrian and bicyclist velocity error by 17%, especially when ego is making a turn, by improving the onboard trajectory estimation used as input to the neural network.
Improved animal detection recall by 34% and decreased false positives by 8% by doubling the size of the auto-labeled training set.
Improved detection recall of far away crossing vehicles by 4% by tuning the loss function used during training and improving label quality.
Improved the “is parked” attribute for vehicles by 5% by adding 20% more examples to the training set.
Upgraded the occupancy network to detect dynamic objects and improved performance by adding a video module, tuning the loss function, and adding 37k new clips to the training set.
Reduced false slowdowns around crosswalks by better classification of pedestrians and bicyclists as not intending to interact with ego.
Reduced false lane changes for cones or blockages by preferring gentle offsetting in-lane where appropriate.
Improved in-lane positioning on wide residential roads.
Added a new "deep lane guidance" module to the Vector Lanes neural network which fuses features extracted from the video streams with coarse map data, i.e. lane counts and lane connectivites. This architecture achieves a 44% lower error rate on lane topology compared to the previous model, enabling smoother control before lanes and their connectivities becomes visually apparent. This provides a way to make every Autopilot drive as good as someone driving their own commute, yet in a sufficiently general way that adapts for road changes.
Improved overall driving smoothness, without sacrificing latency, through better modeling of system and actuation latency in trajectory planning. Trajectory planner now independently accounts for latency from steering commands to actual steering actuation, as well as acceleration and brake commands to actuation. This results in a trajectory that is a more accurate model of how the vehicle would drive. This allows better downstream controller tracking and smoothness while also allowing a more accurate response during harsh manevuers.
Improved unprotected left turns with more appropriate speed profile when approaching and exiting median crossover regions, in the presence of high speed cross traffic ("Chuck Cook style" unprotected left turns). This was done by allowing optimizable initial jerk, to mimic the harsh pedal press by a human, when required to go in front of high speed objects. Also improved lateral profile approaching such safety regions to allow for better pose that aligns well for exiting the region. Finally, improved interaction with objects that are entering or waiting inside the median crossover region with better modeling of their future intent.
Added control for arbitrary low-speed moving volumes from Occupancy Network. This also enables finer control for more precise object shapes that cannot be easily represented by a cuboid primitive. This required predicting velocity at every 3D voxel. We may now control for slow-moving UFOs.
Upgraded Occupancy Network to use video instead of images from single time step. This temporal context allows the network to be robust to temporary occlusions and enables prediction of occupancy flow. Also, improved ground truth with semantics-driven outlier rejection, hard example mining, and increasing the dataset size by 2.4x.
Upgraded to a new two-stage architecture to produce object kinematics (e.g. velocity, acceleration, yaw rate) where network compute is allocated O(objects) instead of O(space). This improved velocity estimates for far away crossing vehicles by 20%, while using one tenth of the compute.
Increased smoothness for protected right turns by improving the association of traffic lights with slip lanes vs yield signs with slip lanes. This reduces false slowdowns when there are no relevant objects present and also improves yielding position when they are present.
Reduced false slowdowns near crosswalks. This was done with improved understanding of pedestrian and bicyclist intent based on their motion.
Improved geometry error of ego-relevant lanes by 34% and crossing lanes by 21% with a full Vector Lanes neural network update. Information bottlenecks in the network architecture were eliminated by increasing the size of the per-camera feature extractors, video modules, internals of the autoregressive decoder, and by adding a hard attention mechanism which greatly improved the fine position of lanes.
Made speed profile more comfortable when creeping for visibility, to allow for smoother stops when protecting for potentially occluded objects.
Improved recall of animals by 34% by doubling the size of the auto-labeled training set.
Enabled creeping for visibility at any intersection where objects might cross ego's path, regardless of presence of traffic controls.
Improved accuracy of stopping position in critical scenarios with crossing objects, by allowing dynamic resolution in trajectory optimization to focus more on areas where finer control is essential.
Increased recall of forking lanes by 36% by having topological tokens participate in the attention operations of the autoregressive decoder and by increasing the loss applied to fork tokens during training.
Improved velocity error for pedestrians and bicyclists by 17%, especially when ego is making a turn, by improving the onboard trajectory estimation used as input to the neural network.
Improved recall of object detection, eliminating 26% of missing detections for far away crossing vehicles by tuning the loss function used during training and improving label quality.
Improved object future path prediction in scenarios with high yaw rate by incorporating yaw rate and lateral motion into the likelihood estimation. This helps with objects turning into or away from ego's lane, especially in intersections or cut-in scenarios.
Improved speed when entering highway by better handling of upcoming map speed changes, which increases the confidence of merging onto the highway.
Reduced latency when starting from a stop by accounting for lead vehicle jerk.
Enabled faster identification of red light runners by evaluating their current kinematic state against their expected braking profile.
8.1. V11
고속도로, 시내주행, 주자창주행(자동호출등)의 모든 운행이 하나의 스택으로 통합된 싱글스택으로 알려져 있다.[103] 2022년 11월 11일에 테슬라 직원 대상으로 v11 릴리즈가 시작됐으며, 수 주 안에 일반인 베타 테스터 대상으로 릴리즈 될 예정이다.-
2023년 4월 17일 V11.4
- 향상된 의사결정 w/속도 제어
- 향상된 턴 수행
- 향상된 차선 가이드
- 차선 변경 시 속도 제어
- 평균 주행 속도 추론
- 수막현상시 속도 제어
- 도로 장애물 자연스럽게 피하기
- 전방 카메라 작동 2% 향상
Improved the decision to assert or yield for pedestrians at more crosswalks by evaluating multiple possible futures in the joint space of ego's actions and the pedestrian's response.
Improved ego's behavior near VRUs by measuring their probability of intersecting ego's path, based on their kinematic data, and preemptively decelerating when the estimated risk is high.
Improved turn performance in dense unstructured city environments. Examples of improved cases include: turning when the turn lane is blocked by parked cars and avoiding turning into bus lanes.
Improved lane guidance module to feed in long range routing "hints" to the network for which lanes ego needs to be in to reach its destination. Also significantly improved per-lane routing type autolabeler. These changes combined resolved 64% of all interventions caused by bad routing type.
Improved geometric consistency between lane, line, road edge and restricted space detections by re-training our networks on the same dataset with the latest version of our "lane guidance" module, and by using a common features space to predict line, road edge and restricted space.
Improved recall for partial cut-ins by 39% and precision for false positive cut-ins due to lane changes into adjacent lanes by 66%, resulting in a 33% reduction in overall lane-changing prediction error. This was accomplished by further increasing our auto-labeled fleet dataset by 80k clips, improving the accuracy of the auto-labeling algorithm, and tuning the distribution of training supervision.
Improved understanding for when to use bus lanes and when to avoid them, by updating the lane type detection network and improving map-vision fusion.
Improved speed control during lane changes through better consideration of upcoming navigation deadlines, required back-to-back lane changes and presence of a vehicle behind ego.
Added new Vision Speed network to infer the typical driving speed on a given road. This is used to limit the maximum allowed speed in environments such as parking lots and residential roads.
Mitigated hydroplaning risk by making maximum allowable speed in Autopilot proportional to the severity of the detected road conditions. In extreme cases, Autopilot may use the wetness of the road, tire spray from other vehicles, rain intensity, tire wear estimation or other risk factors that indicate the vehicle is near the handling limit of the surface to warn the driver and reduce speed.
Improved long-range path blockage detection and control on city streets. Ego will now be able to perform lane changes due to upcoming path blockages earlier.
Improved developer productivity with better code diagnostics and C++20 features by upgrading compiler to clang-16. This also improved photon-to-control vehicle response latency by 2%.
-
2023년 5월 10일 V11.4.1
내부 직원 우선 배포
- 회전 제어 및 일반적 부드러움 개선
- 장거리 도로 기능 감지 개선
- 에고의 결정력 개선
- 오토바이 리콜 8% 개선 및 차량 감지 정확도 향상
- 다른 차량의 차선 침범으로 인한 개입 43% 감소
- 근접 차량의 차선 중심 속도 오류를 40~50% 감소 -> 컷인 제어 개선
- 차선 변경 궤적의 추가 기능 사용해 감독 개선
- 과소 평가된 멀리 있는 물체의 속도와 관련된 고속도로 오감속 감소
- 부드러워진 대형 차량의 차선 내 오프셋
- 다가오는 높은 곡률 병합에 대한 측면 제어가 병합 차선에서 편향되도록 개선
Improved control through turns, and smoothness in general, by improving geometry, curvature, position, type and topology of lanes, lines, road edges, and restricted space. Among other improvements, the perception of lanes in city streets improved by 36%, forks improved by 44%, merges improved by 27% and turns improved by 16%, due to a bigger and cleaner training set and updated lane-guidance module
Added lane-guidance inputs to the Occupancy Network to improve detections of long-range roadway features, resulting in a 16% reduction in false negative median detections.
Improved ego's assertiveness for crossing pedestrians in cases where ego can easily and safely cross before the pedestrian.
Improved motorbike recall by 8% and increased vehicle detection precision to reduce false positive detections. These models also add more robustness to variance in vision frame-rate.
Reduced interventions caused by other vehicles cutting into ego's lane by 43%. This was accomplished by creating a framework to probabilistically anticipate objects that may cut into ego's lane and proactively offset and/or adjust speed to position ego optimally for these futures.
Improved cut-in control by reducing lane-centric velocity error by 40-50% for close-by vehicles.
Improved recall for object partial lane encroachment by 20%, high yaw-rate cut-in by 40%, and cut-out by 26% by using additional features of the lane-change trajectory to improve supervision.
Reduced highway false slowdowns related to underestimated velocities for faraway objects by adding 68K videos to the training set with improved auto-labeled ground truth.
Smoothed in-lane offsetting for large vehicles by tuning the amount of lateral jerk allowed for the maneuver.
Improved lateral control for upcoming high-curvature merges to bias away from the merging lane.
Added lane-guidance inputs to the Occupancy Network to improve detections of long-range roadway features, resulting in a 16% reduction in false negative median detections.
Improved ego's assertiveness for crossing pedestrians in cases where ego can easily and safely cross before the pedestrian.
Improved motorbike recall by 8% and increased vehicle detection precision to reduce false positive detections. These models also add more robustness to variance in vision frame-rate.
Reduced interventions caused by other vehicles cutting into ego's lane by 43%. This was accomplished by creating a framework to probabilistically anticipate objects that may cut into ego's lane and proactively offset and/or adjust speed to position ego optimally for these futures.
Improved cut-in control by reducing lane-centric velocity error by 40-50% for close-by vehicles.
Improved recall for object partial lane encroachment by 20%, high yaw-rate cut-in by 40%, and cut-out by 26% by using additional features of the lane-change trajectory to improve supervision.
Reduced highway false slowdowns related to underestimated velocities for faraway objects by adding 68K videos to the training set with improved auto-labeled ground truth.
Smoothed in-lane offsetting for large vehicles by tuning the amount of lateral jerk allowed for the maneuver.
Improved lateral control for upcoming high-curvature merges to bias away from the merging lane.
- 2023년 6월 9일 v11.4.13(sw:2023.7.15)
Improved control through turns, and smoothness in general, by improving geometry, curvature, position, type and topology of lanes, lines, road edges, and restricted space. Among other improvements, the perception of lanes in city streets improved by 36%, forks improved by 44%, merges improved by 27% and turns improved by 16%, due to a bigger and cleaner training set and updated lane-guidance module.
Added lane-guidance inputs to the Occupancy Network to improve detections of long-range roadway features, resulting in a 16% reduction in false negative median detections.
Improved ego's assertiveness for crossing pedestrians in cases where ego can easily and safely cross before the pedestrian.
Improved motorbike recall by 8% and increased vehicle detection precision to reduce false positive detections. These models also add more robustness to variance in vision frame-rate.
Reduced interventions caused by other vehicles cutting into ego's lane by 43%. This was accomplished by creating a framework to probabilistically anticipate objects that may cut into ego's lane and proactively offset and/or adjust speed to position ego optimally for these futures.
Improved cut-in control by reducing lane-centric velocity error by 40-50% for close-by vehicles.
Improved recall for object partial lane encroachment by 20%, high yaw-rate cut-in by 40%, and cut-out by 26% by using additional features of the lane-change trajectory to improve supervision.
Reduced highway false slowdowns related to underestimated velocities for faraway objects by adding 68K videos to the training set with improved auto-labeled ground truth.
Smoothed in-lane offsetting for large vehicles by tuning the amount of lateral jerk allowed for the maneuver.
Improved lateral control for upcoming high-curvature merges to bias away from the merging lane.
Added lane-guidance inputs to the Occupancy Network to improve detections of long-range roadway features, resulting in a 16% reduction in false negative median detections.
Improved ego's assertiveness for crossing pedestrians in cases where ego can easily and safely cross before the pedestrian.
Improved motorbike recall by 8% and increased vehicle detection precision to reduce false positive detections. These models also add more robustness to variance in vision frame-rate.
Reduced interventions caused by other vehicles cutting into ego's lane by 43%. This was accomplished by creating a framework to probabilistically anticipate objects that may cut into ego's lane and proactively offset and/or adjust speed to position ego optimally for these futures.
Improved cut-in control by reducing lane-centric velocity error by 40-50% for close-by vehicles.
Improved recall for object partial lane encroachment by 20%, high yaw-rate cut-in by 40%, and cut-out by 26% by using additional features of the lane-change trajectory to improve supervision.
Reduced highway false slowdowns related to underestimated velocities for faraway objects by adding 68K videos to the training set with improved auto-labeled ground truth.
Smoothed in-lane offsetting for large vehicles by tuning the amount of lateral jerk allowed for the maneuver.
Improved lateral control for upcoming high-curvature merges to bias away from the merging lane.
8.2. V12
2023년 6월, 일론 머스크 트윗에 의하면 V12부터는 베타가 아닌 정식 출시를 목표로 삼고 있다고 한다. #9. 일론 머스크의 중고차 가격 상승 주장
일반적으로 자동차 등의 공산품은 시간이 지날수록 실물 자산의 가치가 줄어 드는 감가자산[104]으로 분류된다. 그러나 부동산의 경우처럼 시간과 관계없이 그 가치가 오히려 늘어 날 수도 있는 자산도 있으며, 테슬라가 "완전자율주행 레벨 5"의 도달에 성공한다면 테슬라 자동차의 완전자율주행 옵션은 1억2천만원 이상의 가치를 갖게 되어 처음 구매 가격보다 가치가 더 늘어나는 가가자산[105]이 될 수도 있다고 주장하고 있다.[106]2019년에 5000달러(약600만원)에 판매되던 완전자율주행 옵션이 미래에 1억 2천만원 이상의 가치를 가질 것이다는 주장인데, 자율주행 레벨 5에 도달됐다는 가정하에 일어나는 상황에 대한 일론 머스크의 주장의 설명을 보면 다음과 같다.
우선 일론 머스크는 자율주행 레벨 5에 도달하면 테슬라 자동차를 무인으로 운행하여 우버와 같은 로봇 택시 서비스에 차주가 참여할 수 있게 될 것이라고 한다. 그렇게 되면 테슬라 차주는 최대 월 360만원, 3년 1억 3천만원 가량의 수입[107]을 올릴 것으로 기대된다고 주장했다. 즉, 360만원의 월소득을 올려 주는 부동산의 거래 가격이 1억 2천만원보다 훨씬 높은 것[108]을 고려하면, 테슬라의 자율주행 레벨 5 자동차가 충분히 그런 가격 이상에 거래될 수 있다는 것이다. 따라서 테슬라는 2019년 5000달러이던 완전자율주행 옵션의 가격을 기능의 완성도가 높아짐에 따라서 지속적으로 올림으로써 테슬라 자동차의 중고값이 오히려 상승하도록 하겠다는 계획이다. 이런 계획에 따라서 2019년에 2000달러를 2020년 7월 1일에 추가적으로 1000달러를 인상했고, FSD Rewrite가 공개된 2020년 10월 이후 미국에서 추가로 2000달러 인상아며, 연달아 인상하여 2022년에는 $12,000, 2022년 9월에는 $15,000으로 인상이 예정되어 있다.[109]
그러나 현시점에서는 테슬라 자동차의 중고차 가격이 상승하고 있는 것으로 볼 수는 없다. 또, 이런 계산은 테슬라가 자율주행 레벨 5에 도달하여 많은 사람들이 사람이 운전하는 우버와 같은 택시보다 테슬라의 무인 자동차가 더 안전하다는 인식을 갖고 무인 자동차 운행에 관한 각국의 법령이 개정됐을 때에야 검토할 문제라고 볼 수 있다. 재무 개념적으로 봐도 배터리 수명이나 마모, 구형화 등 자동차로서의 근본적인 감가상각 요소를 희소성도 아니고 단지 소프트웨어 기능의 업데이트로 극복한다는 것은 이해하기 어렵다.[110]
물론 오토 파일럿 옵션의 가격이 테슬라 차량들의 감가율에 비하면 꽤 가파른 폭으로 상승 중이므로, 오토 파일럿 옵션을 구매한 상태의 차량의 감가 폭이 어느 정도 상쇄가 될 가능성이 있다. 하지만 이는 일시적인 현상이지, 가격 인상률이 어느 정도 안정권에 도달하고, (테슬라를 포함한 다른회사 차량들까지)오토 파일럿 기능이 탑재된 차량들이 보편적으로 보급된다면 일론 머스크가 공언한 대로 이루어질 확률은 희박하다고 보인다. 현재의 시점이든 앞으로든, 렌터카 사업이나, 택시, 운전 기사를 고용하는데 투입되는 자본을 고려하면 자기용으로서의 테슬라를 그 돈 주고 구매할 매력이 굉장히 작기 때문이다.
이는 정말로 테슬라 중고차 가격이 역으로 상승할 것이라고 진지하게 받아들이기보단, 테슬라의 세계 최고수준의 자율주행기술과 그것을 이미 판매된 구형차량에도 꾸준히 업데이트 해주는 자사의 정책을 자랑스럽게 과시하는 과정에서 나온 허세 정도로 보는 것이 좋을 것이다.
10. 비판
10.1. "오토"란 단어 사용에서 오는 혼동
"테슬라 오토파일럿"이란 이름이 소비자들에게 "자동차가 스스로 상황을 통제하고 자동으로 운행한다"(통제와 운전)는 잘못된 인식을 준다는 비판을 하는 경우가 있다. auto란 단어 때문에 소비자들이 완전자동으로 착각하고 잠을 자려고 한다든지 그로 인한 사고가 난다는 것이다. 그러나 테슬라측은 auto란 단어는 부분적인 자동인 경우에도 일상 생활에서 많이 사용된다고 주장하고 있다. 비행기의 "오토파일럿"도 모든 상황을 다 제어하는 것이 아니어서 사람 기장이 관찰을 해야 하며 "오토 크루즈 컨트롤"도 사람이 관찰을 해야 한다. 테슬라 오토파일럿의 auto란 단어 논란의 핵심은 관찰(monitor)마저 자동인 것으로 오해하는 부분이다. 따라서 자율주행 레벨 5가 완성되기 전까지, 운전자들은 자동차가 잘 운행되는 지를 확인하는 관찰이 100% 자동(auto)이 아니란 점을 잘 인식해야 한다.또한 오토파일럿의 옵션의 이름이 "완전자율주행 기능"(Full Self Driving Capability)이란 점도 이런 혼동을 부르는 요소이기도 하다. 비록 테슬라는 항상 아직은 "자율주행 레벨 5"가 제공되지 않는다는 설명을 그 뒤에 붙이고 있으나, 구매하는 옵션 자체의 이름은 분명 "자율주행 레벨 5"를 의미하는 "Full"이란 단어가 들어가 있기 때문에 이런 혼동들이 발생될 수 있다고 볼 수 있다.
2020년 7월 독일 뮌헨 지방법원에서 테슬라의 오토파일럿(Autopilot), 완전자율주행(Full Self Driving)이란 용어가 소비자의 혼동을 일으키는 허위광고라 판단, 마케팅에서 오토파일럿 명칭 사용을 금지했다. 테슬라 오토파일럿은 자율주행 레벨 5에 이르지 못했고, 독일의 그 어떤 주에서도 자율주행이 허가되지 않았지만 소비자는 사람이 개입하지 않아도 자동차가 운전할 수 있다는 인상을 받을 수 있으며, 독일 도로에서 그러한 시스템이 도입됐다고 오해할 수 있기 때문이란 요지이다.
테슬라가 전기자동차 저변 확대에 큰 역할을 한 브랜드라는 것엔 이견이 없지만, 소비자들에게 오해를 불러일으킬 수 있는 부분과 법적으로 문제가 될 수 있는 사안들은 본사 차원에서 확실하게 재정비를 진행해야 할 것이다.
결국 2022년 8월 14일 독일 법원은 해당 판결을 뒤엎어 최종적으로 테슬라가 승소했으며, 다시 오토파일럿 이라는 이름으로 마케팅을 할수 있게 됐다.
10.2. 지켜지지 않는 시간 공언
2016년 6월 일론 머스크는 2018년 정도에 서몬 기능이 대륙을 횡단하여 호출할 수 있게 될 것으로 이야기했으며, 2016년 10월 19일 일론 머스크는 HW2.0을 출시하면서, 2017년 말까지 완전자율주행 차량이 미국을 횡단할 수 있을 것 같다고 언급했다. 그것들이 이루어 지지는 않았지만, 테슬라는 2018년 10월에 고속도로에서 나들목, 분기점을 스스로 운행하고, 차로를 스스로 변경하는 "내비게이션 오토파일럿"을 출시했다.2019년 4월 22일에는 2019년 말까지 완전자율주행 얼리 액세스 버전을, 2020년 말에는 로보택시의 시범 서비스를 출시하겠다고 했다. 역시 이루어 지지 않았지만, 2019년 말에 "FSD 프리뷰"(FSD Preview)란 이름으로 도로의 지표, 사람, 자전거, 공사콘 등을 표시하는 기능을 출시했다.
2020년에는 "Full Self Driving Capability - Feature Complete"이란 새로운 표현을 가지고 2020년 연말까지 완성하게 될 것으로 생각된다는 언급을 했으며, 이것을 잘못 이해한 일부 매체에서는 마치 "자율주행 레벨 5"을 연말까지 완성하겠다는 발언으로 잘못 이해하고 전달하기도 했다.
파나소닉의 CEO는 일론 머스크에 대해서 엄청난 천재인데 항상 지나치게 낙관적이다[111]는 표현을 사용하기도 했으며, 이런 약속 기한 미준수로 인해 테슬라 커뮤니티내에서조차도 일론 머스크의 시간 관념(Elon time)이나 어쩌면 3개월, 6개월은 확실히(3 months maybe, 6 months definitely)와 같은 표현들을 사용하며, 일론 머스크의 시간 공언이 준수되는 것에 대한 기대치는 낮게 가져 가는 경우가 많으며, 테슬라에 의해서 자율주행 레벨 5가 완성될 것으로 믿는 사람들 중에서도 일론 머스크가 말하는 일정에 대한 공언은 대략 걸러 듣는 경우가 많다.
10.3. 가이드하우스 인사이트의 평가와 반박
가이드하우스 인사이트(Guidehouse Insights) 산하 리서치 부서인 내비건트 리서치(Navigant Research)는 매년 자율주행 개발 회사들의 순위를 발표하고 있는데 테슬라는 매년 최하위에 머물고 있다. 테슬라의 자율주행 기술력을 비판하는 근거로 보고서가 종종 인용되지만, 이 보고서는 신뢰도에 많은 논란이 있다.가장 큰 논란은 평가 방식이 실제 기술력을 제대로 반영하지 못한다는 것이다. 가이드하우스 인사이트의 평가 항목을 보면 파트너십과 마케팅 등 기술과 무관한 부문이 대부분이고[112] 그나마 기술력을 평가하는 부문에서도 자율주행 기능의 성능 검증이 제대로 되지 않았더라도 라이다를 쓰는 업체에는 후한 점수를 주는 등 평가 기준에 의문이 드는 면이 있다. 보고서를 작성한 리서치 팀의 리더 역할을 맡은 Sam Abuelsamid가 자율주행이나 AI 등 기술 분야의 전문가가 아니라서[113] 리서치의 전문성에 대해서도 논란이 있다.
해당 보고서를 테슬라의 기술력을 비판하는 근거로 사용할 수 없는 결정적인 이유는 테슬라가 2018년부터 자료 제공을 하지 않고 있다는 점이다. 다른 업체들은 최신 성과를 바탕으로 평가받는데 테슬라는 수 년 전 기술을 기준으로 점수를 매기니 상대 비교에서 점점 뒤처지는 게 당연하다. 이런 경우 테슬라를 평가 업체에서 제외하는 게 보통인데, 가이드하우스 인사이트는 어째서인지 현실을 전혀 반영하지 못한다는 비판을 들으면서까지 꾸준히 데이터 갱신도 안되는 테슬라를 보고서에 포함시키고 있다.
반면 애플은 과거 보고서의 평가 업체에 포함됐지만 애플의 자율주행차 프로젝트가 정보를 노출시키지 않게 된 이후로는 평가 목록에서 사라졌다. 이런 탓에 가이드하우스 인사이트가 테슬라에 대해 악의적인 의도를 가지고 계속해서 오해의 소지가 있는 보고서를 작성하고 있는 게 아니냐는 의혹이 나오고 있다.
10.4. 오작동
오작동이 잦은 편으로 1차로가 없어지는 구조일 때에는 중앙분리대에 부딪칠 수 있으며, 도로 구조에 따라 역주행, 도로 주변 구조물이나 언덕에 충돌하기도 한다.
34초에서 흰색 물체나 정지된 차량을 인식하지 못하는 문제가 있다. 흰색 스티로품 벽으로 실험한 결과 4분 14초에서는 차량이 감속했지만 화면에는 스티로품 벽이 나오지 않는다.
11. 기타
한문철TV 17846회에서는 오토파일럿이 칼치기 차량을 인식한다.
급커브 구간에서는 오토파일럿을 해제하는 것이 좋다.
테슬라의 주행보조장치인 오토파일럿과 'FSD'(완전자율주행)로 인한 교통사고가 급증하고 있다는 기사가 나왔다. 워싱턴포스트(WP)는 테슬라의 주행보조장치로 인한 교통사고가 2019년 이후 736건 발생해 모두 17명이 숨졌다고 보도했다. #
12. 지원 자동차
13. FSD 라이선스
테슬라가 자신들이 만든 자율주행 소프트웨어 판매를 하여 타 자동차 회사들이 사용할 수 있게 하는것이다. 현재 협상중이며 해당부분이 진행될시 자동차 업계가 발칵 뒤집어질 수 있다. #14. FSD 출시 국가
- 미국 (2020년 출시)
- 캐나다 (2022년 출시)
- 유럽권 (2025년 출시 예정, 규제기관 승인 대기 중)
- 중국 (2025년 출시 예정, 규제기관 승인 대기 중)
- 호주 (출시 예정)
- 한국 (출시 예정)[114][115]
14.1. 대한민국 출시 현황
대한민국의 경우 2021년 출시를 예고를 했으나 데이터 부족이라는 이유에서인지 몇년째 출시가 되고 있지 않고 있는데, 현재 상황으로는 첨단운전자지원시스템(ADAS) 전문가를 채용했다. 해당 전문가는 미국과 북유럽(핀란드·덴마크), 아시아 지역에 몰려있다. 아시아 모집 지역은 일본 요코하마, 대만 타이베이와 대한민국 서울으로서 몇년 내 국내에도 서비스 할 것으로 보인다.2023년 6월 16일 한국 테슬라 차량에 SW.2023.12.11버전이 업데이트가 되었는데 해당 업데이트에서 상당히 흥미로운 부분들이 나타났다. "데이터 공유 설정 새로 고침"이라고 불리는 부분이 생겼는데 이를 통해 사용자 인터페이스 개선을 시킨다고 나와 있다. 해당 업데이트를 하면 약관 동의를 하라고 나오는데 이는 기존의 차량에서 보지 못한 부분이었다.[116] 해당되는 사항들은 켜고 끌 수 있지만, 국내 FSD도입에 쓰일 수 있을만한 사항이라 소프트웨어 개선을 위해서 주행과 관련된 부분은 웬만하면 끄지 않는 걸 추천한다.
15. 관련 문서 및 링크
- 테슬라 소프트웨어
- 전기자동차
- 자율주행 자동차
- 오토파일럿 공식 사이트
- Andrej Karpathy 테슬라 비전팀 리더 2019년 11월
- 테슬라 오토파일럿 행사/오토노미 데이 풀영상
- Andrej Karpathy - AI for Full-Self Driving 2020년 2월
- Andrej Karpathy - 컴퓨터 비젼과 패턴 인식 2020년 컨퍼런스, Workshop on Scalability in Autonomous Driving 2020년 6월
[1]
신경망을 통해 실시간으로 주행 환경을 3차원 벡터 공간으로 렌더링하며 경로를 생성하고 있는 상황의 일부를 보여주고 있다.
[2]
머스크는 당시
OpenAI가 자금난으로 인해 인공지능 개발이 더져지자, 2018년에는 테슬라와의 합병을 시도하기도 했다. 사내 반발로 결국 합병이 실패로 돌아가자, 이사회 퇴임 이후 테슬라 오토파일럿에 집중하게 되었다.
[3]
테슬라 공식 홈페이지의 테슬라 오토파일럿 소개 문장. 2020년 7월 기준.
[4]
Waymo Reaches 20 Million Miles of Autonomous Driving
https://fortune.com/2020/01/07/googles-waymo-reaches-20-million-miles-of-autonomous-driving/
[a]
Andrej Karpathy - AI for Full-Self Driving
https://youtu.be/hx7BXih7zx8
[6]
"Third Row Tesla" - There's quite a significant foundational rewrite in the Tesla Autopilot system that's almost complete
https://twitter.com/thirdrowtesla/status/1222937185294282753?s=21
[7]
Elon Musk talks Tesla Autopilot rewrite, says ‘a lot of new functionality in 2-4 months’
일렉트렉
[8]
Elon Musk: Tesla Full Self-Driving is going to have ‘quantum leap’ w/ new rewrite, coming in ‘6 to 10 weeks’
https://electrek.co/2020/08/14/elon-musk-tesla-full-self-driving-quantum-leap-new-rewrite/
[9]
2019년 2월 이전에는 교통 인식 크루즈 컨트롤만 기본으로 제공됐으며, 오토스티어는 Enhanced Autopilot에 포함됐다.
[10]
2015년 11월 출시
공식 유튜브
[11]
2018년 9월 처음 출시, 한국에서 2019년 12월/2019.40.50.5 버전부터 사용가능.
[12]
차로 변경 시점에 운전자의 손이 스티어링 휠에 충분한 토크를 가하고 있는 지를 다시 확인.
[13]
2019년 9월 26일 미국 출시, 캐나다, 호주, 뉴질랜드 대만 순차적 출시, 2019년 12월 24일/2019.40.50.1 한국, 중국, 유럽 출시 업데이트
[14]
구매는 가능하다. 가격이 두배 넘게 차이가 나면서 구매 가능한 상태로 있으니, 뭔가 차이가 있겠거니 하고 오해하지말자. EAP 성능, 업데이트 우선 순위 조차도 차이가 없다.
[15]
참고로 대한민국에서는 곧 출시된다는 홍보 문구가 테슬라 차량 출시 초기부터 존재했고, 이를 기술에 대한 선투자 개념으로 구매했던 많은 사용자들이 있었으나 현재까지도 출시가 되지 않으며 결국 이에 대한 항의성으로 집단 소송이 진행 중인 상황이다. 얼리엑세스와는 다른 개념인 것이, 얼리엑세스는 먼저 일부 기능을 사용이라도 해볼 수 있으나, 한국의 FSD는 EAP와 아무런 기능차이가 없는 상황이다.
[16]
2019년 2월 28일 이전에 FSD가 아닌 Enhanced Autopilot을 구매한 경우에도, 자동 차로 변경, 오토파일럿 내비게이션(고속도로), 자동주차, 차량 호출, 스마트 오토파킹이 포함되어 있다.
[17]
이후 FSD가격을 인상할 경우, 구매가 기준이 아닌 그 당시의 현가격 기준으로 계산될 것으로 추정. 즉 미리 구매하는 것이 항상 이익
[18]
when will autopilot make lane changes automatically on city streets?
#
[19]
FSD 베타 프로그램을 신청하여 일정 점수이상의 안전 운전 점수를 획득한 일반 사용자들에게 제한 배포 테스트중
[20]
전면 3개, 측면 4개, 후면 1개. 202기년 상반기에 공개한 모델3 하이렌드 부터는 전면 범퍼쪽에 카메라 한 대가 추가되어 고질병으로 뽑혀오던 사각지대를 커버할 수 있게 되었다.
[21]
다만, 필요한 대부분의 데이터는 카메라로부터 얻은 픽셀 데이터지만, 관성측정장치, 휠센서, 조향각센서 등으로부터 수집한 데이터 등은 후술할 네트워크 구축 과정에서 쓰이긴 한다.
[22]
예를 들어 근처 차량이 차선을 바꾸거나 동물, 덤프트럭 등이 보이는 등 잠재 위험 가능성이 있는 시점을 위주로 집어내고 이미지를 호출해서 반복 학습하다보면 이후 프로세스는 점점 자동 라벨링화가 된다.
[23]
굳이 2차원 픽셀을 3차원으로 변환하는 이유는, 차간 거리감을 알기 힘들며 주행 중 변수가 너무 많아서 2차원 데이터만으로는 변수를 해결하기 위한 추론을 하기 힘들기 때문이다.
[24]
문서 가장 위에 있는 FSD 개발자용 영상이 이것이다. 실제로는 이러한 일련의 복잡한 과정들을 거쳐 주행을 하고, FSD 주행 시에는 터치스크린상에서는 벡터공간 일부를 렌더링해서 운전자에게 보여주고 있다.
[25]
삼성전자
오스틴 팹에서 14nm로 생산됐으며,
삼성 엑시노스 칩을 활용하여 테슬라가 디자인했다.
[26]
HW2 이후 자동자 FSD 구매 고객 한정.
[27]
Here is some information about Tesla Autopilot hardware versions so far.
https://twitter.com/TroyTeslike/status/1503603550722605056
[28]
2021년까지, 2022년 계속 판매중
[29]
사람 후진 확인용
[30]
자율주행에 이용
[31]
따라서 별도의
블랙박스가 필요 없다.
[32]
2022년 10월부터 비활성화되어 더 이상 사용되지 않거나 신규 차량에는 장착되지 않고 판매됨.
[33]
2021년 5월부터 비활성되어 더 이상 사용되지 않거나 신규 차량에는 장착되지 않고 판매됨.
[34]
모델 S는 범퍼 아래나 약간 왼쪽, 모델 X는 전면 그릴 약간 오른쪽 모델 3는 약간 오른쪽
[수동]
운전자가 변경 차로에 다른 차가 없는지 확인해야 함
[s]
HW2.5에서는 저속(30~40 kph이하)에서만 인식하여 지나치려고 할 경우 경고음을 알림
[t]
2020.12.5 이후 MCU2.0이상 교통 표지, 장애물 시각화 추가
[38]
교통 표지(정지선, 도로 표면 좌회전, 우회전, 자전거 전용도로 표지, 철도건널목 표지, 전용차로/횡단보도 마름표, 장애인 전용주차 표지), 교통 장애물(공사콘, 공사드럼통, 대형 쓰레기통 등) 인식/시각화 2019년 12월 2019.40.50에서 추가
[39]
신호등 및 정지 표지판 제어. 교차로, 일단멈춤표지, 횡단보도에서 정차 시도 후 운전자가 가속을 하거나 기어 레버를 당기면 통과한다.
[40]
한국 미출시
[41]
한국 미출시,신호등/멈춤 제어 기능이, 선행 차량이 있는 교차로, 횡단보도에서 녹색 신호를 인식하여 운전자의 입력 없이 통과, 10월부터는 선행 차량 조건 삭제(일부 교차로 제외)
[42]
회전교차로, 우회전, 좌회전, 유턴, 차로변경 등
[녹화없음]
녹화기능 없이 녹화하는 척만 하고 알람만 울림
[EA]
2022년 6월 이후 한국등의 국가에서 출시된 옵션(Enhanced Autopliot) 미국에서는 2019년 2월 이전에 존재했던 옵션.
2019년 3월 1일 향상된 오토파일럿이 없어지고 재편된 내용
[EA]
[46]
[47]
테슬라 수리 요원이 고객의 집으로 방문하여 수리하는 테슬라만의 서비스
[48]
FSD를 구매한 HW2 차주도 포함
[49]
테슬라 자율주행 칩
#
[50]
테슬라 자율주행 발표 행사 전체 영상
#
[51]
FSD컴퓨터는 두 개의 FSD칩을 쓰니, 144TOPS로 연산한다. 초당 144조 번을 연산하는 것이다. 320TOPS의
엔비디아 페가수스보다는 성능이 떨어지지만, 소비전력이 매우 낮아서 소비전력 대비 연산처리량은 테슬라의 NPU가 더욱 뛰어나서 자사 제품 최적화에 보다 용이하다. 처음 설계할 때부터 배치사이즈를 1로 고안하여 레이턴시를 줄이고 이미지를 얻는 즉시 연상하기 용이하게 설계하여 주행 중 안정 확보에 용이하다.
[52]
600 GFLOPS의 파워로 32비트/64비트
플로팅 연산을 수행한다. 성능이 뛰어난 편은 아니지만, 상술한 자사 네트워크가 거듭 발전함에 따라 이를 상쇄하고 있다.
[53]
두 FSD칩이 동일한 구동 여부 점검.
[54]
암호화코드 사용 여부 점검.
[55]
초당 최대 2.5G Pixel 입력.
[56]
센서에서 얻은 아날로그 데이터를 신호로 바꾸어 처리.
[at]
2019년 4월 Tesla Autonomy Day
유투브
[58]
台積電7奈米 獲博通HPC訂單 "TSMC 7nm wins Broadcom HPC order"
https://www.chinatimes.com/newspapers/20200817000176-260202?chdtv
[59]
HW4 made an official appearance in the production code with FSDBeta 10.11
https://twitter.com/greentheonly/status/1503557626822635529
[60]
텍사스 기가팩토리에 연말까지 H100 50,000대 수용을 위한 시설 확장을 진행하고 있다고 한다.
[61]
AMD에서 일하던 가네시 벤카타라마난이라는 엔지니어 주도로 설계된
64비트
인공지능 칩. 7nm 공정으로 생산될 예정이다.
[62]
엔비디아는
TSMC를 통해 칩셋 공급을 받고 있는데, 고정밀 공정 분야에서는 단가가 높으며 수주액 기준 최대 고객사인
Apple Silicon의 수주를 우선으로 받아주기 때문에 단기간에 엔비디아의 물량을 크게 늘리기 힘든 상태이다. 이러한 현상을 해결하기 위해 2020년대 들어서
애리조나,
일본,
대만 등에 대규모 팹 투자에 들어간 상태다. 따라서 이러한 기조는 공장이 완공된 이후 일정 수준 이상의 수율이 나올 것으로 예측되는 2025년 이전까지 유지될 전망이다.
[63]
일반 가정 규모라면 전성비가 떨어져도 큰 문제가 없겠지만, 테슬라와 같이 일년 내내 컴퓨터를 굴리며 인프라 규모가 거대한 업체는 유지비용이 만만치 않다. 냉각수의 경우도 이러한 배경과 결을 같이 하며 고정 유지비용을 최대한 줄여야 높은 마진을 창출할 수 있게 된다.
[64]
다른 분야도 레이턴시가 중요하겠지만, 테슬라 같은 자동차 제조업체는 탑승자의 목숨이라는 중요한 요소를 책임져야 하기 때문에 레이턴시가 짧으면 짧을수록 좋다.
[65]
구글 클라우드 플랫폼이 이러한 방식으로 컴퓨팅 서비스를 외부에 공급해주고 있다.
모건 스탠리는 이러한 부분에서 테슬라의 잠재 가능성을 높게 쳐주며 목표 주가를 250달러에서 400달러로 올렸다.
#
[66]
참고로 인간은 10의 15제곱 FLOPS의 연산 속도를 가지고 있다고 한다.
[67]
10억마일 이상 확인후
[68]
2019년 3분기 투자자 전화 회의
https://edge.media-server.com/mmc/p/z7r768gm
[69]
일부 언론은 FSD 출시 이야기를 레벨5로 해석을 했지만, 실상 레벨5는 일정 구간이 아닌 적어도 한 국가이상에서 인간의 개입이 전혀 없이 자동차 회사에서 시내/시외/고속도로 등에서 자율 주행을 할 시 모든 사고 책임을 지어야 하기 때문에 현재 거기까지 가려면 수십년이 지나야 가능할 것이다. 구글 웨이모와 같은 완전 자율 주행 택시가 레벨4인 이유도 특정 구간에서만 사람의 개입이 없이 웨이모에서 모든 사고 책임을 지기 때문이다.
[70]
일부 매체에서는 이것을 자율주행 레벨 5로 잘못 이해하는 기사를 내기도 하으나, 원 비디오에서 그의 단어 선택을 보면 매우 신중하게 "완전자율주행 옵션 - 기능 완성"을 언급한 것을 확인할 수 있다.
[wa]
[72]
Researchers back Tesla’s non-LiDAR approach to self-driving cars
더로봇리포트
[73]
단, 오토파일럿/FSD베타 운행 최고 속력을 80 mph(129 kph)로 제한했고 교통인식 크루즈 컨트롤(TACC)의 차간 거리 설정 최저값을 기존 1에서 2로 최저 간격을 넓혔다.
[74]
웨이모같은 다른 자율주행 개발 회사가 설립 이후 모아온 총 데이터의 자동차 운행거리가 약 2천2백만km인 상황에서 테슬라는 단 하루만에 그런 운행거리의 데이터를 수집하는 것이 가능하다. 2021년 말까지 테슬라 자동차는 약 42억km의 누적 거리를 주행할 것으로 예측되고 있다.
#
[EAP]
[76]
Is a $1000 Aftermarket Add-On as Capable as Tesla's Autopilot and Cadillac's Super Cruise?
https://www.caranddriver.com/features/amp30341053/self-driving-technology-comparison/
[77]
2020년 1월 소프트웨어 기준으로
테슬라 소프트웨어의 특성상 안되는 문제들이 이후 업데이트에서 해결될 수 있음
[78]
2018년 3월 이후 구매 차주들에게 새로운 기능 모두 제공
[79]
2020년 새로 출시한 Lane Change 기능을 사용하기 위해서 새차를 구매해야 한다. 기존 차주들에게는 미제공
[80]
2020년 2월 기준
[81]
2020년 2월 기준
[82]
2020년 2월, 5th Annual Scaled Machine Learning Conference 2020
[83]
테슬라 자동차 안전 보고서
https://www.tesla.com/VehicleSafetyReport
[84]
발표내용에는 1개의 사고를 겪기 위해서 주행해야 하는 거리에 대한 통계가 나오므로 10만km에서 이 거리를 나누었다.
[85]
발표당시 가장 최근의 NHTSA(미국 고속도로 안전 관리국)의 자동차 사고 1회당 주행거리 통계,
테슬라를 포함한 모든 미국 자동차의 사고 통계
[86]
미국 전체 사고율과 테슬라 자동차들의 사고율을 비교
[87]
사고를 겪을 확률이 줄어든다
[88]
일례로 포브스에 따르면 오토파일럿 사용 데이터는 거의 대부분이 고속도로 주행 환경에서 나오는데 수동주행이나 전체 차량 데이터는 도심주행 환경의 비중이 더 크다.
[89]
사고에 대해서 논란이 많으니 가장 사용자가 많은 미국 위키피디아 페이지에 최종적으로 정리된 사고를 기준으로 삼는게 합리적일 것으로 생각된다.
[90]
그래도 이 경고를 무력화할 사람들은 얼마든지 꼼수를 부리고 있다. 실리콘밸리의 모델 S 오너들은 핸들에 귤을 끼우고 잠드는 사례가 한때 여러 번 포착됐으며, 국내에도
자석을 이용한 기구가 팔리고 있다.
[91]
Apple engineer killed in Tesla SUV crash on Silicon Valley freeway was playing videogame: NTSB
https://www.marketwatch.com/story/apple-engineer-killed-in-tesla-suv-crash-on-silicon-valley-freeway-was-playing-videogame-ntsb-2020-02-25
[92]
오토파일럿 경고를 임의로 없애기 위해 사용하는 불법 부착물
[93]
v10.2에서는 중앙 차로가 없는 경우도 적절하게 도로를 반으로 분할하여 운행
[94]
2020년 6월에 상당히 개선됨
[EAP]
Early Access Program, 완전자율주행 옵션을 일찍 구매한 사용자들 중 비공개 서약하에 미리 기능을 체험해 보고 피드백을 제출하는 프로그램. 좀 더 자세한 정보는
테슬라 소프트웨어의 업데이트 채널 참고
[96]
FSD beta rollout happening tonight. Will be extremely slow & cautious, as it should.
트위터
[og]
Early Access Program에 속하여 2020년부터 FSD 베타를 테스트해 온 약 1000명의 테스터로 보통 이들부터 먼저 받고 문제가 있으면 다음 버전까지 배포가 확장되지 않는다. OG란 약자로도 지칭된다.
[og]
[99]
69는 420(마리화나 은어)와 더불어 일론 머스크의 인터넷미임 숫자.
[100]
트윗,레딧,유투브의 인플러언서로서 테슬라 FSD 베타의 매우 어려운 난이도을 하는 작업을 지속적으로 테스트하면서 명성을 얻음
[og]
[102]
10.69.1 is even better. We reduced latency & jitter in hardware command loop, so time from object detection to brake actuation is 10% to 20% better.
https://twitter.com/elonmusk/status/1564746666414166028
[103]
v10 까지는 고속도로 자율주행과 호출 기능에 FSD와는 다른 2018년에 개발된 구버전 뉴럴넷을 사용했다.
[104]
減價資産, Depreciating Asset. 시간이 지날 수록 가치가 떨어지는 자산.
[105]
加價資産, Appreciating Asset.
[106]
Elon Musk: Tesla cars should be worth $100k to $200k with Full Self-Driving package
일렉트렉
[107]
배터리 교체 비용, 수리비용, 관리비용 등등 모두 제외 후.
[108]
한국 부동산의 경우 적정수익률이 4%에서 수익 위험이 높은 부동산도 10%정도까지 하며, 적정수익률을 20%로 잡아도 2억 이상의 가치를 가진다. 적정수익률을 35%까지 잡아야 1억2천만원 정도가 된다.
[109]
한국 가격 9,043,000원.
[110]
어떤 상품이든 그 자체의 기능이 온전히 유지돼야 가치가 유지된다. 부동산조차 외부 조건 변화로 용도에 손상이 가해지면 가치가 하락하는데, 시간이 지날수록 신형 모델이 계속 등장하는 가운데 마모되고 노후화될 수밖에 없는 기계가 원래의 가치를 온전히 유지하는 것은 극도의 희소성이 없는 한 불가능하다고 봐야 할 것이다.
[111]
일정을 너무 낙관하여 성급하게 일정을 잡고 사람들을 그 일정에 맞추어 몰아 간다는 뜻일 수도 있다.
[112]
사업성에 결부된 부문들인데, 이런 부문에서도 테슬라를 낮게 평가하는 게 타당한지 논란이 있다. 가이드하우스 인사이트가 가장 높게 평가한 GM의 슈퍼크루즈를 탑재한 차량의 판매량이 2019년 기준으로 1만대에 못 미치는 등 다른 자율주행 시스템의 판매량이 미미한 가운데, 테슬라는 오토파일럿이 탑재된 차량의 판매량이 백만대를 훨씬 넘어서고, 완전자율주행 기능이 추가된 차량만 따져도 수십만대에 달한다. 이러한 상황을 고려할 때, 2020년의 리포트에서 조차 테슬라를 최하위로 위치한 것은 가이드하우스 인사이트의 리포트에 대한 신뢰도에 대한 의구심을 갖게 만든다.
[113]
대학에서 자동차 관련 전공으로 학사 학위를 받았을 뿐이고, 자동차 부품 업체에서 근무한 경력이 있기는 하지만 2007년 이후로는 기술 분야 커리어는 전혀 없고, 주로 작가나 기고가로서 활동하고 있다.
[114]
다만 한국의 경우 2024년 9월 기준 규제기관 승인 대기 중인 유럽권, 중국을 비롯한 타국가에 비해 딱히 그렇다 할 진전 소식이 없기에 출시가 늦을 것으로 예상된다.
[115]
한국 테슬라 FSD가 출시 될 것이라는 예고에 1000만원 가량의 FSD 옵션을 구매해놓은 기존 구매자들은 몇년이 지나도 출시하지 않고 소식도 없는 한국 FSD 출시 문제에 적지 않은 불만을 표하고 있다.
[116]
오토파일럿 분석 및 개선 허용, 주행 시작 및 종료 데이터 포함, 주차시 데이터 포함, 주행 시작 및 종료 데이터 포함, 실내 카메라 분석 허용, 도로 구간 데이터 분석 허용, 충전 데이터 분석 허용이 들어가 있다.