이번 사고 이외에도 테슬라의 자율주행시스템과 관련된 교통사고가 꾸준히 발생하고 있다. 테슬라에서 분기별로 발표하는 안전 보고서에 의하면 2020년 1분기 기준 10만 km 주행 시 사고율은 오토파일럿이 1.33%, 일반 자동차가 12.98% 이다. 오토파일럿 이용 시 일반자동차 대비 약 10% 정도로 낮은 사고율을 보여줘 충격적이다. 문제는 ‘0’이 아니라는 점이다. 사고를 100% 피할 수는 없다는 얘기다.
소프트웨어도 문제다. 인공지능은 결국 컴퓨터 프로그램이다. 소프트웨어에서 버그가 '제로'일 수 없는 것이다. 자율주행 시스템은 방대한 양의 데이터를 실시간으로 처리하고 판단해 대응해야 한다. 이 과정에서 프로그램 오류나 버그 따위로 문제가 생길 수도 있다. AI의 경우 알파고와 이세돌의 바둑 대국에서 보인 것처럼 스스로 정확한 판단에 실패하기도 한다.
전문가들의 해석은 엇갈렸다. 자율주행 시스템은 시각적 정보인 카메라 판독 외에도 레이더나 라이다 등의 다양하고 정교한 정보를 수집해 작동하는 만큼 충분히 피할 수 있는 사고였다는 점이다. 조사 결과 소프트웨어 설계에서 무단횡단하는 보행자를 인식하지 않도록 되어있다는 것이 밝혀졌다. 결과적으로 인간의 돌출 행동이나 속임수에 대처하지 못한다는 것이다. 당시 충돌 6초 전 소프트웨어에서 보행자를 감지했지만 프로그래밍 되어있는 대로 보행자가 아닌 ‘미확인 물체’로 판단했다. 아직까지 프로그램의 한계를 보여준 셈이다.
이러한 문제를 보완하기 위해 전 세계에서 자율주행의 맹점을 연구하며 보완한다. 처음 시작은 사람이 답을 놓고 문제를 제시하며 학습시키는 지도학습이다. 지도학습을 반복하며 어느 정도 데이터가 쌓이고 인공지능의 패턴이 정립되면 비지도학습으로 전환한다. 방대한 양의 데이터를 입력해 AI가 스스로 판단, 학습을 시작한다. 학습량이 올라갈수록 많은 상황에서의 판단과 대처에 대한 기록이 생기고 더 나아가면 스스로 상황을 만들어 학습하기도 한다.
하지만 아직까지 자동차의 한계속도나 급격한 물리적 변화에는 대응하기 힘들다. 가령 돌발 상황에서 피할 수 있는 경로가 하나 밖에 없을 때, 그 경로를 지나갈 수 있는 속도를 파악하고 대응하지 못한다. 대부분의 자율주행시스템은 차량 제어 시 중력가속도 0.3G를 넘기지 않도록 설정되어 있어서다.
인공지능은 끊임없이 진화한다. 마치 인간처럼 스스로 주행하며 학습한다. 완벽해지기 전까진 실패를 거듭해야 하겠지만 ‘실패는 성공의 어머니’라는 말처럼 실패 확률을 줄여 나갈 것이다. 레벨5는 몰라도 레벨4 수준의 자율주행은 그리 멀지 않았다.