X

[구글I/O 2019] 구글 핵심 가치는 접근성…관련 기술 개발 주력

한광범 기자I 2019.05.09 08:01:05

장애지원팀 운영…'접근성문제' 적극 개입
청각장애 서비스 개발…'실시간 자막' 공개
주변 사물 안내 '룩아웃' 서비스 3월 출시
구음장애 개발에 박차…프로젝트 유포리아

선다 피차이 구글 최고경영자(CEO). (사진=구글)
[마운틴뷰(美 캘리포니아)=이데일리 한광범 기자] 구글이 장애인의 접근성 강화 기술 개발에 열을 올리고 있다. 선다 피차이 구글 최고경영자는 7일(현지시간) 미국 캘리포니아주 마운틴뷰 쇼라인 앰피시어터에서 진행된 구글 I/O 기조연설의 상당 시간을 장애인 접근성 강화를 위한 기술 개발 소개에 할애했다.

접근성은 구글이 추구하는 가치의 핵심이다. 단순히 구글 서비스 접근을 넘어 기술을 통한 세상에 대한 물리적 접근성을 더 높이는 것이 구글이 추구하는 가치다. 구글은 접근성을 서비스 개발의 기본에 두기 위해 사내에 다양한 교육 프로그램도 운영하고 있다. 직원들을 상대로 장애에 대한 지속적인 교육을 통해 접근성 강화에 대한 분명한 방향성을 요구한다.

이와 함께 사내에 장애인 접근성 강화를 위한 장애지원팀을 두고 있다. 사용자들이 제품의 접근성에 문제가 있다고 생각할 경우 제보하면 장애지원팀이 직접 문제 해결에 나서게 된다. 패트릭 클래리(Patrick Clary) AI 및 접근성 부문 프로덕트 매니저는 8일(현지시간) 미국 캘리포니아 마운틴뷰에 위치한 구글 캠퍼스에서 기자들과 만나 “기술이 진보하며 머신러닝 등을 통한 접근성 강화 가능성을 보게 됐다”고 설명했다.

구글은 현재 장애인의 접근성을 높이기 위한 다양한 서비스를 운영 중이다. 시각·청각·구음 등 장애별로 맞춤형 서비스를 출시했거나 출시를 준비 중이다. 이들 서비스 대부분은 현재 미국에 한해 운영이 되고 있지만 구글은 지속적 연구를 통해 서비스 지역을 확대한다는 방침이다.

◇청각장애인용 서비스 가장 성과…‘실시간 자막’ 공개

청각장애인 맞춤형 서비스는 장애인 접근성 서비스 중 가장 성과가 두드러진 분야다. 구글은 전날 구글 I/O 기조연설을 통해 ‘실시간 자막(Live Caption)’ 기능을 공개했다. 기존에 유튜브 등에서 도입됐던 ‘자동 자막’ 기능을 발전시킨 서비스다. 클라우드에 연동된 서비스인 ‘자동 자막’과 달리 ‘실시간 자막’은 온디바이스 형태다. 온라인 연결 없이 휴대전화에 저장된 모든 영상·음성 파일에 적용할 수 있다.

일단 ‘실시간 자막’ 기능은 안드로이드의 새로운 OS인 ‘안드로이드Q’를 통해 서비스를 시작할 예정이다. 언어도 일단 영어에 한해서만 지원한다. 브라이언 켐러(Brian Kemler) 안드로이드 접근성 프로덕트 매니저는 “추후 용량, 연산력, 보안 등에서 일정한 사양을 갖춘 프리미엄폰에서 우선 서비스가 시작될 것 같다”고 밝혔다.

또 다른 서비스는 지난 2월 출시한 ‘라이브 트랜스크라이브(Live Transcribe)’다. 인공지능(AI)을 이용해 대화를 그대로 활자로 옮기는 서비스로, 인공지능(AI)과 머신러닝을 통해 화자를 구분하고 문맥에 맞는 단어로 표시가 된다. 기존에 나왔던 유사한 서비스들보다 정확하게 대화를 지원한다는 것이 구글 측의 설명이다. ‘실시간 자막’ 기능과 달리 클라우드 기반 서비스다.

◇룩아웃, 돈 금액까지 인식 가능

지난 3월 출시한 ‘룩아웃(Look Out)’은 시각장애인을 위한 서비스다. 시각장애인이 낯선 장소에 갔을 때를 고려해 스마트 디바이스의 카메라가 주변 상황이나 물체를 음성으로 설명해준다. 카메라에 들어온 사물을 디바이스가 직접 ‘사람’·‘책상’·‘스웨터’처럼 단어로 알려준다. 위치정보 접근이 가능하게 설정하면 ‘6시 방향에 사람이 있다’는 식의 설명을 하게 된다. 돈을 촬영할 경우 금액을 읽어준다.

현재 미국에서만 이용이 가능하다. 디바이스도 구글 픽셀폰과 삼성·LG 제품 일부만 구동이 된다. 클래리 매니저는 “향후 글로벌 확장을 하려고 하지만 지리적으로나 사물적으로 숙제가 많다”며 “한국의 경우 언어는 물론 화폐, 제품 표면 등이 미국과 달라, 서비스를 위해선 물밑에서 많은 노력이 필요하다”고 밝혔다.

구글이 최근 연구에 열을 올리고 있는 분야는 구음장애인을 위한 서비스다. ‘프로젝트 유포리아(Project Euphonia)’팀 주도로 뇌졸중·근위축측삭경화증(ALS)·다발성 경화증·외상성 뇌손상·파킨슨병 등의 영향으로 정확한 발음을 내는 데 어려움을 겪는 이들을 위한 음성 인식 서비스 개발을 본격 추진하고 있다.

줄리 카티오(Julie Cattiau) 구글 AI 프로덕트 매니저는 8일(현지시간) 미국 캘리포니아주 마운틴뷰에 있는 구글캠퍼스에서 취재진과 만나 구음장애인 지원 기술 개발을 위한 ‘프로젝트 유포리아’에 대해 설명했다. (사진=이데일리)
줄리 카티오(Julie Cattiau) AI 프로덕트 매니저는 “구음장애를 가진 분들의 음성은 컴퓨터도 제대로 인식하기 어려워 음성인식 오류율이 높다”며 “구글 어시스턴트 등의 서비스가 아무리 좋아져도 구음장애인들의 음성을 제대로 인식하지 못하면 이들의 서비스 접근성이 제한되는 문제가 발생한다”고 밝혔다.

구글은 구음장애인들의 음성 샘플을 모아 AI 알고리즘을 통해 인식률을 높이기 위해 노력하고 있다. 하지만 음성 샘플의 부족으로 연구에 어려움을 겪고 있다. 피차이 CEO도 7일(현지시간) 기조연설을 통해 ‘프로젝트 유포리아’를 소개하며 구술장애인들에게 음성 샘플 지원을 부탁했다. 구글이 구글 I/O 기조연설에서 프로젝트 유포리아 연구 사례로 소개했던 구글 음성언어 연구자 디미트리 카네프스키(Dimitri Kanevsky)의 경우 연구진에 제출한 음성 샘플만 15시간 분량으로 알려졌다.

일단 구음장애를 겪는 영어 사용자에 한해 연구가 진행 중이다. 카티오 매니저는 “초기단계인 지금은 우선 영어를 모국어로 하는 분들을 대상으로 프로젝트를 시작한다”고 전했다. 영어 사용자에 대한 연구가 성과를 내면 다른 언어나 독특한 악센트 사용자를 대상으로 서비스를 확대한다는 방침이다. 프로젝트 유포리아는 궁극적으로는 전혀 말을 하지 못하는 장애인들의 표정이나 입모양을 통해 말을 인식하는 기술을 개발하겠다는 구상이다.

주요 뉴스

ⓒ종합 경제정보 미디어 이데일리 - 상업적 무단전재 & 재배포 금지