기기 사용 접근성 높이는 신기능 하반기 출시
AI 기반 눈 추적 기능 추가…온디바이스 머신러닝 활용
‘비전 프로’ 비전OS에 실시간 자막 기능 제공
애플이 아이폰, 아이패드 등에서 시각 만으로 기기를 제어할 수 있는 ‘눈 추적’ 기능 등 다양한 손쉬운 사용 기능을 지원할 예정이다.
애플은 올해 하반기 새로운 손쉬운 사용 기능들을 출시한다고 17일 밝혔다.
사라 허링거 애플 글로벌 손쉬운 사용 정책 및 이니셔티브 수석 책임자는 “우리는 해마다 손쉬운 사용의 새로운 지평을 열고 있다”며 “이러한 새로운 기능은 다른 사용자와 소통하고, 기기를 제어하고, 세상을 여행하는 새로운 방식을 제공함으로써 광범위한 사용자의 삶에 영향을 줄 것”이라고 말했다.
우선 애플은 아이폰과 아이패드에 인공지능(AI)을 기반으로 구현되는 눈 추적 기능을 탑재할 계획이다. 이 기능은 전면 카메라를 활용해 기기 설정 및 조정을 돕는다.
애플은 눈 추적 기능 활용 시 사용자의 눈만으로 물리버튼, 스와이프, 기타 제스처 등 다양한 기능에 접근할 수 있다고 설명했다. 이 과정에서 활용되는 모든 데이터는 온디바이스 머신러닝을 통해 기기 자체에 보관된다. 아이패드 OS 및 iOS 앱에서 작동하기 때문에 다른 하드웨어나 액세서리가 불필요하다.
청각장애 또는 난청이 있는 사용자를 위한 음악 접근성 확장 기능도 제공된다. ‘음악 햅틱’ 기능은 아이폰의 ‘탭틱 엔진’을 활용해 음악 소리에 따라 탭, 텍스처와 섬세한 진동을 구현한다.
음악 햅택 기능은 애플뮤직 카탈로그에 있는 수백만 곡의 음악에서 작동하며, 향후에는 수많은 개발자들이 제작한 앱에서 개발자용 API로도 지원될 예정이다.
음성 명령으로 음성비서 시리가 단축어를 실행할 수 있도록 하는 ‘음성 단축어’ 기능도 적용된다. 또 다른 새로운 기능인 ‘리슨 포 에이티피칼 스피치(Listen for Atypical Speech)’는 온디바이스 머신러닝을 활용해 사용자의 말하기 패턴을 인식한다. 이 기능은 뇌성마비, 루게릭병, 뇌졸중 등 언어 능력에 영향을 미치는 질환을 보유한 사용자들을 위해 개발됐다.
혼합현실(MR) 헤드셋 ‘비전 프로’의 자체 운영체제인 비전 OS에도 손쉬운 사용 기능이 탑재된다. 비전 OS에는 실시간 채팅과 앱 내 오디오 음성 대화 내용을 이해할 수 있는 ‘실시간 자막’ 기능이 포함될 예정이다.
팀 쿡 애플 최고경영자(CEO)는 “우리는 혁신을 통한 변화의 힘이 삶을 더욱 풍성하게 만든다고 확신한다”며 “애플이 40년에 가까운 시간 동안 손쉬운 사용을 하드웨어와 소프트웨어의 핵심 기능으로 탑재함으로써 포용적인 디자인 개발에 애쓰는 것도 바로 이러한 이유 때문이다. 우리는 쉬지 않고 기술의 경계를 확장해 나갈 것이며, 이 새로운 기능들은 모든 사용자에게 가능한 최고의 경험을 선사하고자 하는 우리의 오랜 노력을 반영할 것”이라고 밝혔다.
[CEO스코어데일리 / 김은서 기자 / keseo@ceoscore.co.kr]
댓글
[ 300자 이내 / 현재: 0자 ]
현재 총 0개의 댓글이 있습니다.