Apple leerá tus labios: patenta un sistema para que Siri reconozca tus palabras sin micrófono
- 해외 기사 - (스페인)
Apple은 당신의 입술을 읽을 것입니다: Siri가 마이크 없이 당신의 말을 인식하는 시스템 특허
특허는 Apple이 Vision Pro 또는 AirPods와 같은 장치의 센서로 입의 움직임을 읽는 방법을 보여줍니다.
미래의 Apple 장치는 입술을 읽을 수 있으므로 Siri 및 기타 시스템은
사용자 명령을 이해하는 데 어려움이 없습니다.
애플의 새로운 특허는 Vision Pro 증강 현실 헤드셋 및 인공 지능 사용과 같이
Cupertino가 현재 투자하고 있는 큰 내기 중 일부를 결합하는 목표를 보여줍니다.
Apple이 한동안 투자해 왔다고 말하는 생성 인공 지능을 통해
사용자가 자체 GPT 챗봇과 같은 다른 용도 중에서 가상 비서인 Siri와 대화를 개선할 것으로 예상 됩니다.
그러나 각 사람의 다양한 발음 과 발성 방식에 대한 Siri의 이해를 향상시키는 것이 필요합니다.
최근 출원된 특허에서 Apple은 "움직임 데이터"를 단어나 구문과 일치시킬 수 있는 시스템을 설명합니다.
얼굴 움직임은 음성 인식과 함께 증강 현실 헤드셋과 같은
특정 장치와 AirPods과 같은 헤드폰에서 "Hey Siri, 다음 노래"와 같은
음성 명령을 더 쉽게 이해할 수 있도록 합니다.
애플의 의도는 기기의 마이크를 끄고자 하면서도 'Siri'와 같은 특정 사용자 키워드를 계속 이해하여
그에 따라 행동하고 나머지 명령을 들으면서 마이크를 켜는 것입니다.
이 시스템은 어시스턴트를 활성화하려고 할 때 여러 번 실패하는 마이크 및 소음으로 가득 찬
오디오 처리에 비해 전력 소비가 적다고 회사는 설명합니다.
누군가가 그것에 대해 생각하는 경우 아이디어는
사람의 얼굴을 기록하는 카메라를 사용하는 것이 아니라 모션 센서를 사용하는 것입니다.
"사용자가 말을 하면 사용자의 입, 얼굴, 머리, 목이 움직이며 진동한다"고
AppleInsider 가 처음 보고한 특허 내용을 읽습니다.
"가속도계 및 자이로스코프와 같은 모션 센서는 이러한 움직임을 감지할 수 있으며
마이크와 같은 오디오 센서에 비해 상대적으로 적은 전력을 소비합니다."
이런 식으로 기능은 화상 통화에서 사용자의 얼굴을 재현하거나
손의 움직임을 따라가는 센서가 탑재된 새로운 증강 현실 헤드셋과 같이
사람의 머리에 있는 장비에 국한된 것처럼 보입니다.
또한 미래의 헤드폰 에서는 귀에서 신체 근육의 움직임을 해독합니다.
이를 위해 애플은 사람들이 각 단어를 발음하기 위해 행하는 움직임에 대한
대규모 데이터 세트를 분석 해야 하며, 동일한 단어에 대해 각 화자의 발음과 언어를 구별해야 합니다.
기술 대기업이 내년에 집중적으로 개발하고 이 기술에 많은 돈을 걸고 있는
다른 회사와 경쟁한다고 주장하는 것과 같은 딥 러닝 시스템일 가능성이 있습니다.
특허가 구체화되거나 서랍에서 잊혀지는지 기다려야 합니다.
--------------------------------
https://news.yahoo.com/apple-patent-says-siri-could-200322101.html
비슷한 내용의 또 다른 해외 기사
Apple 특허에 따르면 Siri는 당신의 입술을 읽도록 훈련받을 수 있습니다.
이 특허는 AirPod 세트 내부의 자이로스코프 또는 가속도계를 사용하여
미묘한 얼굴 움직임을 기록하는 방법을 설명합니다.
Apple의 헬퍼 봇에 대한 많은 문의와 마찬가지로 Siri에게
"내 입술을 읽어줘"라고 요청하면 "이해를 잘 하지 못했습니다"라는 메시지와 함께 돌아옵니다.
결국, 애플은 지금까지 최신 AI 시스템에 대해 많은 이야기를 하지 않았습니다.
왜 음성인식 서비스는 2001: 스페이스 오디세이 의 HAL 9000처럼 나를 응시하고 싶어할까요?
새로 공개된 Apple의 특허는 회사가 독점적인 입술 읽기 프로그램이 어떤 모습일지
적극적으로 고려했음을 보여줍니다.
특허 출원은 원래 올해 1월에 제출되었으며 "움직임 데이터"가
단어나 구와 일치하는지 여부를 결정하는 시스템을 설명합니다.
다이어그램에는 "Hey Siri", "건너뛰기" 또는 "다음 노래"와 같은 간단한 음성 명령으로
Siri와 사용자의 입 부분을 분석하는 알고리즘 덕분에
이러한 모든 입력이 어떻게 개선될 수 있는지 구체적으로 언급되어 있습니다.
Apple Insider가 처음 언급한 것처럼 Apple은 Siri와 같은 음성 인식 시스템에
명백한 문제가 있다고 설명합니다.
음성은 배경 소음으로 인해 왜곡될 수 있으며 사람의 음성을 지속적으로 모니터링하는
다른 센서는 상당한 양의 배터리와 처리 능력을 소모합니다.
이러한 시스템은 반드시 장치의 카메라를 사용하지는 않습니다.
대신 음성 인식 소프트웨어는 전화기의 모션 센서 중 하나를 사용하여
입, 목 또는 머리를 기록하고 그 움직임이 사람의 말을 나타낼 수 있는지 확인합니다.
이러한 센서는 부착된 가속도계 또는 자이로스코프일 수 있으며
Apple은 특허에서 마이크보다 원하지 않는 자극에 의해 손상될 가능성이 훨씬 적다고 밝혔습니다.
특허는 그런 종류의 동작 감지 기술이 AirPods 에 어떻게 통합 될 수 있는지 또는
"스마트 글래스"에 대한 모호한 언급으로 그 데이터를
사용자의 iPhone으로 보내는 방법을 설명하기 때문에 전화기일 필요는 없습니다.
이 장치는 문서에 따라 미묘한 안면 근육, 진동 또는 머리 움직임을 감지할 수 있습니다.
물론, 스마트 글래스에 대한 Apple의 꿈은 몇 년 전에 사라졌지만 회사는
Vision Pro 헤드셋으로 큰 일을 기대하고 있습니다.
(IP보기클릭)180.229.***.***
"시리야. 아버지께 '모래반지 빵야빵야'라고 메세지 보내줘." [네. 뭘 봐 이 Cbal놈아라고 보냈습니다.]
(IP보기클릭)220.92.***.***
(IP보기클릭)121.154.***.***
시리 사용할때마다 느끼는건데 넌 왜 그따구로 받아적니? 라는 의구심만듬;
(IP보기클릭)121.164.***.***
(IP보기클릭)61.76.***.***
(IP보기클릭)180.229.***.***
KOR-HERMES
"시리야. 아버지께 '모래반지 빵야빵야'라고 메세지 보내줘." [네. 뭘 봐 이 Cbal놈아라고 보냈습니다.] | 23.08.04 22:02 | | |
(IP보기클릭)220.92.***.***
(IP보기클릭)121.154.***.***
시리 사용할때마다 느끼는건데 넌 왜 그따구로 받아적니? 라는 의구심만듬;
(IP보기클릭)119.70.***.***
진짜 악의가 느껴질때는 부르는대로 받아적을때는 올바르게 받아적고서는 마지막 처리 할때 이상한거로 치환해서 처리할때 악의가 느껴지죠... | 23.08.05 00:12 | | |
(IP보기클릭)121.160.***.***