Q: 오리온도 투명 케이스 에디션을 따로 만들건지?
이미 만듦
Q: 오리온 안경의 배터리 수명은?
안경 자체는 2~3시간 정도. 우리가 초대한 기자들 중 2시간 내내 쓰고 구동한 사람도 있었음. 꽤 고무적인데, 왜냐하면 개발 초기에는 발열 때문에 안경이 일찍 뻗어버리지 않을까 걱정했기 때문이다. 특제 투명 플라스틱 오리온 에디션은 열을 발산해주는 마그네슘 소재가 아니라서 30분만에 발열로 뻗지만, 실제 기기는 배터리가 다 닳을때 까지 3시간동안 버틸수 있음.
Q: 이 오리온 AR 안경 개발해온 기간이 대체 얼마나 긴거임?
안경을 위한 연구 자체는 10년 전에 시작함. 이 오리온 프로젝트에 대한 본격적인 개발은 6년 전에 시작되었고.
Q: 2030년이 되면 오리온이 시장에 나와있을까?
오리온이 나오는게 아니다. 오리온은 그냥 이 프로토타입의 이름을 뿐이니깐. 어쨌든 그때쯤이면 이미 나와있겠지.
Q: 이런게 대중적으로 풀리려면 얼마나 걸리고, 가격은 얼마가 될까?
한 2~4년 정도 걸리고, 막 10년 정도로 먼 미래 수준은 아님. 오리온 시연 전에는 다들 아주 먼 미래라고 생각했겠지만, 그렇게 멀지 않았다. 가격은 엄청 싸지는 않을 것. 퀘스트 3S나 퀘스트 3 수준의 가격대를 기대하면 안 된다. 하지만 적어도 스마트폰이나 노트북 시장에서 일반적으로 받아들여지는 가격대 정도로 내려고 함.
Q: 만일 오리온 안경을 당장 판매한다면, 가격이 어느정도 될 지?
이 질문 엄청 많이 받았고, 충분히 궁금해 할 만 함. 일단 명심해야 할 것은, 이건 실제 양산 비용을 따지는 소비자용 제품이 아니라, 생산 라인이 따로 없는 상태의 프로토타입 조립품이라는 거다. 일부러 답변을 피하는게 아니라, 명확하게 답변해주기 힘든 부분들이 있음. 실제 제품의 판매용 가격을 매길 때는 단순히 물리적인 재료비 외에도, 거기에 들어간 R&D 비용 충당도 고려해야 하고 매우 복잡하다.
그리고 이건 애초에 그런 소비자용으로 내려는 물건이 아닌 프로토타입임. 오리온은 이제 내부적으로 AR 안경용 소프트웨어와 사용자 경험을 개발하는 플랫폼으로 사용된다. 소비자 레벨의 AR 안경 개발은 이미 따로 개발에 착수한 상태이며, 오리온에서 개발된 소프트웨어들이 이 소비자용 제품 출시와 함께 나올것.
Q: 오리온이 개발킷으로써 전 세계에 있는 개발자들에게 뿌려질 것인지?
오리온은 메타 내부자 전용 개발킷이다. 일단 내부적으로 이런 기반 플랫폼을 보유한다는 것은 큰 행운임. 다른 회사들보다 앞서서, 개발자들이 직접 써보면서 AR 안경에서의 소프트웨어 경험이 어떤지, 어떠한 것들을 피해야 하는지에 대해 직관적인 체험을 할 수 있기 때문. 저커버그와 나도 안경을 직접 써보면서 AR 안경 전용 소프트웨어 개발 방향성에 대한 인사이트를 얻을 수 있었다. 당장은 이런식으로 퍼스트파티 전용 소프트웨어 개발에 집중하면서 최적화할 예정.
Q: 오리온 안경은 퀘스트랑 동일한 호라이즌OS로 구동되는지? 혹은 그렇게 할 예정인지?
아님. 퀘스트랑 최대한 기술 기반에서 많은 부분을 공유하려고는 한다. 핸드 트래킹이라든지, 아이 트래킹이라든지, 코덱 아바타 등등 퀘스트랑 오리온에서 모두 동일하게 사용될 수 있는 것들 말이지. 그러면서도, 각각의 기기들이 서로 안 맞는 분야들을 억지로 공유하게 만드는 상황은 피하려고 한다.
퀘스트는 MR 헤드셋대로, 오리온은 AR 안경대로 자신만의 최적의 버전이 될 수 있어야 함. 일상에서 AR 안경을 사용하는 상황이라면 VR 컨트롤러 위주의 조작 상황을 원하지 않고 간단하게 아이 트래킹과 손목 밴드로만 해결할 수 있기를 원하는 것 처럼 말이다. 즉, 서로 공유하는 다양한 기반 기술들도 있지만, 각각의 기기들은 자신만의 영역이 있는거. 특히 AR은 인터페이스나 인터랙션, 사용 상황 부분에 있어서 매우 독특한 부분들이 많기 때문에, 별개의 OS가 요구된다고 봐야한다.
Q: 저번 AMA에서 MR 헤드셋은 별로 인기 없을거고 AR 안경이 진짜 인기 많을거라고 하지 않았음? 무슨뜻임?
내 말을 잘못 이해했나본데, 예를 들어서 노트북 시장과 스마트폰 시장의 크기나 중요성을 분석해봐라. 어느 측면에서는 노트북도 매우 유용하고 좋다. MR 헤드셋과 AR 안경도 마찬가지. 둘 다 유용하고 좋은 기기인데, AR 안경이 일상 생활 속으로 파고들 수 있는 접근성이 좋기 때문에 스마트폰처럼 상대적으로 더 광범위한 시장을 갖게 될 것이라고 보는 거.
Q: 오리온 얼마나 자주 쓰고 놀음?
그냥 최대한 많이 써보고 있음. 하루에도 몇번이고 쓴다.
Q: EMG 손목 밴드에 대한 기대가 크다. 이거 따로 개발자들한테 오픈해서 단독 제품으로 낼 의향은 없는지?
좋은 질문. 이 뉴럴 인터페이스 손목 밴드는 굉장히 멋진 기술로, 단순히 오리온 뿐만 아니라 현재 개발중인 다른 기기들에도 지원될 예정이다. 커넥트에서 보여준 활용법은 빙산의 일각일 뿐. 나도 이 손목 밴드가 자체적인 플랫폼으로 발전할 것이라고 생각한다. 일단 이런 기기가 보급되면, 일상 생활에서 TV를 조작한다거나 각종 전자제품을 원격으로 조종하지 못 할 이유가 없으니깐. 언젠간 그런 레벨까지 갈 것이다.
물론 그 전에 이것저것 해결해야 할 부분들이 있는데, 우선적으로는 기초적인 수준의 AR 화면이라도 있어야 이용자가 입력하고 있는 신호를 직접 확인할 수 있다는 점이다. 그런 화면이 있어야 내가 손목 밴드로 정확한 신호를 입력하고 있는지 아닌지 확실하게 훈련을 할 수 있으며, 그런 과정을 거쳐야 나중에 화면 없이도 손만 이용해서 신호를 보낼 수 있는 수준까지 갈 수 있다. 어느정도는 닭이 먼저냐 달걀이 먼저냐 하는 문제 같아 보이지만, 우리가 닭이랑 달걀을 모두 제공할 수 있게 되면 해결될 문제.
Q: 도파관 재료로 실리콘 카바이드 말고 고려된 소재들은 무엇인가?
다들 예상하다시피 니오브산 리튬(Lithium Niobate)도 있었고, 고굴절 유리랑 일반 유리도 있었다. 실리콘 카바이드는 그 중에서 굴절률이 2.6으로 가장 높은 재료였기 때문에 선택된 것. 니오브산 리튬은 2.3이고, 고굴절 유리는 1.9, 일반 유리는 1.3이다. 이게 높아야 웨이브가이드 내부에서의 전반사가 효율적으로 이루어져 높은 시야각을 달성할 수 있고, 아티팩트가 적어짐.
근데 실리콘 카바이드는 생산부터 가공까지 과정이 매우 복잡한데다가, 유통이 엄격하게 통제되는 첨단 소재라서 가공 설비도 아무나 한테 맡겨 아무곳에나 짓지 못 한다. 그런 부분에 있어서 아직 해결해야 할 문제들이 많음.
Q: 오리온 시연에서 보인 코덱 아바타는 머리만 있던데, 안경에서 전신 아바타도 구현 가능할까?
전신 코덱 아바타는 계속해서 개발하고 있다. 근데 AR 안경 폼팩터에서 구동하는 코덱 아바타에 있어서는, 굳이 제대로 안 보이는 신체까지 억지로 추적해가며 코덱 아바타를 구현할 필요성이 떨어진다. 뭐, 그냥 추적 없이 추정만 넣어서 알아서 움직이게 할 수도 있겠지. 지금 당장은 굳이 전신을 구현하기 보다는, 풍부한 표정으로 실감나는 얼굴에 집중하는 것이 더 의미있다. 딱히 전신 아바타를 기술적으로 구현 못 한다든가 하는건 아님.
Q: AR 안경 데모 영상에서 홀로그램 코덱 아바타가 좀 자글거리고 버벅였던것 같은데, 아직 해결이 안 된 문제가 많나?
커넥트의 무대에서 재생된 영상을 말하는거라면, 나도 좀 거슬렸다고 생각하는데, 이건 일종의 녹화 아티팩트다. 실제로 안경을 써서 보면 그렇지 않음. Ben Thompson (유명 테크 애널리스트) 한테 시연했을때, 그는 오리온을 통해 코덱 아바타를 보고는 그게 비디오 화상 통화로 보는 진짜 사람 얼굴 영상이라고 착각했을 정도다. 그러니 그 저화질의 무대 영상만 보고 판단하진 않길 바람. 애초에 왜 그런 영상을 무대에서 틀어줬는지 모르겠다.
Q: 오리온 안경에 외장 컴퓨팅 퍽이 필요한 이유?
오리온 안경은 뉴럴 손목 밴드와 컴퓨팅 퍽이 한 세트로 구성되어 있다. 이 퍽은 연산 작업과 렌더링을 처리하며, 렌더링된 이미지를 안경에 전송하면 안경에서 최종 프로젝션이 진행된다. 이를 위해서 이 기기들 안에는 퀄컴의 SoC와 더불어 메타에서 내부적으로 디자인한 10개의 커스텀 칩이 특수한 전용 무선 프로토콜을 처리한다.
Q: 오리온의 외장 컴퓨팅 퍽에 각종 센서랑 트랙패드가 달려있는 이유가 뭐임?
관찰력이 좋네. 그 부품들은 비활성화된 상태다. 개발 초기에는 퍽에 이것저것 기능들을 많이 넣어보자는 아이디어들이 있었음. 근데 굳이 특수 기능을 쓰기 위해 퍽을 꺼내들어야 하는 상황을 유도하기 보다는, 그냥 가방이나 주머니에 넣어놓기만 하면 아무 간섭 없이 안경의 사용에만 집중할 수 있는 형태가 더 낫겠다고 판단했다. 지금 남아있는건 그 초기 개발 단계의 흔적으로, 이미 만들어놓은 퍽에서 굳이 시간을 더 들여서 부품들을 떼어내버리진 않은 상태인거.
Q: 스마트폰이 소비자 버전 AR 안경의 외장 퍽 역할을 할 수도 있을까?
그렇기도 하고, 아니기도 함. 무슨 말이냐 하면, 그럴수 있게만 되면 정말 좋겠다는 거다. 현재로서는 스마트폰 제조사들이 우리가 그런 짓을 하는걸 절대 허용하지 않음. 그 기능을 넣는다고 해도, 무조건 자기네들만 쓸 수 있게 전용 규격으로 만들어서 막아버리지. 스마트폰 소비자들이 그 부분에 대해 제조사들을 비판하는 목소리를 내야 함. 이건 밥그릇 싸움 한다고 경쟁 자체를 차단하는 악질적 행위이고, 결국 그 손해는 소비자들에게 돌아오기 때문이다. 이미 구매해서 주머니에 들어있는 스마트폰 자체에 동일한 연산 능력이 있어도, 제조사가 그걸 못 쓰게 막아버리면 그게 잘못된거 아닌가?
그것과는 별개로, 현재로서는 기술적으로 불가능한 점도 있다. AR 안경과 통신하기 위해서는 추가적인 칩과 기술들이 필요한데, 지금 당장 시장에 나와있는 스마트폰들에는 그게 들어있지 않거든. 근데 그 기술들이 미래의 폰들에도 영원히 안 들어갈거라고 볼 수 없고, 그래서 대답이 그렇기도 하고 아니기도 하다는 식으로 나온거.
*사견: 아마 메타가 무선 통신이나 센서 처리 관련해서 전용 칩들이랑 기술을 개발한건 맞지만, 이걸 양산 과정에서 통합하는데 있어서는 그 기능들을 퀄컴의 양산칩, 즉 XR2 라인이나 스냅드래곤 라인에 임베드 시켜 일종의 표준 기술로 만드는게 가장 이상적임. 이미 퀄컴 XR 칩 자체부터가 역사적으로 메타랑 긴밀히 협력해서 개발되어 왔기도 하고, AR 칩 부분도 퀄컴이 많이 엮여있을 수 밖에 없음. 퀄컴이 통신 모뎀이나 안드로이드 스마트폰 AP 시장을 독점하고 있는 만큼, 차세대 칩에 표준 기술로 메타에서 개발한 이 AR 안경 원격 연산 통신 기능을 넣으면 충분히 재미있는 시나리오가 나올거라고 생각함
Q: 안경에 시력 교정 기능 있음?
와, 시력을 교정해주는 안경? 기발한 제품 아이디어 인듯...!
...농담이고, 현재는 오리온에 도수 렌즈 지원 기능이 따로 없어서 컨택트 렌즈를 끼고 써야함. 물론 일시적인 미봉책이고, 소비자 버전에서는 일반 안경으로도 기능할 수 있게 주문자의 도수 렌즈 사양에 맞춰서 가공해 생산할거다.
Q: 안경 형태 이외의 AI 기기 연구하는거 따로 없음?
있음
Q: 레이밴-메타에 들어간 트랜지션 렌즈에 대한 평가는?
개좋음. 이번에 레이밴에 들어간 2세대 트랜지션 렌즈는 실내에서는 엄청 투명하고, 야외로 나가면 매우 빠르게 틴팅이 적용된다. 바뀌는데 한 30초밖에 안 걸려서 1세대 트랜지션 렌즈와 비교해서 제값을 함.
Q: 제품 발표에서 대중들의 반응이 가장 놀라웠던건 뭐였음?
대부분 어느정도 예상된 반응이었음. 가장 얘기하고 싶었던건 혼합현실 API (카메라 접근 권한) 공개에 대한 열광인데, 꽤 박수를 많이 받았다. 그러니깐 지금까지 인터넷에서 이걸로 나 공격하고 괴롭히던 개발자 님들아, 이 기능으로 정말 대단한 앱들을 보여줄 각오를 하는게 좋을거다.
Q: 호라이즌 월드에서 메타 커넥트 행사를 3D 영상으로 볼 수 있어서 좋았다. 여기에 쓰인 기술이 다른 곳에도 쓰일 수 있는지?
재미있게 즐겼다니 기쁘다. 호라이즌 월드가 이러한 경험을 공유할 수 있는 공간이라는 사실이 자랑스럽다. 호라이즌 월드에 3D 스트리밍을 송출하는 기술에 관심이 있는 사람들이 있는것 같으니, 조만간 관련 내용으로 게시물을 만들겠음. 우리도 호라이즌 월드에서 이와 비슷한 3D 스트리밍 경험들을 더 많이 제공하고자 한다.
Q: 이번에 나온 극사실주의 가상환경인 Hyperscape를 다른 3D 가우시안 스플래팅 기술과 비교한다면?
매우 좋다. 실제로 봤을때 엄청나다는 평가가 많아서 출시를 결정한 것. 물론 3D 가우시안 스플래팅(3DGS) 기술 자체적인 한계가 있지만, 메타는 해당 기술을 열심히 파고있는 입장에서 상당한 진척을 보여주고 있음. 2-3년 전에는 3DGS에 동적 광원효과 적용도 불가능했지만, 현재는 제한적으로나마 가능하게 되었고, 태생적으로 지오메트리나 폴리곤이 없는 형태지만 이제는 3DGS 기반으로 텍스쳐랑 지오메트리도 제한적으로나마 뽑아낼 수 있게 되었다. 아직 우리는 3DGS 기술의 태동기에 있지만, 지금 수준에서도 상당하기 때문에 Hyperscape는 앞으로 더 발전할 이 기술의 좋은 시작점이라고 생각함.
https://youtu.be/HIKD4ZYdunA?si=yIc4hrwAhMLYjWt6
Q: 2016년에 예고했던 포비티드 렌더링 기술은 어떻게 된거임?
이미 어느정도의 고정 포비티드 렌더링 같은건 적용되고 있다. 동적 포비티드 렌더링이 유의미한 효과를 얻을 수 있는 수준으로 매우 고품질이 되려면, 우선적으로 매우 정확한 아이트래킹이 요구된다. 재미있는 점은 그 정도로 빠르고 정확한 아이트래킹을 구동하려면 많은 연산력이 필요한데, 그렇게 아이트래킹을 위해 추가적으로 투입되는 연산력이 포비티드 렌더링으로 얻어지는 연산력 여유분보다 더 많아지는 주객전도가 발생한다는 것이다.
물론 항상 그렇지만은 않지만, 어쨌든 지금으로서는 아이트래킹을 더 값싸고 효율적으로 실행할 수 있는 기술적 혁신이 필요한게 사실이다. 언젠간 보편화될 기술인건 확실하고, 특히 AR과 다르게 화면 전체를 렌더링 해야하는 MR 헤드셋의 경우 고해상도로 갈수록 쓸데없이 시야각 전체 렌더링을 위해 연산력을 낭비하지 않게 할 수 있는 부분에 있어 매우 유용하다. 아무튼 우리가 이 기술을 포기한건 아니고, 머지않아 적용될건 맞지만, 이런 문제점들로 인해 지금까지 적용되진 않았던거.
Q: 퀘스트 3S에서 개인적으로 가장 마음에 드는 점?
가격.
오리온 같은 최첨단 기술의 금자탑 얘기를 하는것도 재밌지만, 퀘스트 3S 같은 제품을 그렇게 싼 가격에 출시하는 것에도 엄청난 기술적인 도전이 요구된다.
Q: 퀘스트 HDMI 기능 언제 열어줌?
?? 이미 열려있음 ㅋㅋ 물론 HDMI 캡쳐 카드 동글이 따로 필요하긴 하다. 이건 당장 퀘스트에 들어간 퀄컴 XR2 SoC에 HDCP 기능이 미탑재 되어있어서 그런데, 다음 제품에는 기본으로 들어갈 예정.
(즉, 이후 제품들은 캡쳐 카드 없이도 HDMI 연결로 가상 모니터로 작동하게 하는 기능 지원 예정)
- 번역 끝 -
https://www.instagram.com/stories/highlights/18049305052745931
(IP보기클릭)202.31.***.***
(IP보기클릭)223.194.***.***
26년 출시를 목표로하고 있다고 들었습니다 | 24.10.01 14:24 | | |
(IP보기클릭)175.223.***.***