[{"keyword":"\ub864","rank":3},{"keyword":"\uc9c1\uad6c","rank":0},{"keyword":"\ube14\ub8e8\uc544\uce74","rank":-2},{"keyword":"\ubc84\ud29c\ubc84","rank":-1},{"keyword":"@","rank":0},{"keyword":"\ud53c\uc2dd","rank":0},{"keyword":"\ubbfc\ud76c\uc9c4","rank":4},{"keyword":"\uc6d0\uc2e0","rank":0},{"keyword":"\ub9d0\ub538","rank":0},{"keyword":"\ub9bc\ubc84\uc2a4","rank":2},{"keyword":"\uc720\ud76c\uc655","rank":3},{"keyword":"\uc2a4\ud0c0\ub808\uc77c","rank":-2},{"keyword":"\ud53c\uc2dd\ub300\ud559","rank":"new"},{"keyword":"\ucd78\ud0a4","rank":-7},{"keyword":"\ubc14\ud0a4","rank":"new"},{"keyword":"\uc778\ubc29","rank":5},{"keyword":"\uac74\ub2f4","rank":3},{"keyword":"\uae40\uc774\ube0c","rank":-2},{"keyword":"\ub2c8\ucf00","rank":-6},{"keyword":"\uc6d0\ud53c\uc2a4","rank":-1},{"keyword":"\uc2a4\ud154\ub77c","rank":-3},{"keyword":"\ub358\ud30c","rank":"new"}]
(IP보기클릭)121.164.***.***
이미 유게에도 올라온거긴 한데, LLM 학습이 아니라 실행이면 원래 저전력 칩으로도 가능한 거 아니었나. 좀 더 찾아보니 특정 연산에만 극단적으로 최적화된 ASIC의 다음세대로 비유하는 거 보면 애초에 다양한 병렬연산에 활용하기 위해 쓰는 H100같은 범용GPU하고 비교대상은 아닌 것 같음.
(IP보기클릭)211.234.***.***
gpt2.....
(IP보기클릭)175.206.***.***
(IP보기클릭)121.164.***.***
이미 유게에도 올라온거긴 한데, LLM 학습이 아니라 실행이면 원래 저전력 칩으로도 가능한 거 아니었나. 좀 더 찾아보니 특정 연산에만 극단적으로 최적화된 ASIC의 다음세대로 비유하는 거 보면 애초에 다양한 병렬연산에 활용하기 위해 쓰는 H100같은 범용GPU하고 비교대상은 아닌 것 같음.
(IP보기클릭)119.67.***.***
(IP보기클릭)121.163.***.***
(IP보기클릭)121.156.***.***
하드웨어 만드는거야 우리나라 팹리스에서도 많이 만듦. 당연히 램크루지 엔비디아보다 메모리도 많이 집어넣음. 문제는 GPT 같은 초거대 AI가 엔비디아 CUDA 기반의 학습모델로 돌아가고, 후발주자들은 CUDA를 에뮬레이션 시키는 ASIC을 만드는걸로 경쟁함. | 24.03.06 22:25 | | |
(IP보기클릭)121.156.***.***
문제는 소프트웨어지 하드웨어가 아님. 독점 소프트웨어에서 벗어나면 IBM 호환 컴퓨터가 전용 프로세서 시장을 부셨던 초기 컴퓨터 시장처럼 점유율을 확대 할텐데, CUDA 프로세싱을 벗어난 모델을 새로 개발하기엔 후발주자가 할 일도 많고, 이미 오픈AI를 비롯한 초거대 학습모델들이 쌓아놓은 레거시 쳐내고 0부터 새로 쌓아야됨. <- 그 누구도 안함. 그래서 엔비디아 그래픽 카드 비싸다고 징징대면서 인텔이나 AMD, 퀄컴의 대체제는 거들떠도 안보는거. | 24.03.06 22:29 | | |
(IP보기클릭)121.163.***.***
결론은 엔비디아가 기가막히게 가꿔놓은 cuda생태계를 어떻게 벗어나냐 혹은 그런 문제군요 성능은 문제가 아니란건 새삼스럽게 다시 이해했네요 정성스런 댓글 감사합니다 | 24.03.06 22:57 | | |
(IP보기클릭)211.234.***.***
gpt2.....