본문

글쓰기   목록 | 이전글 | 다음글

[유머] 엔비디아, 메모리 사용량 20배 절감기술 개발 [21]


profile_image


(3323793)
88 | 21 | 11817 | 비추력 201202
프로필 열기/닫기
글쓰기
|
목록 | 이전글 | 다음글

댓글 | 21
1
 댓글


(IP보기클릭)112.156.***.***

BEST
기술 개발 했다고 했지 충분하다고는 안했지
26.03.22 18:11

(IP보기클릭)119.196.***.***

BEST
당연히 게임에 쓰이는 메모리가 절감된다는 소리가 아니라 이럴일은 없다
26.03.22 18:12

(IP보기클릭)220.86.***.***

BEST
근데 본문에 적힌건 추론 메모리 압축이라 사실이면 큰거 맞아보이는데? 실제로 막대한 메모리 소모가 거기서 오는데 저렇게 압축 가능하면 메모리를 그렇게 확보할 필요는 없을거고 반대로 그래픽카드 메모리는 AI에 쓴거 아니라면 어차피 커야되니까 가격 안정화 들어갈텐데
26.03.22 18:13

(IP보기클릭)125.129.***.***

BEST
저거 지금 LLM에 들어가는 메모리 줄어든다는 소리 아님? 좋은거 아닌가????
26.03.22 18:09

(IP보기클릭)221.153.***.***

BEST
크아아악!
26.03.22 18:09

(IP보기클릭)210.91.***.***

BEST
전쟁에 갈려나가는 사람 줄이려고 기관총을 개발했지만, 현실은 더 많이 갈려나갈 뿐이었지........
26.03.22 18:12

(IP보기클릭)125.182.***.***

BEST
크아악
26.03.22 18:11

(IP보기클릭)61.101.***.***

ㅋㅋ
26.03.22 18:08

(IP보기클릭)221.153.***.***

BEST
크아아악!
26.03.22 18:09

(IP보기클릭)125.129.***.***

BEST
저거 지금 LLM에 들어가는 메모리 줄어든다는 소리 아님? 좋은거 아닌가????
26.03.22 18:09

(IP보기클릭)118.235.***.***

마/격
압축기술을 일단 개발했다는거지, 현장에서 안쓰면 도루묵임. | 26.03.22 18:12 | | |

(IP보기클릭)118.235.***.***

PTLimA
예전 피직스 기술도 개발은 한것 치곤 애매했지. 지원하는 게임은 더 적었고. | 26.03.22 18:13 | | |

(IP보기클릭)125.180.***.***

마/격
좋은 건 맞는데 AI 기업들이 이거 믿고 사려던 램을 덜 사는 일은 없을테니 가격은 그대로일 듯 | 26.03.22 18:23 | | |

(IP보기클릭)125.180.***.***

PTLimA
그런데 이 기술은 금방 쓰이긴 할 것 같음 엔비디아에서 SRAM 사용하는 LPU를 밀려는 모양인데 여기에 들어가는 SRAM 용량이 500MB 정도인가밖에 안 되니까 자주 사용되는 단기기억을 최대한 압축하는 기술을 유용하게 써먹을 것 같음 스마트폰같이 램 용량이 적은 기기에서 AI 돌릴 때도 괜찮을 것 같고 | 26.03.22 18:30 | | |

(IP보기클릭)125.182.***.***

BEST
크아악
26.03.22 18:11

(IP보기클릭)112.156.***.***

BEST
기술 개발 했다고 했지 충분하다고는 안했지
26.03.22 18:11

(IP보기클릭)121.159.***.***

절망편 2 : 가격 4,999$
26.03.22 18:12

(IP보기클릭)119.196.***.***

BEST
당연히 게임에 쓰이는 메모리가 절감된다는 소리가 아니라 이럴일은 없다
26.03.22 18:12

(IP보기클릭)210.91.***.***

BEST
전쟁에 갈려나가는 사람 줄이려고 기관총을 개발했지만, 현실은 더 많이 갈려나갈 뿐이었지........
26.03.22 18:12

(IP보기클릭)211.234.***.***

ㅋㅋ엔잘알
26.03.22 18:12

(IP보기클릭)220.86.***.***

BEST
근데 본문에 적힌건 추론 메모리 압축이라 사실이면 큰거 맞아보이는데? 실제로 막대한 메모리 소모가 거기서 오는데 저렇게 압축 가능하면 메모리를 그렇게 확보할 필요는 없을거고 반대로 그래픽카드 메모리는 AI에 쓴거 아니라면 어차피 커야되니까 가격 안정화 들어갈텐데
26.03.22 18:13

(IP보기클릭)14.33.***.***

저정도로 차이나면 아예 AI 전용 GPU 랑 분리되겠제
26.03.22 18:14

(IP보기클릭)122.47.***.***

그래봤자 데이터 센터의 효율이 올라갔을 뿐 D램 은 여전히 압도적으로 많이 퍼먹겟지 효율이 오르면 그 효율만큼 현상 유지하려고 예산을 내리지 않고 오히려 거기서 더 엑셀을 밟아버리는게 자본주의 시장인데
26.03.22 18:15

(IP보기클릭)1.224.***.***

저런다고 메모리 안쓰는거 아니지 저러면 20배 더 효율적이니까 램 2배 박으면 40배겠네? 이 생각할걸
26.03.22 18:15

(IP보기클릭)121.168.***.***

게이밍용 V램이 아니라 LLM 모델에서의 램 절감 기술 같은데? 오히려 좋아진거 아님?
26.03.22 18:20

(IP보기클릭)125.180.***.***

크로스핏가기싫어
나쁜 건 아니지만 이런 기술이 나왔어도 AI 업체들이 램을 덜 사갈 것 같진 않음 | 26.03.22 18:31 | | |

(IP보기클릭)175.197.***.***

하늘물총새
같은 스펙으로 20배의 기억 용량으로 연산이 가능하다고 생각 할 것 같은데? | 26.03.22 18:47 | | |

(IP보기클릭)94.156.***.***

루리웹-6087698689
분명히 그렇게 생각할 듯 | 26.03.22 18:59 | | |


1
 댓글




목록 | 이전글 | 다음글
X