본문

글쓰기   목록 | 이전글 | 다음글

[유머] Ai) 딥시크 인터넷 커뮤니티 발 이상한 선동 제발 좀 그만 [77]


profile_image

profile_image (4545004)
87 | 77 | 12007 | 비추력 45586
프로필 열기/닫기


#Ai
글쓰기
|
목록 | 이전글 | 다음글

댓글 | 77
1
 댓글


(IP보기클릭)223.38.***.***

BEST
그건 네이버 ai팀에 물어보셔야…. 사실 거기도 성과 꽤 많이 내긴 함 하이퍼클로바가 ㅈ은 아님
25.01.27 22:04

(IP보기클릭)175.213.***.***

BEST
그러니까 딥시크: 저수준에서 최적화 잘된거 진짜는 중국에서도 고수준의 AI 연구가 이뤄지고 있다는거 라는거 같음
25.01.27 22:08

(IP보기클릭)223.38.***.***

BEST
국내 llm 연구는 고려대랑 서울대 연구도 좀 쳐지는게 어쩔수없음 당장 돈 안되는데 수백억 던지라면 던지는 연구풍이 아니여
25.01.27 22:09

(IP보기클릭)222.118.***.***

BEST
출처가 없고 말만 있어서 비추줬어..
25.01.27 22:08

(IP보기클릭)223.38.***.***

BEST
걔네는 llm 아닌 쪽은 진심이고 연구성과 꽤 좋음 Llm 너무 늦게 들어가서 그만
25.01.27 22:06

(IP보기클릭)175.119.***.***

BEST
나도 글에 근거가 없고 뇌피셜로만 정리돼 있길래 걍 비추 줌..
25.01.27 22:10

(IP보기클릭)223.38.***.***

BEST

딥시크 모델은 2023년부터 허깅페이스랑 깃헙에서. 팔로우하고 본 개발자임 결국 괜찮은데 qwen보다 낫냐면 글세요? 에 프롬프트 관련 문제가 좀 있고 이런 점을 올려봤자 음
25.01.27 22:15

(IP보기클릭)106.101.***.***

그래서 자연어로 명령하면 파이썬 뽑아오는건 어디가 제일 성능 좋음..?
25.01.27 22:03

(IP보기클릭)223.38.***.***

보드카🍸
클로드가 제일 나음 근데 제일 비쌈 가성비는 chatgpt나 자체적으로 qwen/llama 기반 파이선 모듈 올리는 거 | 25.01.27 22:04 | | |

(IP보기클릭)106.101.***.***

이세계 세가사원
문돌이는 챗 gpt나 써야겠군 | 25.01.27 22:04 | | |

(IP보기클릭)115.138.***.***

근데 네이버는 왜 이거 못 만듬
25.01.27 22:03

(IP보기클릭)223.38.***.***

BEST 🐣RED O
그건 네이버 ai팀에 물어보셔야…. 사실 거기도 성과 꽤 많이 내긴 함 하이퍼클로바가 ㅈ은 아님 | 25.01.27 22:04 | | |

(IP보기클릭)115.138.***.***

이세계 세가사원
제작년에 썼을땐 별로였는데 요즘은 쓸만하나 | 25.01.27 22:05 | | |

(IP보기클릭)223.38.***.***

BEST 🐣RED O
걔네는 llm 아닌 쪽은 진심이고 연구성과 꽤 좋음 Llm 너무 늦게 들어가서 그만 | 25.01.27 22:06 | | |

(IP보기클릭)115.138.***.***

이세계 세가사원
그럼 llm은 별로인거 아녀? | 25.01.27 22:07 | | |

(IP보기클릭)223.38.***.***

BEST 🐣RED O
국내 llm 연구는 고려대랑 서울대 연구도 좀 쳐지는게 어쩔수없음 당장 돈 안되는데 수백억 던지라면 던지는 연구풍이 아니여 | 25.01.27 22:09 | | |

(IP보기클릭)118.91.***.***

🐣RED O
있는 연구비 부터 깍는 나라인데 이런 기풍이 그냥 나오는게 아니지 | 25.01.27 22:32 | | |

삭제된 댓글입니다.

(IP보기클릭)222.118.***.***

BEST
[삭제된 댓글의 댓글입니다.]
루리웹-2861569574
출처가 없고 말만 있어서 비추줬어.. | 25.01.27 22:08 | | |

(IP보기클릭)175.119.***.***

BEST
[삭제된 댓글의 댓글입니다.]
루리웹-2861569574
나도 글에 근거가 없고 뇌피셜로만 정리돼 있길래 걍 비추 줌.. | 25.01.27 22:10 | | |

(IP보기클릭)223.38.***.***

BEST 범성애자

딥시크 모델은 2023년부터 허깅페이스랑 깃헙에서. 팔로우하고 본 개발자임 결국 괜찮은데 qwen보다 낫냐면 글세요? 에 프롬프트 관련 문제가 좀 있고 이런 점을 올려봤자 음 | 25.01.27 22:15 | | |

(IP보기클릭)222.118.***.***

이세계 세가사원
라벨링이 잘 되어서 라고 보는 근거가 뭐야? 그래도 중소기업에서 딥러닝으로 밥벌어먹는 나부랭이로써 대충 이해할 수는 있으니까.. | 25.01.27 22:26 | | |

(IP보기클릭)175.119.***.***

이세계 세가사원
Ai 개발자임? 팔로우 하고 뭘 어떻게 봤다는거임 포럼에서 토론이라도 했다는거? 난 본문에서 주장의 근거에 대해 물어봤지 니 신원을 물어본게 아닌데.. | 25.01.27 22:28 | | |

(IP보기클릭)223.38.***.***

[삭제된 댓글의 댓글입니다.]
루리웹-2861569574
그 최근 연구 주 영역이 이쪽이 아니라고 아카이브 링크 던져도 무슨 의미가 있냐고… | 25.01.27 22:13 | | |

(IP보기클릭)211.46.***.***

[삭제된 댓글의 댓글입니다.]
루리웹-2861569574

중꿔AI덕분에 유게이들이 꼴비기싫은 황가놈 주식폭락했다는 말을 계속언급하면서 돌려까기로 즐기고 있는데 이런 글이 방해하잖아!! | 25.01.27 22:15 | | |

(IP보기클릭)210.105.***.***

아 그러니까 ai그림으로 치면 갤부루를 긴빠이한 nai를 긴빠이해서 파생된 수많은 모델 중에서 2만건의 짤을 직접 라벨링해서 추가로 학습시킨 포니모델 같은거군요
25.01.27 22:04

(IP보기클릭)221.141.***.***

뭔소린지 잘 모르겠다
25.01.27 22:05

(IP보기클릭)175.213.***.***

BEST
슙슙
그러니까 딥시크: 저수준에서 최적화 잘된거 진짜는 중국에서도 고수준의 AI 연구가 이뤄지고 있다는거 라는거 같음 | 25.01.27 22:08 | | |

(IP보기클릭)121.54.***.***

긴빠이 vs 긴빠이
25.01.27 22:06

(IP보기클릭)14.50.***.***

천하제일합법긴빠이대전
25.01.27 22:06

(IP보기클릭)110.70.***.***

것보다 프사 뭐임?
25.01.27 22:07

(IP보기클릭)223.38.***.***

루리웹-36201680626
404 에러 게임 리셋이란 망한 게임 주인공 서포트 ai 캐릭터 | 25.01.27 22:09 | | |

(IP보기클릭)125.176.***.***

루리웹-36201680626

에러 게임 리셋이라는 세가 모바일게임의 타이틀히로인임 근데 겜 망함ㅠ | 25.01.27 22:10 | | |

(IP보기클릭)110.70.***.***

이세계 세가사원
아 그 해골놈 꺼 ... ㅋ | 25.01.27 22:11 | | |

(IP보기클릭)180.68.***.***

뭔얘기인지는 모르겠는데 이게 비추 받을 내용인가
25.01.27 22:07

(IP보기클릭)211.201.***.***

二律背反
뭔지 잘 모르겠음 + 지금 대세 여론에 찬물 끼얹는 내용 = 비추 한두 번이냐고~ | 25.01.27 22:16 | | |

(IP보기클릭)211.215.***.***

일반인들이 널리 쓰기에는 딥시크만한게 없고 ai 고점을 뚫는 작업은 연산량이 중요하다?
25.01.27 22:07

(IP보기클릭)223.38.***.***

포오텐셜
아예 다른 아키텍쳐 뒤집는 연구나 초거대모델 연구가 필요한 상황임 누가 또 판을 all you need is attension 때처럼 (지금 llm 붐) 뒤엎거나 아니면 초거대모델 이론 완성하면 바뀜 | 25.01.27 22:10 | | |
파워링크 광고

(IP보기클릭)211.226.***.***

모자란 하드웨어 성능을 양질의 자료 학습으로 매꿨다는 건가 양질의 자료가 필요한 만큼 댓가없이 이뤄진 퀄리티는 아니란 거구만
25.01.27 22:07

(IP보기클릭)14.34.***.***

근데 네이버는 진짜 뭐함?
25.01.27 22:08

(IP보기클릭)122.43.***.***

MoonD4
네이버가 기술력 높은 회사도 아니고 내수 원툴 회사인데 어떻게 못하지 | 25.01.27 22:09 | | |

(IP보기클릭)185.77.***.***

MoonD4
"라인"이 일본하고 얽혀 있어서 골머리 썩는 상황임. 메신저 권리도 문제지만, 네이버가 개발한 AI "하이퍼 크로바 X"의 지분에 라인도 끼어있음. 일본정부가 라인을 먹으려고 하는 와중에 자체 개발한 AI도 라인하고 엉겨붙어 있어서 복잡하게 됨. 왜 라인 본사를 일본으로 박아놔서 고생인지 모르겠음.... | 25.01.27 22:15 | | |

(IP보기클릭)14.34.***.***

집에사는 고양이
와 그건 뭐 당장 노력한다고 해결될것도아니고 말만들어도 골아프네;; | 25.01.27 22:17 | | |

(IP보기클릭)125.129.***.***

루리웹-7890987657
내수 원툴이라기에는 라인으로 일본 동아시아에도 영향력 있고 그래서 일본 정부가 라인 먹으려고 난리였지 | 25.01.27 22:17 | | |

(IP보기클릭)185.77.***.***

루리웹-6775578871
동남아시아에도 라인 지분이 큰데, 네이버가 실수를 했음, 그건, 사업 전개를 할때 오직 "라인"만 홍보하고 네이버를 홍보 안 함. 생고생해서 개척한 시장을 일본은 라인 먹어서 그대로 삼키겠다는 계략이고...; | 25.01.27 22:19 | | |

(IP보기클릭)14.34.***.***

[삭제된 댓글의 댓글입니다.]
루리웹-8742925442
연구소 규모 네이버랑 비비는데라그래서 물어본건데 뭔지 잘 모르겠음은 이해하는데 지금 대세여론은 뭐고 무슨 찬물을 끼얹었다는거야 네이버 뭐하는지 물어보면 딥시크한테 찬물 끼얹는다는 소리야뭐야 그것보단 비추박히는거보면 무지성 국까로 보였나 싶기는함 | 25.01.27 22:16 | | |

(IP보기클릭)211.201.***.***

[삭제된 댓글의 댓글입니다.]
MoonD4
아니 내가 댓글을 다른 곳에 잘못 달았음 ㅈㅅ~ | 25.01.27 22:16 | | |

(IP보기클릭)14.34.***.***

[삭제된 댓글의 댓글입니다.]
루리웹-8742925442
글쿠먼 너무 이상하긴 했어 | 25.01.27 22:17 | | |

(IP보기클릭)49.161.***.***

그니까, 인간들이 자주물어보는거 관심있는거 그런거 대상으로 집중교육된게 딥식이고, 진정한 의미에서 agi로 가기위한거는 여전히 여러 기업에서 분투중이다 그거지
25.01.27 22:08

(IP보기클릭)211.219.***.***

그러니까 보편적으로 사용하는 AI로는 딥시크가 가성비가 좋아서 오픈 AI가 까불다가 한 대 맞은 셈이고, 실제로 사람들이 주시하지 않는 쪽에선 미국과 중국이 하이엔드급을 다투고 있다는 거구만.
25.01.27 22:10

(IP보기클릭)175.201.***.***

ai의 고점을 높였다기보단 ai의 저점, 평균점에 도달하기 위해 들어가는 코스트와 시간을 대폭줄인데 의의가 있다고 보면됨?
25.01.27 22:10

(IP보기클릭)118.37.***.***

uspinme
그정도인듯. | 25.01.27 22:11 | | |

(IP보기클릭)125.191.***.***


쟤네한테 명함도 못 내미는 네이버 Ai팀을 왜 가져와.. 추론능력면에서 예산 수십배 더 쓴 오픈Ai o1이랑 비등한걸 언급해야지
25.01.27 22:10

(IP보기클릭)122.43.***.***

쟈스티스
작성자 의도는 인디같은 소규모가 아니라 굳이 비교하자면 네이버 같은 꽤 큰곳에서 만들었다라는 소리지 | 25.01.27 22:11 | | |

(IP보기클릭)223.38.***.***

쟈스티스
모델사이즈 이론을 극복하진 못한 이론이라고 이게 이론입장에서 뒤집힌 게 아님 그냥 최적화로 성과 내봤다 정도야 | 25.01.27 22:12 | | |

(IP보기클릭)223.38.***.***

[삭제된 댓글의 댓글입니다.]
쟈스티스
그리고 일단 구동이 저렴하지 않음 이거 학습읗 싸게 먹인거지 구동을 싸게 먹인게 아냐 그래서 실제 서버머신에 돌려보면 qwen이 더 반응성 좋고 결과도 나음 | 25.01.27 22:17 | | |

(IP보기클릭)122.43.***.***

[삭제된 댓글의 댓글입니다.]
쟈스티스
작성자가 얘기하잖아 강 인공지능 같은 게임체인저급은 아니고 최적화에 의의가 있다고 네이버 얘기하는것도 그냥 규모 큰곳에서 만들었다는 얘기지 뭐 자동차 창고에서 만든 천재가 아니라는 얘기임 | 25.01.27 22:17 | | |

(IP보기클릭)223.38.***.***

[삭제된 댓글의 댓글입니다.]
쟈스티스
아래베글 보고오셈 막 말도안되는 내용 판을 침 | 25.01.27 22:21 | | |

(IP보기클릭)122.43.***.***

[삭제된 댓글의 댓글입니다.]
쟈스티스
유게만 봐도 스타게이트 산업, 이때까지 투자한 빅테크들 다 들러리 취급했는데 그래서 작성자가 한 소리 하는거 아닌가? | 25.01.27 22:22 | | |

(IP보기클릭)223.38.***.***

[삭제된 댓글의 댓글입니다.]
쟈스티스
제대로 된 업계나 기자면 “와 이걸 최적화했다고? 근데 아직은 좀 갈길이 있네요” “다음 개선 나오면 깨워줘라” “이 방법론 참신하네 우리도 도입해야지” 이건데 “막 중국은 신이고 어쩌고“ ”미국 ㅂㅅ들 꼬시다“ 이러는거 매 30분마다 올라오잖어 | 25.01.27 22:23 | | |

(IP보기클릭)211.46.***.***

이세계 세가사원
그리고 그 모든 글에는 엔비댜 주식 폭락 이야기가 빠짐없이 강조되지. 중꿔건뭐건간에 그냥 '최고의 글픽카드를 나에게 싸게 팔지 않는' 황가놈이 꼴비기 싫어서 돌려까기 촉매로 이번 중꿔AI를 올려치는거. 실제 기술 내용이 어떠한지는 처음부터 알 바 아님. 예전에도 니퐁이 ↖되게 하기만 하면 풋인도 물고빨고, 중꿔가 ↘되게 하기만 하면 프황상거리던거랑 똑같음. | 25.01.27 22:31 | | |

(IP보기클릭)211.46.***.***

아직 학생인가봄... 기업에서는 코스트가 가장 중요함 비슷한 성능 내면서 코스트 줄이는게 혁신임
25.01.27 22:12

(IP보기클릭)223.38.***.***

스택 오버플로우
기업입장에서도 아직 qwen 대비 실성능이 딸림 학습은 저렴하지만 구동은 저련하지 않음 | 25.01.27 22:16 | | |

(IP보기클릭)223.38.***.***

스택 오버플로우
난 학생 때는 아직 rnn cnn 싸우던 때 배워서 이후에 팔로우업하면서 따라감…. 취직 직전에 졸업때 어텐션 국내 소개되는거 보고 하 ㅈ망했네 하면서 논문내고 갔음 | 25.01.27 22:18 | | |

(IP보기클릭)211.46.***.***

스택 오버플로우
h100 등 GPU클러스터 직접 돌리고 있는 직무 입장에서 코스트가 1순위고, 학습 가능 여부가 가장 중요한 상황에서 돌파구를 마련해준거라 우리 입장에선 혁신임 다른 기업들도 마찬가지일걸? | 25.01.27 22:23 | | |

(IP보기클릭)223.38.***.***

스택 오버플로우
근데 학습가능이 저게 일반적 라벨링 데이터 정도로는 안된다는것도 같이 올라옴 그정도 라벨데이터가 있음? 사실상 논라벨이거나 비정규 라벨링 데이터 가지고 기존 거에다가 파인튜닝 돌리는 게 대부분이잖아 | 25.01.27 22:25 | | |

(IP보기클릭)223.38.***.***

스택 오버플로우
이미지 학습도 이미 된 결과물이 이미지 객체인식이 아니라 이미지 내의 텍스트 인식에 특화되어있고 그리고 결정적으로 저거 서버에 돌리면 qwen 파인튜닝보다 반응성이 좀 애매함… 사전 고정된 데이터에 대한 경직성도 결코 안 낮아보이고. 얼마나 거대한 서버를 가진 대기업인지 모르겠지만 기존 7b급 건드리는 데 아니면 솔직히 30b 사이즈 직접 돌리는게 나은 거 아니냔 말 계속 나오잖음 | 25.01.27 22:27 | | |

(IP보기클릭)211.46.***.***

이세계 세가사원
그정도 준비하는건 GPU 10만장씩 구매하는것에 비하는 일도 아님 | 25.01.27 22:28 | | |
파워링크 광고

(IP보기클릭)223.38.***.***

스택 오버플로우
선생님 회사가 아예 제로베이스 llm 개발할 정도로 투자해주는 곳이면 존경스럽네요 그런 데면 확실히 의미있긴 합니다 근데 대다수 회사는 그정도 규모가 아니니까요. | 25.01.27 22:30 | | |

(IP보기클릭)223.38.***.***

[삭제된 댓글의 댓글입니다.]
스택 오버플로우
이러면 국내에 손가락으로 꼽는게 빠른데 그런데면 의미가 있죠 저는 절대다수의 ai 모델 건드리는 직무 입장에서 이야기했습니다 ㅋㅋㅋㅋㅋ | 25.01.27 22:30 | | |

(IP보기클릭)211.46.***.***

이세계 세가사원
우리 정도 규모도 라이센스 프리한 llama 베이스로 건드렸지만(맨땅부터 생각하면 코스트가...) 이제는 엔드투엔드 파이프라인 쭉 뽑아볼만한 각이 잡힌거지... | 25.01.27 22:35 | | |

(IP보기클릭)223.38.***.***

스택 오버플로우
그정도 맘모스급이면 의미가 있죠 사실 저도 호들갑 대비 그렇게까지-에 실제 쓸 때 문제많은 거 요며칠 테스트 돌려서 어느정도 감잡아서 한 주장이기도 했구요 아 진짜 저희같은 찌끄래기는 qwen박에 길이 없습니다 | 25.01.27 22:38 | | |

(IP보기클릭)211.46.***.***

이세계 세가사원
qwen 참 좋습니다... 뇌를 초기화하지 않는한 중국어 뱉는 증상은 고칠 수 없다는게 문제라서 아쉽지만 | 25.01.27 22:40 | | |

(IP보기클릭)219.250.***.***

스택 오버플로우
그냥 출력에서 유니코드 중국어 영역 보이면 다시 뱉으라고 하는 게 제일 마음에 편하더라구요..... 파인튜닝 아무리 해도 중국어 뱉는게 해결이 안 돼서 | 25.01.27 22:42 | | |

(IP보기클릭)211.46.***.***

이세계 세가사원
32B 이하급에서는 qwen 말곤 대체제가 없으니 중국어 문제만 제외하면 앞으로도 계속 연구자들의 등불이 될거고 알리바바도 결국 QwQ 등 정식판 내면서 이 대열에 합류할텐데 오픈소스 친화적이니 콩고물 계속 기대해봐도 될듯합니다 | 25.01.27 22:47 | | |

(IP보기클릭)219.250.***.***

스택 오버플로우
네 사실 이 영역에서 딥시크가 좀 많이 기대 이하기도 했어요 저희같은 경우는 메타랑 알리바바 흘리는 거만 기대해야죠 뭐 | 25.01.27 22:48 | | |

(IP보기클릭)222.108.***.***

한국 소프트웨어계는 다 망했다고 보면 됨 같이 일해보면 진짜 욕만 나옴
25.01.27 22:12

(IP보기클릭)116.47.***.***

왜 화내는지 이해가 안되네 ㅋㅋㅋ
25.01.27 22:12

(IP보기클릭)218.154.***.***

지금 중국 AI에 대해서 정정해준다고 화내는 중국인,조선족들 많은듯 ㅋㅋㅋ
25.01.27 22:14

(IP보기클릭)223.38.***.***

[삭제된 댓글의 댓글입니다.]
동생대신
이건 맞음 Openai는 개명해야함 진짜로 | 25.01.27 22:17 | | |

삭제된 댓글입니다.

(IP보기클릭)223.38.***.***

[삭제된 댓글의 댓글입니다.]
루리웹-8432314078
ㅇㅇ 그래서 중국 위험하다는 맞는데 그게 다 딥시크님덕입니다는 아닌데 혼동자료가 너무많음 | 25.01.27 22:19 | | |

삭제된 댓글입니다.

(IP보기클릭)223.38.***.***

[삭제된 댓글의 댓글입니다.]
루리웹-5449829623
ㅇㅇ 굉장한 거 맞고 게임체인저는 아니고 그래서 일부 반응은 호들갑에 틀린 것도 많음 중국이 ai 약진하는것 자체는 사실임 | 25.01.27 22:24 | | |

(IP보기클릭)1.212.***.***

그냥 주식이 난리난 이유는 일단 사용자 입장에서 무료인 딥시크가 돈 처먹고 open 하지도 않는 openAI 보다 성능이 좋다고 난리가 나서 그런건가 보네... 주식 금방 회복될듯 근데 중국 AI 개발은 진짜 무섭긴 하다
25.01.27 22:25

(IP보기클릭)1.212.***.***

오지않는택배
그나저나 나도 딥시크 찍먹하려 하는데 왜 가입이 계속 안되지 서버 몰렸나 | 25.01.27 22:25 | | |

(IP보기클릭)210.99.***.***

칭와가 아니라 칭화여...
25.01.27 23:10


1
 댓글




목록 | 이전글 | 다음글
X