실시간 동영상까지 인식하는 새로운 플래그십 모델 GPT-4o가 공개되었습니다.
GPT-4o (“o” for “omni”)는 텍스트, 오디오 및 이미지의 어떤 조합이든 입력으로 받아들이고 텍스트, 오디오 및 이미지의 어떤 조합이든 출력을 생성하여 훨씬 자연스러운 인간-컴퓨터 상호 작용을 위한 한 걸음입니다.
기존 모델에 비해 시각 및 음성 이해 부분에서 특히 우수합니다.
GPT-4o의 텍스트 및 이미지 기능은 오늘부터 ChatGPT에서 사용 가능합니다. GPT-4o를 무료 티어에서 제공하며, 플러스 사용자에게는 최대 5배 높은 메시지 한도를 제공합니다.
또한 ChatGPT 플러스에서 GPT-4o를 활용한 새로운 Voice Mode의 알파 버전을 다음 몇 주 안에 출시할 예정입니다.
https://www.youtube.com/live/DQacCB9tDaw
소개영상
실시간 보이는 풍경 설명
생일축하
즉석에서 무반주로 화음 맞춰 노래
(IP보기클릭)118.221.***.***
(IP보기클릭)116.84.***.***
(IP보기클릭)211.234.***.***
원래 그냥 무료버전은 문장바꿔주는 용도로밖에 도움안되고 돈 내고 써야 원하는 수준될겁니다 | 24.05.14 06:39 | | |
(IP보기클릭)172.224.***.***
유료쓰심 다른세상입니다 | 24.05.14 07:36 | | |
(IP보기클릭)106.102.***.***
아 현질 해야 달라지는군여 실존 하지도 않는거 자꾸 지어내서 이야기하고 서울에 에펠탑 있다고 하질않나 이게 맞나 싶었습니다. | 24.05.14 07:42 | | |
(IP보기클릭)221.141.***.***
GPT-3.5와 4 모두 써보고 몇달째 유료결제하는 입장에서 말하자면, 완전히 차원이 다름. | 24.05.14 09:34 | | |
(IP보기클릭)118.34.***.***
그리고 gpt는 설정 들어가서 본인이 누구인지 어떤 형식의 대답을 듣고싶은지 커스터마이징 해주셔야 원하는대로 대답해줍니다. | 24.05.14 10:24 | | |
(IP보기클릭)121.133.***.***
3.5는 미끼구요 최신 모델들은 미리학습된 데이터로 대답하는게 한계가 있다보니 저런식으로 실시간 인풋 데이터를 받아서 현실과 밀접한 대답을 하려는 방향으로 발전중입니다 | 24.05.14 10:52 | | |
(IP보기클릭)122.45.***.***
(IP보기클릭)211.234.***.***