사실 이건 현재 화두인 diffusion 기반의 text2img의 모델들(OpenAI의 dall-e 2, 구글의 imagen, 오픈소스로는 유명한 stable diffusion 등) 뿐만 아니라 그냥 일반적인 language, vision 모델들에 다 해당하는 이야긴데...
다 차치하고 여기서 익숙한 diffusion 기반의 모델만 말하자면, 학습 후 이미지를 생성할 땐 가우시안 노이즈에서 시작해서 모델이 그 노이즈를 여러 스텝에 걸쳐서 걷어내며 그림을 얻는거거든. 그래서 랜덤 시드마다 달라지기도 하는거고.
하여튼 이걸 그냥 인간에게 대입해보면 사실 사람이 여러 그림을 보며 배우고, 이후에 그려내는거랑 근본적으론 차이가 없다고 생각하거든?
사실 현재 모델에게 프롬프트로 어떤 그림을 그려라 라고 말하는건 예를들어 그냥 그림을 잘 그리는 사람에게 람브란트 화풍으로 무슨무슨 그림을 그려주세요랑 다를 바가 없으니까.
다만 모델 그 자체가 아니라 이를 상업적 서비스로 제공할 경우엔, 사실 모델 자체는 말이 AI지 아직도 '지능'이라는건 없고 그냥 도구일 뿐이니까 그 업체 자체가 프롬프트에서 나온 결과물이 법적으로 문제가 되지 않도록 필터링하는 식의 조치를 취하도록 하는건 필요하다는 생각이 드네.
근데 이것도 쉽지 않은 이야기지...
(IP보기클릭)223.62.***.***
어린사슴아이디어
결국 시장이 기계그림을 선호하느냐 손그림을 선호하느냐로 나눠진거지 | 22.10.06 16:22 | | |
(IP보기클릭)39.120.***.***
뭐 아직까진 텍스트 인코딩을 통한 의미전달 및 컨디셔닝이나 그림 생성 따위가 뛰어난 사람 수준으론 불가능하니 인간의 그림을 선호하긴 하겠지. 다만 다른 사람들 우려대로 실력이 없거나 애매한 사람들의 작업물의 가성비가 문제일듯.. | 22.10.06 16:28 | | |
삭제된 댓글입니다.
(IP보기클릭)39.120.***.***
신세계의미생물
어떻게 잘 활용하는 방향으로 사람이 변화하는 수밖에 없는 것 같기도 하고.. | 22.10.06 16:29 | | |